JP5644230B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5644230B2
JP5644230B2 JP2010164358A JP2010164358A JP5644230B2 JP 5644230 B2 JP5644230 B2 JP 5644230B2 JP 2010164358 A JP2010164358 A JP 2010164358A JP 2010164358 A JP2010164358 A JP 2010164358A JP 5644230 B2 JP5644230 B2 JP 5644230B2
Authority
JP
Japan
Prior art keywords
edge
image
edge portion
image data
target pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010164358A
Other languages
Japanese (ja)
Other versions
JP2012028952A (en
Inventor
茂 荒井
茂 荒井
健児 原
健児 原
美斉津 亨
亨 美斉津
紘太 松尾
紘太 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2010164358A priority Critical patent/JP5644230B2/en
Publication of JP2012028952A publication Critical patent/JP2012028952A/en
Application granted granted Critical
Publication of JP5644230B2 publication Critical patent/JP5644230B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

従来、電子写真方式やインクジェット方式などを採用した画像形成装置においては、通常、100〜200線程度のスクリーンが用いられているが、かかる画像形成装置では、中間調の文字や細線などを印字すると、文字や細線のエッジ部が滑らかに印字されず、所謂ジャギーと呼ばれるエッジのがたつきが目立つ場合がある。   Conventionally, in an image forming apparatus employing an electrophotographic method or an inkjet method, a screen of about 100 to 200 lines is usually used. However, in such an image forming apparatus, halftone characters or fine lines are printed. The edges of characters and fine lines may not be printed smoothly, and so-called jagged edges may be noticeable.

そこで、上記電子写真方式やインクジェット方式などを採用した画像形成装置において、中間調の文字や細線などに現われるジャギーと呼ばれるエッジのがたつきを低減する技術としては、例えば、画像データのエッジ検出を行い、画像のエッジ部を膨張させる膨張処理を行うことによりエッジ領域の拡張を行い、ジャギー感を低減させる画像処理技術が既に提案されている(特開2006−262204号公報)。   Therefore, in an image forming apparatus adopting the above-described electrophotographic method or inkjet method, as a technique for reducing the jagged edge called jaggy appearing in halftone characters or fine lines, for example, edge detection of image data is performed. An image processing technique for expanding the edge region by performing expansion processing for expanding the edge portion of the image and reducing the jaggy feeling has been proposed (Japanese Patent Laid-Open No. 2006-262204).

この特開2006−262204号公報に係る画像処理装置は、画像データに対して、エッジ部かそれ以外の非エッジ部かに応じて画像処理を切り替える画像処理装置において、前記画像データからエッジ部を抽出するエッジ抽出手段と、前記エッジ抽出手段による処理結果を受け取ってエッジ領域を広げてエッジ部と判定する再判定手段と、前記エッジ抽出手段及び前記再判定手段で判定されたエッジ部かあるいはそれ以外の非エッジ部かに応じた画像処理を行う処理手段を有するように構成したものである。   An image processing apparatus according to Japanese Patent Laid-Open No. 2006-262204 is an image processing apparatus that switches image processing for image data according to whether it is an edge part or another non-edge part. Edge extracting means to extract, re-determination means for receiving the processing result of the edge extracting means and expanding the edge region to determine an edge portion, or an edge portion determined by the edge extracting means and the re-determination means or And a processing means for performing image processing according to the non-edge portion.

特許2006−262204号公報Japanese Patent No. 2006-262204

ところで、この発明が解決しようとする課題は、100%近傍の高濃度領域での文字や細線画像のつぶれを抑制しつつ、中間調の文字や細線画像のジャギー感の低減を可能とした画像処理装置及び画像処理方法を提供することにある。   By the way, the problem to be solved by the present invention is image processing that can reduce the jaggy feeling of halftone characters and thin line images while suppressing the collapse of characters and thin line images in a high density region near 100%. An apparatus and an image processing method are provided.

すなわち、請求項1に記載された発明は、画像データからエッジ部か否かの判定を行うエッジ判定手段と、
前記エッジ判定手段の判定結果に基づいて前記画像データのエッジ領域を広げて当該画像データにおける注目画素をエッジ部と再判定するエッジ再判定手段と、
前記エッジ判定手段及び前記エッジ再判定手段によってエッジ部であると判定された画像データと、非エッジ部であると判定された画像データとで異なる処理を施す処理手段と、
前記注目画素の画像濃度が第1の値以上の場合には、当該注目画素がエッジ部であると再判定されにくくなるよう、且つ、前記注目画素の画像濃度が前記第1の値以下の場合には、当該注目画素がエッジ部であると再判定されやすくなるよう、前記エッジ再判定手段による再判定処理の内容を変更する変更手段とを備えたことを特徴とする画像処理装置である。
That is, the invention described in claim 1 is an edge determination means for determining whether or not the image data is an edge portion;
Based on the determination result of the edge determination means, and the edge portion and the re-determining edge redetermination unit pixel of interest in the image data to expand the edge regions of said image data,
Processing means for performing different processing between the image data determined to be an edge portion by the edge determination means and the edge redetermination means and the image data determined to be a non-edge portion;
When the image density of the target pixel is equal to or higher than the first value, the target pixel is less likely to be re-determined as an edge portion, and the image density of the target pixel is equal to or lower than the first value The image processing apparatus further includes a changing unit that changes the content of the redetermination process by the edge redetermination unit so that the target pixel is easily determined again as an edge portion .

また、請求項2に記載された発明は、前記エッジ再判定手段は、前記注目画素に対し、当該注目画素周辺の複数個の画素からなる判定領域内のエッジ画素数が閾値以上である場合にはその注目画素をエッジ部と再判定する一方、当該判定領域内のエッジ画素数が閾値以下である場合にはその注目画素を非エッジ部と再判定し、
前記変更手段は、前記注目画素の画像濃度が前記第1の値以上の場合には、前記エッジ再判定手段で用いられる前記閾値を上げると共に、前記注目画素の画像濃度が前記第1の値以下の場合には、前記エッジ再判定手段で用いられる前記閾値を下げることを特徴とする請求項1記載の画像処理装置である。
According to a second aspect of the present invention, the edge re-determination means is configured such that, for the target pixel, the number of edge pixels in a determination region including a plurality of pixels around the target pixel is greater than or equal to a threshold value. While re-determining the target pixel as an edge portion, if the number of edge pixels in the determination area is less than or equal to the threshold value, re-determine the target pixel as a non-edge portion
When the image density of the target pixel is equal to or higher than the first value , the changing unit increases the threshold used by the edge redetermining unit, and the image density of the target pixel is equal to or lower than the first value. The image processing apparatus according to claim 1, wherein the threshold used by the edge re-determination means is lowered .

さらに、請求項3に記載された発明は、前記変更手段は、前記注目画素の画像濃度が前記第1の値以上の場合には、前記エッジ再判定手段によりエッジ部と再判定する処理を行わず、前記注目画素の画像濃度が前記第1の値以下の場合には、前記エッジ再判定手段によりエッジ部と再判定する処理を行うことを特徴とする請求項1に記載の画像処理装置である。 Further, in the invention described in claim 3, when the image density of the target pixel is equal to or higher than the first value , the changing unit performs a process of re-determining an edge portion by the edge re-determination unit. The image processing apparatus according to claim 1 , wherein when the image density of the target pixel is equal to or less than the first value, the edge redetermination unit performs redetermination as an edge portion. is there.

又、請求項4に記載された発明は、画像データからエッジ部か否かの判定を行うエッジ判定工程と、
前記エッジ判定工程の判定結果に基づいて前記画像データのエッジ領域を広げて当該画像データにおける注目画素をエッジ部と再判定するエッジ再判定工程と、
前記エッジ判定工程及び前記エッジ再判定工程によってエッジ部であると判定された画像データと、非エッジ部であると判定された画像データとで異なる処理を施す処理工程と、
前記注目画素の画像濃度が第1の値以上の場合には、当該注目画素がエッジ部であると再判定されにくくなるよう、且つ、前記注目画素の画像濃度が前記第1の値以下の場合には、当該注目画素がエッジ部であると再判定されやすくなるよう、前記エッジ再判定工程による再判定処理の内容を変更する変更工程とを備えたことを特徴とする画像処理方法である。
The invention described in claim 4 is an edge determination step for determining whether or not the edge portion is from image data;
Based on the determination result of the edge determination step, and the edge portion and the re-determining edge redetermination process the target pixel in the image data to expand the edge regions of said image data,
A processing step of performing different processing between the image data determined to be an edge portion by the edge determination step and the edge redetermination step and the image data determined to be a non-edge portion;
When the image density of the target pixel is equal to or higher than the first value, the target pixel is less likely to be re-determined as an edge portion, and the image density of the target pixel is equal to or lower than the first value The image processing method further includes a changing step of changing the content of the redetermination process in the edge redetermination step so that the target pixel is easily judged again as an edge portion .

請求項1に記載された発明によれば、本構成を有しない場合と比較して、100%近傍の高濃度領域での文字や細線画像のつぶれを抑制しつつ、中間調の文字や細線画像のジャギー感の低減が可能となる。   According to the first aspect of the present invention, halftone characters and fine line images are suppressed while suppressing the collapse of characters and fine line images in a high density region near 100% as compared with the case without this configuration. The jaggy feeling can be reduced.

また、請求項2に記載された発明によれば、文字や細線画像のつぶれを抑制する画像濃度を容易に変更することができる。   Further, according to the invention described in claim 2, it is possible to easily change the image density for suppressing the collapse of characters and thin line images.

さらに、請求項3に記載された発明によれば、エッジ再判定手段の構成を簡略化することができる。   Furthermore, according to the third aspect of the invention, the configuration of the edge redetermining means can be simplified.

又、請求項4に記載された発明によれば、本構成を有しない場合と比較して、100%近傍の高濃度領域での文字や細線画像のつぶれを抑制しつつ、中間調の文字や細線画像のジャギー感の低減が可能となる。   Further, according to the invention described in claim 4, compared to the case without the present configuration, halftone characters and characters in a high density region near 100% are suppressed while suppressing collapse of characters and fine line images. It is possible to reduce the jaggy feeling of the fine line image.

この発明の実施の形態1に係る画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る画像処理装置を適用した画像形成装置を示す構成図である。1 is a configuration diagram illustrating an image forming apparatus to which an image processing apparatus according to Embodiment 1 of the present invention is applied. この発明の実施の形態1に係る画像処理装置を示すブロック図である。1 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention. 描画オブジェクトに応じたタグ情報を示す図表である。It is a graph which shows the tag information according to a drawing object. エッジ検出フィルタを示す図表である。It is a graph which shows an edge detection filter. この発明の実施の形態1に係る画像処理装置の動作を示す模式図である。It is a schematic diagram which shows operation | movement of the image processing apparatus which concerns on Embodiment 1 of this invention. 画像濃度に基づいた画像処理の相違を説明する図である。It is a figure explaining the difference of the image processing based on image density. 従来の画像処理を示す模式図である。It is a schematic diagram which shows the conventional image processing. 従来の画像処理を示す模式図である。It is a schematic diagram which shows the conventional image processing. この発明の実施の形態2に係る画像処理装置の動作を示す模式図である。It is a schematic diagram which shows operation | movement of the image processing apparatus which concerns on Embodiment 2 of this invention.

以下に、この発明の実施の形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

実施の形態1
図2はこの発明の実施の形態1に係る画像処理装置を適用した電子写真方式の画像形成装置を示すものである。この画像形成装置は、図示しないパーソナルコンピュータ(PC)から送られてくる画像データをプリントするプリンターとしての機能以外に、画像読取装置によって読み取られた図示しない原稿の画像を複写する複写機、並びに画像情報を送受信するファクシミリとしても機能するように構成されている。
Embodiment 1
FIG. 2 shows an electrophotographic image forming apparatus to which the image processing apparatus according to Embodiment 1 of the present invention is applied. In addition to the function as a printer for printing image data sent from a personal computer (PC) (not shown), this image forming apparatus includes a copying machine for copying an image of a document (not shown) read by the image reading device, and an image. It is also configured to function as a facsimile that transmits and receives information.

この画像形成装置1は、図2に示すように、画像形成装置本体2の内部に、例えば、本実施の形態に係る画像処理装置3を備えているとともに、当該画像処理装置3によって画像処理が施された画像データに基づいて画像を出力する画像出力部106が配置されている。また、画像形成装置本体2の内部には、イエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の各色に対応した画像形成部としての画像形成ユニット4Y、4M、4C、4Kを備えている。これらの4つの画像形成ユニット4Y、4M、4C、4Kは、基本的に形成する画像の色以外は同様に構成されており、大別して、矢印A方向に沿って所定の速度で回転駆動される像保持体としての感光体ドラム5と、この感光体ドラム5の表面を一様に帯電する一次帯電用のスコロトロン6と、当該感光体ドラム5の表面に各色に対応した画像データに基づいて画像露光を施して静電潜像を形成する画像露光装置7と、感光体ドラム5上に形成された静電潜像を対応する色のトナーによって現像する現像装置8と、感光体ドラム5の表面に残留したトナー等を清掃するクリーニング装置9とを備えている。   As shown in FIG. 2, the image forming apparatus 1 includes, for example, an image processing apparatus 3 according to the present embodiment inside an image forming apparatus main body 2, and image processing is performed by the image processing apparatus 3. An image output unit 106 that outputs an image based on the applied image data is arranged. The image forming apparatus main body 2 includes image forming units 4Y, 4M, 4C as image forming units corresponding to the respective colors of yellow (Y), magenta (M), cyan (C), and black (K). It has 4K. These four image forming units 4Y, 4M, 4C, and 4K are basically configured in the same manner except for the color of the image to be formed, and are roughly rotated at a predetermined speed along the arrow A direction. A photosensitive drum 5 as an image carrier, a primary charging scorotron 6 for uniformly charging the surface of the photosensitive drum 5, and an image based on image data corresponding to each color on the surface of the photosensitive drum 5. An image exposure device 7 that performs exposure to form an electrostatic latent image, a developing device 8 that develops the electrostatic latent image formed on the photosensitive drum 5 with toner of a corresponding color, and the surface of the photosensitive drum 5 And a cleaning device 9 for cleaning toner remaining on the toner.

上記画像処理装置3からは、図2に示すように、イエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の各色の画像形成ユニット4Y、4M、4C、4Kの画像露光装置7Y、7M、7C、7Kに対して対応する色の画像データが順次出力され、これらの画像露光装置7Y、7M、7C、7Kから画像データに応じて出射されるレーザー光LBが、対応する感光体ドラム5Y、5M、5C、5Kの表面に走査露光されて静電潜像が形成される。上記各感光体ドラム5Y、5M、5C、5Kの表面に形成された静電潜像は、現像装置8Y、8M、8C、8Kによって、それぞれイエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の各色のトナー像として現像される。   As shown in FIG. 2, the image processing apparatus 3 exposes the image forming units 4Y, 4M, 4C, and 4K for each color of yellow (Y), magenta (M), cyan (C), and black (K). Corresponding color image data is sequentially output to the devices 7Y, 7M, 7C, and 7K, and laser light LB emitted according to the image data from these image exposure devices 7Y, 7M, 7C, and 7K corresponds. The surfaces of the photosensitive drums 5Y, 5M, 5C, and 5K are scanned and exposed to form electrostatic latent images. The electrostatic latent images formed on the surfaces of the photosensitive drums 5Y, 5M, 5C, and 5K are respectively yellow (Y), magenta (M), and cyan (C) by the developing devices 8Y, 8M, 8C, and 8K. , And developed as a toner image of each color of black (K).

上記イエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の各色のトナー像は、中間転写ベルト10上に多重に一次転写された後、中間転写ベルト10から記録用紙11上に一括して二次転写され、定着装置12によって定着処理が施されて、フルカラーやモノクロ等の画像が形成された記録用紙11が出力される。   The yellow (Y), magenta (M), cyan (C), and black (K) toner images are primarily transferred onto the intermediate transfer belt 10 in a multiplex manner and then transferred from the intermediate transfer belt 10 to the recording paper 11. The recording sheet 11 on which a full-color image or a monochrome image is formed is output.

ところで、この実施の形態に係る画像処理装置3は、独立した装置として構成しても勿論良いが、例えば、電子写真方式の画像形成装置1にハードウエアとして予め内蔵されるか、画像形成装置1にプログラム(ソフトウエア)としてインストールされることによって構成されている。   Incidentally, the image processing apparatus 3 according to this embodiment may of course be configured as an independent apparatus. For example, the image processing apparatus 3 is built in the electrophotographic image forming apparatus 1 in advance as hardware, or the image forming apparatus 1. Are installed as programs (software).

図3はこの発明の実施の形態1に係る画像処理装置を示すブロック図である。   FIG. 3 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention.

この画像処理装置3は、図3に示すように、例えば、解像度が300〜600dpi程度、階調数が256階調(8bit)程度の処理すべき画像データが入力される画像データ入力部101と、当該画像データ入力部101に入力された画像データからエッジ部か否かの判定を行うエッジ判定手段としてのエッジ判定部102と、当該エッジ判定部102の判定結果に基づいて画像データのエッジ領域を広げてエッジ部と再判定するエッジ再判定手段としてのエッジ再判定部103と、前記エッジ判定部102及び前記エッジ再判定部103によってエッジ部であると判定された画像データと、前記エッジ判定部102及び前記エッジ再判定部103によって非エッジ部であると判定された画像データとで異なる処理を施す処理手段としてのスクリーン処理部105と、前記画像データの注目画素の濃度情報に基づいてエッジ再判定部103による再判定処理の内容を変更する変更手段としての変更部104とを備えるように構成されている。なお、入力される画像データとしては、解像度が300〜600dpi程度に限らず、これよりも高い解像度あるいは低い解像度であっても良く、階調数も256階調(8bit)に限定されるものではないことは勿論である。   As shown in FIG. 3, the image processing apparatus 3 includes an image data input unit 101 to which image data to be processed having a resolution of about 300 to 600 dpi and a number of gradations of about 256 gradations (8 bits) is input. An edge determination unit 102 as an edge determination unit that determines whether or not the image data is input to the image data input unit 101, and an edge region of the image data based on the determination result of the edge determination unit 102 An edge redetermining unit 103 as an edge redetermining means for re-determining an edge part, image data determined to be an edge part by the edge determining part 102 and the edge redetermining part 103, and the edge determination As processing means for performing different processing on image data determined to be a non-edge portion by the section 102 and the edge redetermining section 103 A screen processing unit 105 is configured to include a changing unit 104 as a change means for changing the contents of the re-determination processing by the edge re-determination unit 103 on the basis of the density information of a target pixel of the image data. The input image data is not limited to a resolution of about 300 to 600 dpi, but may be a higher or lower resolution, and the number of gradations is not limited to 256 gradations (8 bits). Of course not.

画像データ入力部101は、例えば、図示しないパーソナルコンピュータなどから、描画コマンドとしてPDL(ページ記述言語)で記述された画像データを受け取って解釈し、描画処理を行って画像出力部106で画像を出力するイエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の各色のビットマップ画像データを生成する。また、上記画像データ入力部101は、必要に応じて、PDLを解釈するとともに、解釈されたPDLに従って、それぞれの描画オブジェクト毎に描画処理を行い、中間コードを生成する。生成した中間コードには、描画オブジェクトの属性として、図4に示すように、イメージ/テキスト/グラフィックスなどの描画オブジェクトの種類を示すタグ情報が付加される。この画像データ入力部101では、PDLで指定された色信号(RGB)から画像出力部106において使用する色材色からなるイエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の各色信号に変換したり、画像出力部106に最適な解像度への変換などが必要に応じて行われる。   The image data input unit 101 receives and interprets image data described in PDL (page description language) as a drawing command from a personal computer (not shown), for example, performs drawing processing, and outputs an image in the image output unit 106 Bit map image data for each color of yellow (Y), magenta (M), cyan (C), and black (K) is generated. Further, the image data input unit 101 interprets the PDL as necessary, and performs drawing processing for each drawing object in accordance with the interpreted PDL to generate an intermediate code. As shown in FIG. 4, tag information indicating the type of a drawing object such as image / text / graphics is added to the generated intermediate code as an attribute of the drawing object. In the image data input unit 101, yellow (Y), magenta (M), cyan (C), and black (K), which are color materials used in the image output unit 106 from the color signal (RGB) specified by PDL. Are converted to the respective color signals, and the image output unit 106 is converted to an optimal resolution as necessary.

さらに、上記画像データ入力部101では、生成した中間コードをもとに、画像出力部106に適合したイエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の各色に対応したビットマップデータが作成される。その際、上記画像データ入力部101では、ビートマップデータの各画素毎あるいは数画素毎に図4に示すようなタグ情報が付加される。   Further, the image data input unit 101 corresponds to each color of yellow (Y), magenta (M), cyan (C), and black (K) suitable for the image output unit 106 based on the generated intermediate code. Bitmap data is created. At that time, the image data input unit 101 adds tag information as shown in FIG. 4 for each pixel or every several pixels of the beat map data.

上記画像データ入力部101で必要に応じて予め定められた画像処理が施された画像データは、図3に示すように、エッジ判定部102及び変更部104にそれぞれ入力される。   Image data that has been subjected to predetermined image processing by the image data input unit 101 as necessary is input to the edge determination unit 102 and the change unit 104, respectively, as shown in FIG.

エッジ判定部101は、画像データ入力部101で生成されたビットマップデータから、判定対象となる画素がエッジ部か否かの判定処理が行われる。このエッジ判定部101では、例えば、図5に示すようなエッジ検出フィルタを用いて、入力されたビットマップデータからなる画像データがエッジ部かエッジ部以外の非エッジ部かが判定される。上記エッジ判定部101によってエッジ部であると判定された画素には、図4に示すように、エッジ部であることを示すタグ情報「11」が付加される。   The edge determination unit 101 determines whether or not the pixel to be determined is an edge part from the bitmap data generated by the image data input unit 101. In the edge determination unit 101, for example, an edge detection filter as shown in FIG. 5 is used to determine whether the input image data consisting of bitmap data is an edge portion or a non-edge portion other than the edge portion. As shown in FIG. 4, tag information “11” indicating an edge portion is added to the pixel determined to be an edge portion by the edge determination unit 101.

エッジ再判定部103では、エッジ判定部102の処理結果を受け取り、エッジ領域を広げてエッジ部の再判定を行う処理が行われる。このエッジ再判定部103では、図6に示すように、ビットマップデータのそれぞれの画素を順に注目画素とし、その注目画素周辺の予め定められた複数(例えば、3×3=9)個の画素からなる判定領域内のエッジ画素数(エッジ部である旨のタグ情報が付加された画素の数)が計数される。そして、計数値が予め定められた閾値param_rejudge以上である場合には、その注目画素をエッジ部と再判定し、タグ情報にエッジ部である旨が付加される。また、計数値が予め定められた閾値param_rejudge未満である場合には、その注目画素を非エッジ部のままと再判定し、タグ情報にエッジ部である旨が付加されない。   The edge re-determination unit 103 receives the processing result of the edge determination unit 102 and performs a process of re-determination of the edge part by expanding the edge region. In this edge re-determination unit 103, as shown in FIG. 6, each pixel of the bitmap data is set as a target pixel in order, and a plurality of (for example, 3 × 3 = 9) predetermined pixels around the target pixel. The number of edge pixels (the number of pixels to which tag information indicating an edge portion is added) in the determination area is counted. If the count value is equal to or greater than a predetermined threshold param_rejudge, the pixel of interest is re-determined as an edge portion, and the tag information is added as an edge portion. If the count value is less than a predetermined threshold param_rejudge, the target pixel is determined again as a non-edge portion, and the fact that it is an edge portion is not added to the tag information.

ここで、上記エッジ再判定部103では、後述するように、変更部104によって注目画素の画像濃度に応じて閾値param_rejudgeの値が変更される。   Here, in the edge re-determination unit 103, as will be described later, the change unit 104 changes the value of the threshold param_rejudge according to the image density of the target pixel.

スクリーン処理部105は、エッジ再判定部103からビットマップデータ及びタグ情報を受け取り、タグ情報に従ってビットマップデータに対してスクリーン処理を施し、擬似中間調画像を形成する。上記スクリーン処理部105では、基本的に、エッジ部であると判定(再判定を含む)された画素に対して、例えば、図4に示すように、600線のスクリーンを用いてスクリーン処理を施し、エッジ部を滑らかに形成してジャギー感を低減するように構成されている。また、上記スクリーン処理部105では、非エッジ部であると判定(再判定を含む)された画素に対して、ユーザが選択したスクリーン処理を施すか、又は、例えば、図4に示すように、イメージ/テキスト/グラフィックスなどの描画オブジェクトの種類に応じて予め設定されたスクリーン処理を施すように構成されている。なお、非エッジ部であると判定(再判定を含む)された画素に対するスクリーン処理の内容は、例えば、図示しないユーザインターフェースを介してユーザが任意に設定可能となっている。また、ユーザが設定しない場合は、イメージ/テキスト/グラフィックスなどの描画オブジェクトの種類に応じて予め設定されたスクリーン処理が施される。   The screen processing unit 105 receives bitmap data and tag information from the edge re-determination unit 103, performs screen processing on the bitmap data according to the tag information, and forms a pseudo halftone image. The screen processing unit 105 basically performs screen processing on a pixel determined to be an edge portion (including redetermination) using, for example, a 600-line screen as shown in FIG. The edge portion is smoothly formed to reduce the jaggy feeling. Further, the screen processing unit 105 performs screen processing selected by the user on the pixels determined to be non-edge portions (including redetermination), or, for example, as shown in FIG. The screen processing is set in advance according to the type of drawing object such as image / text / graphics. Note that the content of the screen processing for pixels determined to be non-edge portions (including redetermination) can be arbitrarily set by the user via a user interface (not shown), for example. Further, when the user does not set, screen processing that is set in advance according to the type of drawing object such as image / text / graphics is performed.

図4は、タグ情報と用いるスクリーンとの関係の一例を示す説明図である。   FIG. 4 is an explanatory diagram illustrating an example of a relationship between tag information and a screen to be used.

上記スクリーン処理部105では、それぞれの描画オブジェクト毎にスクリーンを切り替えて、それぞれの描画オブジェクトに最適なスクリーン処理が行われる。例えばテキストについては高精細であることが必要であるので300線のスクリーンを用い、イメージやグラフィックスではそれほど高精細である必要はなく、逆に階調性や粒状性を重視するため、それぞれ200線、150線のスクリーンが用いられる。さらに、エッジ部では、ジャギーを低減してすっきりしたエッジを再現するため、画像出力部106における解像度である600線のスクリーンを用いている。このように、エッジ部と非エッジ部により、また非エッジ部についてはそれぞれの描画オブジェクト毎に、スクリーンを切り替えるように構成されている。こうすることによって、それぞれの部分において最適なスクリーン処理を施すことが可能となる。   The screen processing unit 105 switches the screen for each drawing object, and performs an optimal screen process for each drawing object. For example, text needs to be high definition, so a 300-line screen is used, and images and graphics do not need to be very high definition. A 150-line screen is used. Further, the edge portion uses a 600-line screen, which is the resolution of the image output unit 106, in order to reproduce a clean edge by reducing jaggy. As described above, the screen is switched between the edge portion and the non-edge portion, and the non-edge portion for each drawing object. By doing so, it is possible to perform optimum screen processing in each part.

また、上記スクリーン処理部105では、スクリーン処理が施された画像データに基づいて、画像出力部106の画像露光装置7Y、7M、7C、7Kによってドットを形成するためのパルス信号が発生され、画像出力部106に出力される。   In the screen processing unit 105, a pulse signal for forming dots is generated by the image exposure devices 7Y, 7M, 7C, and 7K of the image output unit 106 based on the image data subjected to the screen processing. It is output to the output unit 106.

画像出力部106は、図2に基づいて説明したように、画像処理装置3のスクリーン処理部105から出力されるパルス信号からなる画像データに基づいて、記録用紙11上にフルカラーやモノクロなどの画像が形成されて出力される。   As described with reference to FIG. 2, the image output unit 106 is a full-color or monochrome image on the recording paper 11 based on the image data including the pulse signal output from the screen processing unit 105 of the image processing apparatus 3. Is formed and output.

上記変更部104では、画像データの注目画素の濃度情報に基づいてエッジ再判定部103による再判定処理の内容が変更される。具体的には、この実施の形態1に係る変更部104では、画像データの注目画素の濃度情報に基づいてエッジ再判定部103によって画像データのエッジ領域を広げてエッジ部と再判定する閾値param_rejudgeを変更する処理が行われる。   In the changing unit 104, the content of redetermination processing by the edge redetermining unit 103 is changed based on the density information of the target pixel of the image data. Specifically, the changing unit 104 according to the first embodiment expands the edge area of the image data by the edge re-determination unit 103 based on the density information of the target pixel of the image data and re-determines the threshold value param_rejudge. Processing to change is performed.

上記変更部104では、図6に示すように、画像データの注目画素の画像濃度が濃度閾値Cin(例えば、100%)以上であるか否かが判定され、画像データの注目画素の画像濃度が濃度閾値Cin(例えば、100%)以上である場合には、閾値param_rejudgeの値として、画像が膨張しにくい第1の閾値param_rejudge−1(図示の例では、9)に変更され、画像データの注目画素の画像濃度が濃度閾値Cin(例えば、100%)未満である場合には、閾値param_rejudgeの値として、画像が膨張しやすい第2の閾値param_rejudge−2(図示の例では、2)に変更する処理が行われる。   As shown in FIG. 6, the changing unit 104 determines whether the image density of the target pixel of the image data is equal to or higher than a density threshold Cin (for example, 100%), and the image density of the target pixel of the image data is When the density threshold Cin (for example, 100%) or more, the value of the threshold param_rejudge is changed to a first threshold param_rejudge-1 (9 in the illustrated example), which makes the image difficult to expand. When the image density of the pixel is less than the density threshold Cin (for example, 100%), the value of the threshold param_rejudge is changed to a second threshold param_rejudge-2 (2 in the illustrated example) that the image is likely to expand. Processing is performed.

なお、上記濃度閾値Cinは、例えば、100%(255)に設定されるが、濃度閾値Cinとしては、100%(255)に限定されるものではなく、他の値を用いても勿論良い。即ち、画像濃度で画像データを分類すると、図7に示すように、低濃度側から概ね画像濃度90%近傍までは、ジャギー感を解消することが重視される画像濃度領域であり、画像濃度90%を越えて画像濃度が100%に達する濃度領域が文字や線のつぶれ解消が重視される画像濃度領域となる。ただし、画像濃度90%を越えて画像濃度が100%に達する濃度領域のすべてが、文字や線のつぶれ解消が重視される画像濃度領域となる訳はなく、画像濃度が100%から90%程度に近くなるに従って、例えば96〜97%程度以下、90%以上の領域では、文字や線のつぶれ解消よりも、画像出力部106の特性に応じて最適化することが望ましい領域が存在することが、本発明者等の研究によって判っている。そのため、濃度閾値Cinは、例えば、96〜97%程度に設定しても良い。   The density threshold Cin is set to 100% (255), for example, but the density threshold Cin is not limited to 100% (255), and other values may be used. That is, when the image data is classified by image density, as shown in FIG. 7, from the low density side to the vicinity of approximately 90% of the image density is an image density area where emphasis is placed on eliminating the jaggy feeling. The density area where the image density exceeds 100% and reaches 100% is an image density area where emphasis is placed on eliminating the collapse of characters and lines. However, not all density regions that exceed the image density of 90% and reach the image density of 100% are image density regions where emphasis is placed on eliminating the crushing of characters and lines, and the image density is about 100% to 90%. For example, in an area of about 96 to 97% or less and 90% or more, there are areas where it is desirable to optimize according to the characteristics of the image output unit 106 rather than to eliminate the collapse of characters and lines. This is known by the present inventors' research. Therefore, the density threshold Cin may be set to about 96 to 97%, for example.

また、画像出力部106としては、電子写真方式を採用した画像形成装置に限らず、インクジェット方式などを採用したものであっても良いことは勿論である。   In addition, the image output unit 106 is not limited to an image forming apparatus that employs an electrophotographic system, but may be an apparatus that employs an inkjet system or the like.

以上の構成において、この実施の形態に係る画像処理装置を適用した画像形成装置では、次のようにして、100%近傍の高濃度領域での文字や細線画像のつぶれを抑制しつつ、中間調の文字や細線画像のジャギー感の低減が可能となっている。   In the above configuration, in the image forming apparatus to which the image processing apparatus according to this embodiment is applied, the halftone image is suppressed in the following manner while suppressing the collapse of characters and thin line images in a high density region near 100%. It is possible to reduce the jaggy of characters and fine line images.

すなわち、上記画像処理装置3では、図3に示すように、画像データ入力部101によって入力された画像データに対して予め定められた処理が施された後、当該画像データは、エッジ判定部102に入力される。   That is, in the image processing apparatus 3, as shown in FIG. 3, after predetermined processing is performed on the image data input by the image data input unit 101, the image data is converted into the edge determination unit 102. Is input.

そして、このエッジ判定部102では、図1に示すように、エッジ検出フィルタ等を用いてエッジ判定処理(背景判定)が行われ(ステップ101)、エッジ部であると判定された画素には、図4に示すように、タグ情報としてエッジ判定処理の結果を示す値「11」が付加される。   Then, in the edge determination unit 102, as shown in FIG. 1, edge determination processing (background determination) is performed using an edge detection filter or the like (step 101), and pixels determined to be edge portions include As shown in FIG. 4, a value “11” indicating the result of the edge determination process is added as tag information.

また、上記エッジ判定部102によって非エッジ部であると判定された場合には、エッジ再判定部103によってエッジ判定部102の判定結果に基づいて画像データのエッジ領域を広げてエッジ部と再判定する処理が行われる(ステップ102)。このエッジ再判定部では、図6に示すように、複数の画素からなる判定領域(例えば、3×3=9)内のエッジ部と判定された画素の数が閾値param_rejudge以上か否かが判定され、判定領域内のエッジ部と判定された画素の数が閾値param_rejudge以上である場合には、判定領域の中央に位置する注目画素の非エッジ部であるとの判定結果が、エッジ部(「1」)であると再判定される。一方、上記判定領域内のエッジ部と判定された画素の数が閾値param_rejudge未満である場合には、判定領域の中央に位置する注目画素の非エッジ部であるとの判定結果が、非エッジ部(「0」)のままであると再判定され、非エッジ判定結果がONとなる。   If the edge determination unit 102 determines that the image is a non-edge portion, the edge re-determination unit 103 expands the edge area of the image data based on the determination result of the edge determination unit 102 and re-determination is performed. Processing is performed (step 102). In this edge redetermining unit, as shown in FIG. 6, it is determined whether or not the number of pixels determined to be an edge in a determination region (for example, 3 × 3 = 9) composed of a plurality of pixels is equal to or greater than a threshold parameter_rejudge. When the number of pixels determined to be an edge portion in the determination region is equal to or greater than the threshold param_rejudge, the determination result that the target pixel is located at the center of the determination region is a non-edge portion (“ 1 "). On the other hand, when the number of pixels determined to be the edge portion in the determination region is less than the threshold param_rejudge, the determination result that the target pixel is located at the center of the determination region is a non-edge portion. ("0") is determined again, and the non-edge determination result is turned ON.

また、上記エッジ判定部102によってエッジ部であると判定された画素と、エッジ再判定部103によってエッジ部であると再判定された画素は、注目画素の濃度が判定される(ステップ103)。   Further, the density of the pixel of interest is determined for the pixel determined to be an edge by the edge determination unit 102 and the pixel re-determined to be an edge by the edge redetermination unit 103 (step 103).

そして、この実施の形態では、図1に示すように、注目画素の画像濃度が予め定められた濃度閾値Cinである100%(階調数が255に相当)以上であるか否かが判定される(ステップ103)。上記注目画素の画像濃度が予め定められた濃度閾値Cinである100%以上である場合には、閾値param_rejudgeが膨張しにくいパラメータ、例えば、閾値param_rejudge=9に設定され、注目画素の画像濃度が予め定められた濃度閾値Cinである100%未満である場合には、閾値param_rejudgeが膨張をしやすいパラメータ、例えば、閾値param_rejudge−2=2に設定される。   In this embodiment, as shown in FIG. 1, it is determined whether or not the image density of the pixel of interest is equal to or higher than a predetermined density threshold Cin, which is 100% (the number of gradations corresponds to 255). (Step 103). When the image density of the pixel of interest is 100% or more, which is a predetermined density threshold Cin, the threshold param_rerange is set to a parameter that is difficult to expand, for example, the threshold param_rerange = 9, and the image density of the pixel of interest is set in advance. When the predetermined density threshold Cin is less than 100%, the threshold param_rejudge is set to a parameter that easily expands, for example, the threshold param_rejudge-2 = 2.

上記エッジ判定部102及びエッジ再判定部103によってエッジ部であると判定された画素の画像データと、エッジ判定部102及びエッジ再判定部103によって非エッジ部であると判定された画素の画像データは、図1に示すように、データセレクト(選択)処理が施され(ステップ104)、エッジ部と非エッジ部の画像データとに選択される。   Image data of pixels determined to be edge portions by the edge determination unit 102 and edge redetermination unit 103, and image data of pixels determined to be non-edge portions by the edge determination unit 102 and edge redetermination unit 103 As shown in FIG. 1, data selection (selection) processing is performed (step 104), and the image data of the edge portion and the non-edge portion is selected.

そして、エッジ部と判定された画素の画像データは、当該画素の画像濃度が予め定められた第2の画像濃度値Cin2以上か否かが判別され(ステップ105)、当該画素の画像濃度が予め定められた第2の画像濃度値Cin2以上である場合には、文字鮮鋭補正濃度値に変更された後(ステップ106)、エッジ部に対応したスクリーン処理が施される。ここで、エッジ部に対応したスクリーン処理としては、ジャギー感の低減を重視して600線のスクリーンを用いた処理が行われる。 Then, the image data of the pixel determined as the edge portion is determined whether or not the image density of the pixel is equal to or higher than a predetermined second image density value Cin 2 (step 105), and the image density of the pixel is determined. If it is equal to or higher than the predetermined second image density value Cin 2 , after changing to the character sharpness correction density value (step 106), screen processing corresponding to the edge portion is performed. Here, as the screen processing corresponding to the edge portion, processing using a 600-line screen is performed with emphasis on reducing jaggy.

上記文字鮮鋭補正濃度値は、画像濃度が100%あるいは100%近傍の文字や線の画像につぶれが生じないように入力された画像データの画像濃度値を適正な画像濃度値Cin’に変換するための値である。上記文字鮮鋭補正濃度値としては、例えば、画像濃度100%(255)の画像濃度値が「204」程度の画像濃度値に変換される。このように、エッジ部と判定された画素の画像濃度が100%である場合に、当該エッジ部の画素濃度を100%(255)よりも低い画像濃度値である「204」程度の文字鮮鋭補正濃度値に変換することにより、文字や線の画像につぶれが生じないようにする。   The character sharpness correction density value converts the image density value of the input image data into an appropriate image density value Cin ′ so that the image of the character or line with the image density of 100% or near 100% is not crushed. It is a value for. As the character sharpness correction density value, for example, an image density value with an image density of 100% (255) is converted into an image density value of about “204”. As described above, when the image density of the pixel determined to be the edge portion is 100%, the character sharpness correction of “204”, which is an image density value lower than 100% (255), is set for the pixel density of the edge portion. By converting to a density value, the image of characters and lines is prevented from being crushed.

また、上記画素の画像濃度Cinが予め定められた画像濃度Cin未満である場合には、EELUT(ルックアップテーブル)を用いて、エッジ部スクリーンとユーザ(又は画像出力部106が自動的に)選択したスクリーン(例えば、200線)の濃度特性を合わせる画像濃度の変換が行われた後(ステップ107)、エッジ部のスクリーン処理が施され、エッジ部スクリーンと選択したスクリーンとの境界で濃度段差がおきることなく、文字や線のエッジ部のジャギー感を低減することができる。   Further, when the image density Cin of the pixel is lower than the predetermined image density Cin, the edge screen and the user (or the image output unit 106 automatically) are selected using an EELUT (lookup table). After the image density conversion to match the density characteristics of the screen (for example, 200 lines) is performed (step 107), the edge portion screen processing is performed, and a density step is formed at the boundary between the edge portion screen and the selected screen. It is possible to reduce the jaggy feeling at the edges of characters and lines without occurring.

上記EELUTは、エッジスクリーン部と選択スクリーン部の階調特性を合わせるLUTである。このEELUTは、例えば、エッジスクリーン部のデジタル画像濃度値が「128」のときの印字濃度と、選択スクリーン部のデジタル画像濃度値が「152」のときの印字濃度が同じとき、デジタル画像濃度値「152」を「128」に書き換えるためのものである。   The EELUT is an LUT that matches the gradation characteristics of the edge screen portion and the selection screen portion. This EELUT is, for example, a digital image density value when the print density when the digital image density value of the edge screen portion is “128” and the print density when the digital image density value of the selected screen portion is “152” are the same. This is for rewriting “152” to “128”.

このように、上記実施の形態によれば、100%近傍の高濃度領域での文字や細線画像のつぶれを抑制しつつ、中間調の文字や細線画像のジャギー感の低減が可能となる。   As described above, according to the above-described embodiment, it is possible to reduce the jaggy of halftone characters and thin line images while suppressing the collapse of characters and thin line images in a high density region near 100%.

比較例
比較例として、従来行われていたエッジ部を判定した後に、エッジ部と判定された領域を膨張させるように再判定し、且つエッジ部を滑らかにするために高線数のスクリーンを採用しつつエッジ部の濃度を低下させる処理を一様に施した場合、中間調の線状画像に対しては、図8(b)に示すように、エッジ部と判定されたすべての画素が高線数のスクリーンで処理され、ジャギー感の低減が可能であるが、画像濃度が100%付近の線状画像は、図8(a)に示すように、すべての画素に対して濃度が低下することになり、極端な画像濃度の低下となり、画質が低下する。
Comparative Example As a comparative example, after determining the edge portion that has been performed in the past, it is redetermined to expand the area determined to be the edge portion, and a screen with a high line number is adopted to smooth the edge portion. However, when the processing for reducing the density of the edge portion is uniformly performed, as shown in FIG. 8B, all pixels determined to be the edge portion are high for a halftone linear image. Although it is processed with a screen having the number of lines and the jaggy feeling can be reduced, as shown in FIG. 8A, the density of a linear image with an image density of about 100% decreases for all pixels. As a result, the image density is extremely lowered, and the image quality is lowered.

一方、従来行われていたエッジ部を判定した後に、エッジ部と判定された領域を膨張させる処理を行わず、且つエッジ部を滑らかにするために高線数のスクリーンを採用しつつエッジ部の濃度を低下させる処理を一様に施した場合、画像濃度が100%付近の線状画像は、図9(a)に示すように、線状画像の中心の部分が100%の濃度のまま残るため、濃度の極端な低下が起こらずに良好であるものの、中間調の線状画像に対しては、図9(b)に示すように、ジャギー感の改善効果が薄れ、画質が低下する。   On the other hand, after determining the edge portion that has been conventionally performed, the processing of expanding the region determined to be the edge portion is not performed, and a screen with a high number of lines is adopted to smooth the edge portion, When the density reduction processing is uniformly performed, as shown in FIG. 9A, the center portion of the linear image remains at a density of 100% in a linear image having an image density of about 100%. Therefore, although it is good without causing an extreme decrease in density, as shown in FIG. 9B, the effect of improving the jaggy feeling is reduced and the image quality is deteriorated for a halftone linear image.

実施の形態2
図10はこの発明の実施の形態2を示すものであり、前記実施の形態1と同一の部分には同一の符号を付して説明すると、この実施の形態2では、前記変更手段は、前記画像データの注目画素の濃度情報に基づいて前記エッジ再判定手段によって前記画像データのエッジ領域を広げてエッジ部と再判定するか否かの処理を変更するように構成されている。
Embodiment 2
FIG. 10 shows a second embodiment of the present invention. The same reference numerals are given to the same parts as those in the first embodiment. In the second embodiment, the changing means is the Based on the density information of the pixel of interest of the image data, the edge re-determination means expands the edge area of the image data and changes whether or not to re-determine the edge portion.

すなわち、この実施の形態2では、図10に示すように、変更部104が画像データの注目画素の濃度情報に基づいてエッジ再判定手段103によって画像データのエッジ領域を広げてエッジ部と再判定する処理を行うか否かを変更するように構成されている。   That is, in the second embodiment, as shown in FIG. 10, the changing unit 104 widens the edge area of the image data by the edge re-determination means 103 based on the density information of the target pixel of the image data, and re-determines the edge portion. It is configured to change whether or not to perform processing.

更に説明すると、上記変更部104は、図10に示すように、画像データの注目画素の濃度情報に基づいて、当該注目画素の画像濃度が濃度閾値Cinである100%(階調数が255に相当)以上であるか否かを判定し、濃度閾値Cinである100%(階調数が255に相当)以上である場合には、画像データのエッジ領域を広げてエッジ部と再判定する処理を行わず、濃度閾値Cinである100%(階調数が255に相当)未満である場合にのみ、画像データのエッジ領域を広げてエッジ部と再判定する処理を行うものである。   More specifically, as shown in FIG. 10, the changing unit 104 is based on the density information of the target pixel of the image data, and the image density of the target pixel is 100% (the number of gradations is set to 255) which is the density threshold Cin. If the density threshold Cin is 100% (the number of gradations is equivalent to 255) or more, the edge region of the image data is widened and re-determined as an edge portion. Only when the density threshold value Cin is less than 100% (corresponding to the number of gradations is equivalent to 255), the edge region of the image data is expanded and the determination as the edge portion is performed again.

したがって、この実施の形態2では、画像データの注目画素の画像濃度が濃度閾値Cinである100%(階調数が255に相当)以上である場合には、画像データのエッジ領域を広げてエッジ部と再判定する処理が行われず、エッジ判定部102の判定結果がそのままスクリーン部105に送られる。   Therefore, in the second embodiment, when the image density of the target pixel of the image data is equal to or greater than 100% (the number of gradations is equivalent to 255) which is the density threshold Cin, the edge area of the image data is widened to the edge. The determination result of the edge determination unit 102 is sent to the screen unit 105 as it is.

一方、この実施の形態2では、画像データの注目画素の画像濃度が濃度閾値Cinである100%(階調数が255に相当)未満である場合には、画像データのエッジ領域を広げてエッジ部と再判定する処理が行われ、エッジ判定部102及びエッジ再判定部103の判定結果がスクリーン部105に送られる。   On the other hand, in the second embodiment, when the image density of the target pixel of the image data is less than 100% (the number of gradations is equivalent to 255) which is the density threshold Cin, the edge area of the image data is widened to the edge. The determination result of the edge determination unit 102 and the edge redetermination unit 103 is sent to the screen unit 105.

この実施の形態2では、エッジ再判定部103の閾値は1つのみで良く、エッジ再判定部103の構成を簡略化することができる。   In the second embodiment, the edge redetermination unit 103 may have only one threshold, and the configuration of the edge redetermination unit 103 can be simplified.

その他の構成及び作用は、前記実施の形態1と同様であるので、その説明を省略する。   Since other configurations and operations are the same as those of the first embodiment, description thereof is omitted.

3:画像処理装置、101:画像データ入力部、102:エッジ判定部、103:エッジ再判定部、104:変更部、105:スクリーン処理部。   3: image processing apparatus, 101: image data input unit, 102: edge determination unit, 103: edge redetermination unit, 104: change unit, and 105: screen processing unit.

Claims (4)

画像データからエッジ部か否かの判定を行うエッジ判定手段と、
前記エッジ判定手段の判定結果に基づいて前記画像データのエッジ領域を広げて当該画像データにおける注目画素をエッジ部と再判定するエッジ再判定手段と、
前記エッジ判定手段及び前記エッジ再判定手段によってエッジ部であると判定された画像データと、非エッジ部であると判定された画像データとで異なる処理を施す処理手段と、
前記注目画素の画像濃度が第1の値以上の場合には、当該注目画素がエッジ部であると再判定されにくくなるよう、且つ、前記注目画素の画像濃度が前記第1の値以下の場合には、当該注目画素がエッジ部であると再判定されやすくなるよう、前記エッジ再判定手段による再判定処理の内容を変更する変更手段とを備えたことを特徴とする画像処理装置。
Edge determination means for determining whether or not an edge portion from image data;
Based on the determination result of the edge determination means, and the edge portion and the re-determining edge redetermination unit pixel of interest in the image data to expand the edge regions of said image data,
Processing means for performing different processing between the image data determined to be an edge portion by the edge determination means and the edge redetermination means and the image data determined to be a non-edge portion;
When the image density of the target pixel is equal to or higher than the first value, the target pixel is less likely to be re-determined as an edge portion, and the image density of the target pixel is equal to or lower than the first value The image processing apparatus further comprises: a changing unit that changes a content of the redetermination process by the edge redetermination unit so that the target pixel is easily redetermined to be an edge portion .
前記エッジ再判定手段は、前記注目画素に対し、当該注目画素周辺の複数個の画素からなる判定領域内のエッジ画素数が閾値以上である場合にはその注目画素をエッジ部と再判定する一方、当該判定領域内のエッジ画素数が閾値以下である場合にはその注目画素を非エッジ部と再判定し、
前記変更手段は、前記注目画素の画像濃度が前記第1の値以上の場合には、前記エッジ再判定手段で用いられる前記閾値を上げると共に、前記注目画素の画像濃度が前記第1の値以下の場合には、前記エッジ再判定手段で用いられる前記閾値を下げることを特徴とする請求項1記載の画像処理装置。
The edge re-determination means re-determines that the pixel of interest is an edge portion when the number of edge pixels in a determination area composed of a plurality of pixels around the pixel of interest is equal to or greater than a threshold for the pixel of interest. , If the number of edge pixels in the determination area is less than or equal to the threshold value, the target pixel is determined again as a non-edge part,
When the image density of the target pixel is equal to or higher than the first value , the changing unit increases the threshold used by the edge redetermining unit, and the image density of the target pixel is equal to or lower than the first value. The image processing apparatus according to claim 1, wherein the threshold used by the edge re-determination means is lowered .
前記変更手段は、前記注目画素の画像濃度が前記第1の値以上の場合には、前記エッジ再判定手段によりエッジ部と再判定する処理を行わず、前記注目画素の画像濃度が前記第1の値以下の場合には、前記エッジ再判定手段によりエッジ部と再判定する処理を行うことを特徴とする請求項1に記載の画像処理装置。 When the image density of the target pixel is equal to or higher than the first value , the changing unit does not perform the process of redetermining the edge portion by the edge redetermining unit, and the image density of the target pixel is the first density. 2. The image processing apparatus according to claim 1 , wherein, when the value is equal to or smaller than the value, the edge re-determination unit performs re-determination as an edge portion . 画像データからエッジ部か否かの判定を行うエッジ判定工程と、
前記エッジ判定工程の判定結果に基づいて前記画像データのエッジ領域を広げて当該画像データにおける注目画素をエッジ部と再判定するエッジ再判定工程と、
前記エッジ判定工程及び前記エッジ再判定工程によってエッジ部であると判定された画像データと、非エッジ部であると判定された画像データとで異なる処理を施す処理工程と、
前記注目画素の画像濃度が第1の値以上の場合には、当該注目画素がエッジ部であると再判定されにくくなるよう、且つ、前記注目画素の画像濃度が前記第1の値以下の場合には、当該注目画素がエッジ部であると再判定されやすくなるよう、前記エッジ再判定工程による再判定処理の内容を変更する変更工程とを備えたことを特徴とする画像処理方法。
An edge determination step for determining whether or not an edge portion from image data;
Based on the determination result of the edge determination step, and the edge portion and the re-determining edge redetermination process the target pixel in the image data to expand the edge regions of said image data,
A processing step of performing different processing between the image data determined to be an edge portion by the edge determination step and the edge redetermination step and the image data determined to be a non-edge portion;
When the image density of the target pixel is equal to or higher than the first value, the target pixel is less likely to be re-determined as an edge portion, and the image density of the target pixel is equal to or lower than the first value The image processing method further includes a changing step of changing the content of the redetermination process in the edge redetermination step so that the target pixel is easily judged again as an edge portion .
JP2010164358A 2010-07-21 2010-07-21 Image processing apparatus and image processing method Active JP5644230B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010164358A JP5644230B2 (en) 2010-07-21 2010-07-21 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010164358A JP5644230B2 (en) 2010-07-21 2010-07-21 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2012028952A JP2012028952A (en) 2012-02-09
JP5644230B2 true JP5644230B2 (en) 2014-12-24

Family

ID=45781386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010164358A Active JP5644230B2 (en) 2010-07-21 2010-07-21 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5644230B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6171547B2 (en) * 2013-05-10 2017-08-02 株式会社リコー Image forming apparatus, image forming method, and printed material manufacturing method
JP5994741B2 (en) 2013-07-01 2016-09-21 富士ゼロックス株式会社 Image processing apparatus, image processing program, and image forming apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0469777A (en) * 1990-07-10 1992-03-04 Dainippon Screen Mfg Co Ltd Pattern inspecting device for printed board
JP3115065B2 (en) * 1991-11-11 2000-12-04 株式会社リコー Image information edge enhancement device
JP2006262204A (en) * 2005-03-17 2006-09-28 Fuji Xerox Co Ltd Image processing apparatus and image processing method
JP4600352B2 (en) * 2006-05-25 2010-12-15 富士ゼロックス株式会社 Image processing apparatus, image forming apparatus, and image processing method

Also Published As

Publication number Publication date
JP2012028952A (en) 2012-02-09

Similar Documents

Publication Publication Date Title
JP5078480B2 (en) Image processing apparatus and method, and computer program and recording medium
US8189242B2 (en) Apparatus and method for generating image data for forming a visible image
JP5055418B2 (en) Image processing apparatus and image processing method
US20120147437A1 (en) Image processing apparatus and image processing method
JP2008199080A (en) Image processor, and image processing method
JP5671978B2 (en) Image processing method, image processing apparatus, image processing program, and recording medium
JP4557959B2 (en) Electrophotographic image forming apparatus using toner and electrophotographic image forming method using toner
JP5499981B2 (en) Image processing device
JP4894488B2 (en) Image processing apparatus and image processing method
JP2006295624A (en) Image processor, method therefor, computer program, and recording medium
JP4485430B2 (en) Image processing apparatus, image processing method, and program causing computer to execute the method
JP5644230B2 (en) Image processing apparatus and image processing method
EP2429173B1 (en) Image forming apparatus, printing control terminal apparatus, and image forming method thereof
JP2000125135A (en) Image forming device and image processor
JP5765127B2 (en) Image processing apparatus and image processing method
JP5454258B2 (en) Information processing apparatus, image processing system, and program
JP6688193B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
JP2016224229A (en) Image forming apparatus, information formation method, and program
JP4492090B2 (en) Image forming apparatus and image forming method
JPH1132214A (en) Image-forming device and image-processing device
JP4217332B2 (en) Image processing apparatus and method, and computer-readable memory
JP2006129007A (en) Print controller, data processing method of print controller, and storage medium having computer readable program stored therein
JP4466041B2 (en) Image forming apparatus and image forming method
JP5454259B2 (en) Information processing apparatus, image processing system, and program
JP2012160857A (en) Image forming apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141020

R150 Certificate of patent or registration of utility model

Ref document number: 5644230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350