JP2012205220A - Gradation conversion controller, image processing device, and program - Google Patents

Gradation conversion controller, image processing device, and program Download PDF

Info

Publication number
JP2012205220A
JP2012205220A JP2011070170A JP2011070170A JP2012205220A JP 2012205220 A JP2012205220 A JP 2012205220A JP 2011070170 A JP2011070170 A JP 2011070170A JP 2011070170 A JP2011070170 A JP 2011070170A JP 2012205220 A JP2012205220 A JP 2012205220A
Authority
JP
Japan
Prior art keywords
image
screen
color
edge
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011070170A
Other languages
Japanese (ja)
Inventor
Keiichi Okada
圭一 岡田
Shinji Tabata
伸司 田端
Hatsuo Yasujima
初穂 安島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2011070170A priority Critical patent/JP2012205220A/en
Publication of JP2012205220A publication Critical patent/JP2012205220A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To decrease possibility of generating jaggies on a contour part of a region and moire caused by two line groups.SOLUTION: In a binarization processor 25 of an image processing device, an image divider 31 divides multi-valued image data into unit images; an edge determination part 32 determines whether each unit image is an edge image including an edge of an object; a secondary color determination part 33 determines whether the color of the object in the edge image is a secondary color and whether an angle between two screens to the secondary color is within a specified range; an angle detector 34 detects an angle of the contour line of the object in the edge image; an edge screen determination part 35 selects the two screens to the secondary color after converting one of the two screens to a mirror image when the angles of the contour line and two screens are within specified ranges; and a screen processor 37 outputs binary image data by applying screen-processing on the object with the selected screen.

Description

本発明は、階調変換制御装置、画像処理装置、プログラムに関する。   The present invention relates to a gradation conversion control device, an image processing device, and a program.

画像データ中にある文字のフォントを解析してフォントの線分角度が万線スクリーンのスクリーン角度と閾値以下になるとジャギが発生すると判断し、この判断を文字毎に行って、ジャギが発生するか否かをカウントしておき、最終的に画像データ中のジャギ発生の文字毎のカウント結果に基づきジャギが発生すると判断した時には、例えば出力する用紙方向を90度回転した方向のものを選択したり、万線スクリーン角度を90度回転したりして、ジャギの発生を防ぐ画像出力装置は知られている(例えば、特許文献1参照)。
画像データが示す描画情報に基づいて、中間調オブジェクトの輪郭をエッジとして抽出し、中間調オブジェクト内の濃度値のうちの抽出されたエッジの近傍の濃度値を、濃度値が高くなるように補正し、補正された画像データを、複数画素により形成される網点を用いて補正された画像データに基づく画像を網点画像で構成する網点画像データに変換し、カラーレーザプリンタに対して、網点画像データに基づいて画像記録媒体上に網点画像を出力するように制御する画像出力システムも知られている(例えば、特許文献2参照)。
描画オブジェクトの輪郭を含まないマトリクスに対しては通常通り万線ディザ法を適用し、描画オブジェクトの輪郭を含むマトリクスに対しては各色濃度の最大値を算出して、この最大値が所定範囲内のマトリクスに対しては輪郭を含まないマトリクスとは異なる擬似階調処理を適用するカラー画像処理装置も知られている(例えば、特許文献3参照)。
高階調の画像データ内の数値データで表現される図形情報であるグラフィックデータの輪郭を抽出し、グラフィックデータの輪郭領域以外の他の領域に対して所定のスクリーン角を有する万線ディザパターンを適用し、輪郭のジャギーの発生を防止すべく、グラフィックデータの輪郭領域に対してその所定のスクリーン角を有する万線ディザパターンとは異なる疑似多階調方式を適用して階調変換を行う画像処理装置も知られている(例えば、特許文献4参照)。
入力した多値画像データ中の注目画素が、エッジに位置するエッジ画素であるか、非エッジ画素であるかを検出し、注目画素がエッジ画素であるとき、注目画素にスクリーン処理を施し、N階調の出力値を決定し、注目画素が非エッジ画素であるとき、注目画素を含む領域に、予め設定された視覚特性を有する第1のフィルタ処理することで注目画素の目標値を算出し、注目画素の値が目標値に近づくように補正し、N階調の出力値を決定し、決定した出力値を出力する画像処理装置も知られている(例えば、特許文献5参照)。
Analyzes the font of characters in the image data and determines that jaggies occur when the line segment angle of the font falls below the screen angle of the line screen and the threshold value. When it is determined that jaggies will eventually occur based on the count results for each occurrence of jaggies in the image data, for example, the output paper direction is rotated by 90 degrees. An image output apparatus that prevents the occurrence of jaggies by rotating the line screen angle by 90 degrees is known (see, for example, Patent Document 1).
Based on the drawing information indicated by the image data, the contour of the halftone object is extracted as an edge, and the density value in the vicinity of the extracted edge among the density values in the halftone object is corrected so as to increase the density value. Then, the corrected image data is converted into halftone dot image data composed of a halftone dot image based on the image data corrected using halftone dots formed by a plurality of pixels, An image output system that controls to output a halftone image on an image recording medium based on halftone image data is also known (see, for example, Patent Document 2).
The normal line dither method is applied to the matrix that does not include the outline of the drawing object, and the maximum value of each color density is calculated for the matrix that includes the outline of the drawing object. There is also known a color image processing apparatus that applies pseudo gradation processing different from that for a matrix that does not include an outline to the matrix (for example, see Patent Document 3).
The contour of graphic data, which is graphic information represented by numerical data in high gradation image data, is extracted, and a line dither pattern having a predetermined screen angle is applied to other regions other than the contour region of the graphic data. In order to prevent the occurrence of contour jaggies, image processing that performs gradation conversion by applying a pseudo multi-gradation method different from the line dither pattern having the predetermined screen angle to the contour area of the graphic data An apparatus is also known (see, for example, Patent Document 4).
It is detected whether the target pixel in the input multi-valued image data is an edge pixel located at an edge or a non-edge pixel. When the target pixel is an edge pixel, screen processing is performed on the target pixel, and N A gradation output value is determined, and when the target pixel is a non-edge pixel, a target value of the target pixel is calculated by performing a first filter process having a preset visual characteristic on a region including the target pixel. An image processing apparatus that corrects the value of a target pixel so as to approach a target value, determines an output value of N gradations, and outputs the determined output value is also known (see, for example, Patent Document 5).

特開2009−111815号公報JP 2009-111815 A 特開2006−014135号公報JP 2006-014135 A 特開2004−221695号公報JP 2004-221695 A 特開2004−040499号公報JP 2004-040499 A 特開2009−100228号公報Japanese Unexamined Patent Publication No. 2009-100288

本発明の目的は、領域の輪郭部分にジャギーが発生する可能性を低下させ、かつ、2つの線群によりモアレが発生する可能性も低下させることにある。   An object of the present invention is to reduce the possibility of jaggies occurring in the contour portion of a region, and to reduce the possibility of moire due to two line groups.

請求項1に記載の発明は、N(N≧3)階調で表現された単色により構成されるK(K≧2)次色の領域を含む画像を取得する取得手段と、前記K次色を構成するK個の単色のうちの2つの単色をM(2≦M<N)階調で表現するための情報として当該2つの単色のそれぞれに対して予め定められた2つの線群の方向が、何れも特定の範囲内にあるかどうかを判定する判定手段と、前記判定手段により前記2つの線群の方向が何れも前記特定の範囲内にあると判定された場合に、前記2つの単色のうちの一の単色をM階調で表現するための情報を、当該一の単色に対して予め定められた線群に決定し、前記2つの単色のうちの他の単色をM階調で表現するための情報を、前記領域のうちの前記特定の範囲と重複しない他の範囲内の方向の輪郭線に隣接する第1の部分領域については、当該他の単色に対して予め定められた第1の線群に決定し、前記領域のうちの前記特定の範囲内の方向の輪郭線に隣接する第2の部分領域については、当該第1の線群の方向を前記他の範囲内の方向に変更した第2の線群に決定する決定手段とを備えたことを特徴とする階調変換制御装置である。
請求項2に記載の発明は、前記決定手段は、前記第1の線群を予め定められた軸を基準に鏡像変換した線群を、前記第2の線群として用いることを特徴とする請求項1に記載の階調変換制御装置である。
請求項3に記載の発明は、前記特定の範囲及び前記他の範囲は、一方が、前記画像における右方向と上方向とに挟まれた範囲で、他方が、前記画像における左方向と上方向とに挟まれた範囲であり、前記予め定められた軸は、前記画像における鉛直方向の軸であることを特徴とする請求項2に記載の階調変換制御装置である。
請求項4に記載の発明は、前記決定手段は、前記2つの単色の何れを前記一の単色とし何れを前記他の単色とするかを、前記画像において当該一の単色及び当該他の単色が占める面積に応じて決定することを特徴とする請求項1乃至請求項3の何れかに記載の階調変換制御装置である。
請求項5に記載の発明は、前記決定手段は、前記2つの単色の何れを前記一の単色とし何れを前記他の単色とするかを、当該一の単色及び当該他の単色の明暗差に対する影響度に応じて決定することを特徴とする請求項1乃至請求項3の何れかに記載の階調変換制御装置である。
請求項6に記載の発明は、前記決定手段は、前記他の単色をM階調で表現するための情報を、前記領域のうちの前記第1の部分領域及び前記第2の部分領域に隣接する第3の部分領域については、前記第1の線群及び前記第2の線群に応じた網点に決定することを特徴とする請求項1乃至請求項5の何れかに記載の階調変換制御装置である。
請求項7に記載の発明は、前記画像の前記領域の輪郭線を含む部分画像における当該輪郭線を構成する一の画素から他の画素への方向の出現頻度に基づいて、当該輪郭線の方向を検出する検出手段を更に備えたことを特徴とする請求項1乃至請求項6の何れかに記載の階調変換制御装置である。
請求項8に記載の発明は、N(N≧3)階調で表現された単色により構成されるK(K≧2)次色の領域を含む画像を、予め定められた大きさの複数の部分画像に分割する分割手段と、前記K次色を構成するK個の単色のうちの2つの単色をM(2≦M<N)階調で表現するための情報として当該2つの単色のそれぞれに対して予め定められた2つの線群の方向が、何れも特定の範囲内にあるかどうかを判定する判定手段と、前記複数の部分画像のうちの前記領域の輪郭線を含む特定の部分画像における当該輪郭線の方向を検出する検出手段と、前記判定手段により前記2つの線群の方向が何れも前記特定の範囲内にあると判定され、かつ、前記検出手段により検出された前記輪郭線の方向が前記特定の範囲内にある場合に、前記特定の部分画像について、前記2つの単色のうちの一の単色を、当該一の単色に対して予め定められた線群を用いてM階調に変換し、前記2つの単色のうちの他の単色を、当該他の単色に対して予め定められた線群の方向を前記特定の範囲と重複しない他の範囲内の方向に変更した線群を用いてM階調に変換する変換手段とを備えたことを特徴とする画像処理装置である。
請求項9に記載の発明は、コンピュータに、N(N≧3)階調で表現された単色により構成されるK(K≧2)次色の領域を含む画像を取得する機能と、前記K次色を構成するK個の単色のうちの2つの単色をM(2≦M<N)階調で表現するための情報として当該2つの単色のそれぞれに対して予め定められた2つの線群の方向が、何れも特定の範囲内にあるかどうかを判定する機能と、前記2つの線群の方向が何れも前記特定の範囲内にあると判定された場合に、前記2つの単色のうちの一の単色をM階調で表現するための情報を、当該一の単色に対して予め定められた線群に決定し、前記2つの単色のうちの他の単色をM階調で表現するための情報を、前記領域のうちの前記特定の範囲と重複しない他の範囲内の方向の輪郭線に隣接する第1の部分領域については、当該他の単色に対して予め定められた第1の線群に決定し、前記領域のうちの前記特定の範囲内の方向の輪郭線に隣接する第2の部分領域については、当該第1の線群の方向を前記他の範囲内の方向に変更した第2の線群に決定する機能とを実現させるためのプログラムである。
The invention according to claim 1 is an acquisition means for acquiring an image including a region of K (K ≧ 2) order color composed of a single color expressed by N (N ≧ 3) gradations, and the K order color The directions of two line groups predetermined for each of the two monochrome colors as information for expressing two of the K monochrome colors constituting the image with M (2 ≦ M <N) gradations However, when the determination unit determines whether both are within the specific range, and the determination unit determines that the directions of the two line groups are both within the specific range, the two Information for expressing one of the single colors in M gradations is determined as a line group determined in advance for the single color, and the other single color of the two single colors is determined in M gradations. Information for expressing in the direction of the direction in the other range that does not overlap with the specific range of the region The first partial region adjacent to the first partial region is determined as a first line group determined in advance with respect to the other single color, and the first partial region adjacent to the contour line in the direction within the specific range of the region. A gradation conversion control device comprising: a determining unit that determines a second line group in which the direction of the first line group is changed to a direction within the other range for the second partial region; It is.
The invention according to claim 2 is characterized in that the determining means uses, as the second line group, a line group obtained by mirror-image-transforming the first line group with reference to a predetermined axis. Item 2. The gradation conversion control device according to Item 1.
The invention according to claim 3 is such that one of the specific range and the other range is sandwiched between a right direction and an upward direction in the image, and the other is a left direction and an upward direction in the image. The gradation conversion control device according to claim 2, wherein the predetermined axis is a vertical axis in the image.
According to a fourth aspect of the present invention, the determining means determines which one of the two single colors is the one single color and which is the other single color, in the image, the one single color and the other single color. 4. The gradation conversion control device according to claim 1, wherein the gradation conversion control device is determined according to an occupied area.
According to a fifth aspect of the present invention, the determining means determines which of the two single colors is the one single color and which is the other single color, with respect to the light and dark difference between the one single color and the other single color. 4. The gradation conversion control device according to claim 1, wherein the gradation conversion control device is determined according to an influence degree.
According to a sixth aspect of the present invention, the determining unit is configured to display information for expressing the other single color in M gradations adjacent to the first partial region and the second partial region of the region. 6. The gradation according to claim 1, wherein the third partial region to be determined is determined as a halftone dot corresponding to the first line group and the second line group. It is a conversion control device.
According to the seventh aspect of the present invention, the direction of the contour line is based on the appearance frequency of the direction from one pixel to another pixel constituting the contour line in the partial image including the contour line of the region of the image. The gradation conversion control device according to claim 1, further comprising a detecting unit that detects the image.
According to an eighth aspect of the present invention, an image including an area of a K (K ≧ 2) order color composed of a single color expressed with N (N ≧ 3) gradations is provided with a plurality of predetermined sizes. Dividing means for dividing the image into partial images, and each of the two single colors as information for expressing two of the K single colors constituting the K-order color with M (2 ≦ M <N) gradations. A determination unit that determines whether or not the directions of two predetermined line groups are both within a specific range, and a specific part including a contour line of the region of the plurality of partial images Detecting means for detecting the direction of the contour line in the image; and the contour detected by the detecting means when both directions of the two line groups are determined to be within the specific range by the determining means. The specific part when the direction of the line is within the specific range; For an image, one single color of the two single colors is converted to M gradation using a line group predetermined for the one single color, and the other single color of the two single colors is Conversion means for converting to M gradations using a line group in which the direction of a predetermined line group for the other single color is changed to a direction in another range that does not overlap with the specific range. An image processing apparatus characterized by the above.
According to a ninth aspect of the present invention, there is provided a computer having a function of acquiring an image including an area of a K (K ≧ 2) order color composed of a single color expressed by N (N ≧ 3) gradations, and the K Two line groups predetermined for each of the two single colors as information for expressing two of the K single colors constituting the next color with M (2 ≦ M <N) gradations A function for determining whether or not the directions of the two lines are within a specific range, and when the directions of the two line groups are both within the specific range, Information for expressing one single color with M gradation is determined for a line group predetermined for the one single color, and the other single color of the two single colors is expressed with M gradation. Information adjacent to a contour line in a direction in another range that does not overlap with the specific range in the region. The first partial region is determined as the first line group determined in advance for the other single color, and the second portion adjacent to the contour line in the direction within the specific range in the region. The area is a program for realizing the function of determining the second line group in which the direction of the first line group is changed to the direction in the other range.

請求項1の発明によれば、領域の輪郭部分にジャギーが発生する可能性を低下させ、かつ、2つの線群によりモアレが発生する可能性も低下させることができる。
請求項2の発明によれば、本構成を有していない場合に比較して、予め定められた線群の方向を変更した線群を容易に作成できる。
請求項3の発明によれば、本構成を有していない場合に比較して、予め定められた線群の方向を変更した線群を簡単な計算で作成できる。
請求項4の発明によれば、画像の見た目に与える影響を抑えつつ、領域の輪郭部分にジャギーが発生する可能性を低下させ、かつ、2つの線群によりモアレが発生する可能性も低下させることができる。
請求項5の発明によれば、画像の見た目に与える影響を抑えつつ、領域の輪郭部分にジャギーが発生する可能性を低下させ、かつ、2つの線群によりモアレが発生する可能性も低下させることができる。
請求項6の発明によれば、本構成を有していない場合に比較して、2つの線群の境界に干渉縞が生じる可能性を低下させることができる。
請求項7の発明によれば、本構成を有していない場合に比較して、領域の輪郭線が複雑な場合であっても輪郭線の方向として相応しい方向を決定することができる。
請求項8の発明によれば、領域の輪郭部分にジャギーが発生する可能性を低下させ、かつ、2つの線群によりモアレが発生する可能性も低下させることができる。
請求項9の発明によれば、領域の輪郭部分にジャギーが発生する可能性を低下させ、かつ、2つの線群によりモアレが発生する可能性も低下させることができる。
According to the first aspect of the present invention, it is possible to reduce the possibility that jaggy will occur in the contour portion of the region, and to reduce the possibility that moire occurs due to the two line groups.
According to the second aspect of the present invention, a line group in which the direction of the predetermined line group is changed can be easily created as compared with the case where the present configuration is not provided.
According to the third aspect of the present invention, a line group in which the direction of a predetermined line group is changed can be created by simple calculation as compared with the case where the present configuration is not provided.
According to the fourth aspect of the present invention, the possibility of jaggies occurring in the contour portion of the region is reduced while the influence on the appearance of the image is suppressed, and the possibility that moire is generated by the two line groups is also reduced. be able to.
According to the fifth aspect of the present invention, it is possible to reduce the possibility of jaggies occurring in the contour portion of the region while reducing the influence on the appearance of the image, and also reduce the possibility of occurrence of moire due to the two line groups. be able to.
According to the sixth aspect of the present invention, the possibility that an interference fringe is generated at the boundary between two line groups can be reduced as compared with the case where the present configuration is not provided.
According to the seventh aspect of the present invention, it is possible to determine a direction suitable as the direction of the contour line even when the contour line of the region is complicated as compared with the case where this configuration is not provided.
According to the invention of claim 8, it is possible to reduce the possibility that jaggy will occur in the contour portion of the region, and to reduce the possibility that moire will occur due to the two line groups.
According to the ninth aspect of the present invention, it is possible to reduce the possibility that jaggy will occur in the contour portion of the region, and to reduce the possibility that moire occurs due to the two line groups.

本発明の実施の形態が適用されるコンピュータシステムの構成例を示した図である。It is the figure which showed the example of a structure of the computer system with which embodiment of this invention is applied. スクリーンの選択について示した図である。It is the figure shown about selection of a screen. スクリーンの選択の違いにより生じる画像の違いについて示した図である。It is the figure shown about the difference in the image produced by the difference in selection of a screen. 互いに鏡像関係にある2つのスクリーンの境界に生じるスジ及びその回避策について示した図である。It is the figure shown about the streak which arises in the boundary of two screens which are a mirror image relationship, and its avoidance method. 本発明の第1の実施の形態における2値化処理部の機能構成例を示したブロック図である。It is the block diagram which showed the function structural example of the binarization process part in the 1st Embodiment of this invention. 本発明の実施の形態における2値化処理部内の角度検出部の動作の概要を示した図である。It is the figure which showed the outline | summary of operation | movement of the angle detection part in the binarization process part in embodiment of this invention. 本発明の実施の形態における2値化処理部内の角度検出部の動作の概要を示した図である。It is the figure which showed the outline | summary of operation | movement of the angle detection part in the binarization process part in embodiment of this invention. 本発明の第1の実施の形態における2値化処理部の動作例を示したフローチャートである。It is the flowchart which showed the operation example of the binarization process part in the 1st Embodiment of this invention. 本発明の第1の実施の形態における2値化処理部の動作例を示したフローチャートである。It is the flowchart which showed the operation example of the binarization process part in the 1st Embodiment of this invention. 本発明の第2の実施の形態における2値化処理部の機能構成例を示したブロック図である。It is the block diagram which showed the function structural example of the binarization process part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における2値化処理部の動作例を示したフローチャートである。It is the flowchart which showed the operation example of the binarization process part in the 2nd Embodiment of this invention. 本発明の実施の形態を実現可能なコンピュータのハードウェア構成例を示した図である。It is the figure which showed the hardware structural example of the computer which can implement | achieve embodiment of this invention.

以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
図1は、本実施の形態が適用されるコンピュータシステムの構成例を示したものである。
図示するように、このコンピュータシステムは、ホスト装置10と、画像処理装置20と、画像形成装置40とを備えている。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
FIG. 1 shows a configuration example of a computer system to which this embodiment is applied.
As shown in the figure, this computer system includes a host device 10, an image processing device 20, and an image forming device 40.

ホスト装置10は、紙等の記録媒体に形成される画像の元となる画像データを供給する装置であり、アプリケーションプログラム(以下、単に「アプリケーション」という)11と、プリンタドライバ12とを少なくとも含む。ここで、ホスト装置10は、例えば、PC(Personal Computer)で実現される。
アプリケーション11は、文書処理ソフトウェアや表計算ソフトウェア等であり、作成したデータの印刷を要求するコマンドをプリンタドライバ12に出力する。
プリンタドライバ12は、このコマンドを受け取り、プリンタの描画コマンドであるPDL(Page Description Language:ページ記述言語)に変換する。
The host device 10 is a device that supplies image data that is the basis of an image formed on a recording medium such as paper, and includes at least an application program (hereinafter simply referred to as “application”) 11 and a printer driver 12. Here, the host device 10 is realized by, for example, a PC (Personal Computer).
The application 11 is document processing software, spreadsheet software, or the like, and outputs a command for requesting printing of the created data to the printer driver 12.
The printer driver 12 receives this command and converts it into a PDL (Page Description Language) which is a printer drawing command.

画像処理装置20は、ホスト装置10が供給する画像データに対して画像処理を施す装置であり、PDL解釈部21と、描画部22と、レンダリング部23と、ガンマ補正部24と、2値化処理部25とを含む。ここで、画像処理装置20は、例えば、プリンタ内部で実現される。   The image processing device 20 is a device that performs image processing on image data supplied from the host device 10, and includes a PDL interpretation unit 21, a drawing unit 22, a rendering unit 23, a gamma correction unit 24, and binarization. And a processing unit 25. Here, the image processing apparatus 20 is realized inside a printer, for example.

PDL解釈部21は、ホスト装置10からPDLが送られてくると、そのPDLを解釈する。
描画部22は、PDLで指定された色信号(図ではRGB)を画像形成装置40の色信号(CYMK)に変換する。その際、画像形成装置40の解像度に応じた中間コードで描画する。
レンダリング部23は、描画部22で描画された中間コードをラスタ画像データにレンダリングする。
When a PDL is sent from the host device 10, the PDL interpretation unit 21 interprets the PDL.
The drawing unit 22 converts a color signal (RGB in the figure) designated by PDL into a color signal (CYMK) of the image forming apparatus 40. At that time, drawing is performed with an intermediate code corresponding to the resolution of the image forming apparatus 40.
The rendering unit 23 renders the intermediate code drawn by the drawing unit 22 into raster image data.

ガンマ補正部24は、C、M、Y、Kの各色信号についてガンマ補正を行う。
2値化処理部25は、ガンマ補正部24によるガンマ補正後の各色信号(多値画像データ)に対し、ディザパターン(スクリーン)を用いてスクリーン処理を施し、スクリーン処理された色信号(2値画像データ)を画像形成装置40に出力する。
The gamma correction unit 24 performs gamma correction on the C, M, Y, and K color signals.
The binarization processing unit 25 performs screen processing on each color signal (multi-valued image data) after the gamma correction by the gamma correction unit 24 using a dither pattern (screen), and the screen-processed color signal (binary) Image data) is output to the image forming apparatus 40.

画像形成装置40は、2値化処理後の各色信号に対応するトナーを用いて、紙等の記録媒体に画像を形成する装置である。   The image forming apparatus 40 is an apparatus that forms an image on a recording medium such as paper using toner corresponding to each color signal after binarization processing.

ところで、図1の2値化処理部25で2値化処理が施された画像には、画像内のオブジェクトのエッジの角度と2値化処理で用いられたスクリーンの角度とに不整合がある場合、具体的には、これらの角度が近い場合、ジャギーが発生することがある。
そこで、本実施の形態では、ジャギーを画像処理にて改善し、高画質な画像を出力できるようにする。具体的には、オブジェクトのエッジの角度とスクリーンの角度とに不整合が生じないようにスクリーンの角度を選択し、この選択したスクリーンによってスクリーン処理を行う。
Incidentally, in the image subjected to the binarization processing in the binarization processing unit 25 of FIG. 1, there is a mismatch between the edge angle of the object in the image and the screen angle used in the binarization processing. In this case, specifically, when these angles are close, jaggy may occur.
Therefore, in this embodiment, jaggy is improved by image processing so that a high-quality image can be output. Specifically, the screen angle is selected so that no mismatch occurs between the edge angle of the object and the screen angle, and screen processing is performed using the selected screen.

図2は、このようなスクリーンの選択について示した図である。
本実施の形態では、ラインスクリーン(線群)である第1スクリーンと、Y軸を基準に第1スクリーンと鏡像の関係にある第2スクリーンとを用いて、スクリーン処理を行う。図において、実線51は第1スクリーンの方向を示しており、その角度θは0≦θ≦90°を満たすものとする。また、実線52は第2スクリーンの方向を示しており、第2スクリーンは第1スクリーンの鏡像であるので、その角度θはθ=180°−θで表される。
一方、入力された画像からaピクセル×bピクセルの単位画像53を抽出し、スクリーン処理対象のオブジェクトのエッジのこの単位画像における支配的な角度(以下、「支配的角度」という)θを求める。そして、この支配的角度θに基づいて、第1スクリーン及び第2スクリーンのうちの適した方のスクリーンを選択し、この選択したスクリーンによってスクリーン処理を行う。具体的には、0≦θ≦90°のときは第2スクリーンを選択し、90°≦θ≦180°のときは第1スクリーンを選択する。図では、破線54が支配的角度θの方向を示しており、90°≦θ≦180°であるので、第1スクリーンが選択される。
FIG. 2 is a diagram showing selection of such a screen.
In the present embodiment, screen processing is performed using a first screen that is a line screen (line group) and a second screen that has a mirror image relationship with the first screen with respect to the Y axis. In the figure, a solid line 51 indicates the direction of the first screen, and the angle θ 1 satisfies 0 ≦ θ 1 ≦ 90 °. The solid line 52 indicates the direction of the second screen. Since the second screen is a mirror image of the first screen, the angle θ 2 is represented by θ 2 = 180 ° −θ 1 .
On the other hand, a unit image 53 of a pixel × b pixel is extracted from the input image, and a dominant angle (hereinafter referred to as “dominant angle”) θ 0 of the edge of the object to be screened in this unit image is obtained. . Based on the dominant angle θ 0 , a suitable one of the first screen and the second screen is selected, and screen processing is performed using the selected screen. Specifically, the second screen is selected when 0 ≦ θ 0 ≦ 90 °, and the first screen is selected when 90 ° ≦ θ 0 ≦ 180 °. In the figure, the broken line 54 indicates the direction of the dominant angle θ 0 , and 90 ° ≦ θ 0 ≦ 180 °, so the first screen is selected.

図3は、支配的角度θが90°≦θ≦180°を満たす場合に、第1スクリーンを用いてスクリーン処理を施した画像と、第2スクリーンを用いてスクリーン処理を施した画像とを比較する図である。
(a)は、第2スクリーンを用いたときの画像の例である。オブジェクトのエッジの角度とスクリーンの角度とが整合していないので、即ち、これらの角度が近いので、ジャギーが目だっている。
(b)は、第1スクリーンを用いたときの画像の例である。オブジェクトのエッジの角度とスクリーンの角度とが整合しているので、即ち、これらの角度が近くないので、ジャギーは軽微である。
FIG. 3 shows an image subjected to screen processing using the first screen and an image subjected to screen processing using the second screen when the dominant angle θ 0 satisfies 90 ° ≦ θ 0 ≦ 180 °. It is a figure which compares.
(A) is an example of an image when the second screen is used. Jaggy is noticeable because the angle of the object's edge and the angle of the screen do not match, that is, these angles are close.
(B) is an example of an image when the first screen is used. The jaggies are minor because the angle of the object edge and the screen angle are aligned, i.e., these angles are not close.

[第1の実施の形態]
このように、本実施の形態では、互いに鏡像の関係にある第1スクリーン及び第2スクリーンの中から、単位画像における支配的角度θに応じたスクリーンを選択し、この選択したスクリーンを用いてスクリーン処理を行うようにした。
ところが、第1スクリーン及び第2スクリーンの中から何れかのスクリーンを選択するだけだと、第1スクリーン及び第2スクリーンの境界では、これらのスクリーンによる干渉縞(スジ)が発生してしまう。
図4は、このようなスジの発生及びその回避策について示した図である。
(a)は、互いに鏡像の関係にある第1スクリーン及び第2スクリーンが隣接した場合に、これらのスクリーンが互いに干渉し、縦スジとなって現れている状態を示している。
このような状態を回避するには、第1スクリーン及び第2スクリーンの両方に隣接する単位画像に、(b)に示すように、例えば、第1スクリーン及び第2スクリーンと同角度かつ同線数のドットスクリーン(網点)である第3スクリーンを適用することが考えられる。第3スクリーンは2つの角度成分、つまり、第1スクリーンの角度及び第2スクリーンの角度を持つため、この場合、(a)のようなスジは生じ難い。
[First Embodiment]
Thus, in the present embodiment, a screen corresponding to the dominant angle θ 0 in the unit image is selected from the first screen and the second screen that are in a mirror image relationship with each other, and this selected screen is used. Added screen processing.
However, if only one of the first screen and the second screen is selected, interference fringes (streaks) are generated at the boundary between the first screen and the second screen.
FIG. 4 is a diagram showing the occurrence of such streaks and a workaround for them.
(A) shows a state in which when a first screen and a second screen, which are mirror images of each other, are adjacent to each other, these screens interfere with each other and appear as vertical stripes.
In order to avoid such a state, the unit image adjacent to both the first screen and the second screen has, for example, the same angle and the same number of lines as the first screen and the second screen, as shown in (b). It is conceivable to apply a third screen which is a dot screen (halftone dot). Since the third screen has two angle components, that is, the angle of the first screen and the angle of the second screen, the streak as shown in (a) hardly occurs in this case.

図5は、このようなスクリーン処理を行う2値化処理部25の構成を示したブロック図である。
図示するように、2値化処理部25は、画像分割部31と、エッジ判定部32と、角度検出部34と、エッジスクリーン決定部35と、非エッジスクリーン決定部36と、スクリーン処理部37とを備える。
FIG. 5 is a block diagram showing the configuration of the binarization processing unit 25 that performs such screen processing.
As illustrated, the binarization processing unit 25 includes an image dividing unit 31, an edge determination unit 32, an angle detection unit 34, an edge screen determination unit 35, a non-edge screen determination unit 36, and a screen processing unit 37. With.

画像分割部31は、入力された多値画像データ(例えば256階調の画像データ)をaピクセル×bピクセルの単位画像に分割する。本実施の形態では、画像を取得する取得手段の一例として、画像分割部31を設けている。また、部分画像の一例として、単位画像を用いており、画像を複数の部分画像に分割する分割手段の一例として、画像分割部31を設けている。
エッジ判定部32は、画像分割部31による分割で得られた各単位画像が、オブジェクトのエッジを含む画像(以下、「エッジ画像」という)であるか、オブジェクトのエッジを含まない画像(以下、「非エッジ画像」という)であるかを判定する。
角度検出部34は、エッジ判定部32によりエッジ画像と判定された単位画像における支配的角度θを検出する。尚、この支配的角度θの検出方法については、後述する。本実施の形態では、輪郭線の方向を検出する検出手段の一例として、角度検出部34を設けている。
The image dividing unit 31 divides the input multi-value image data (for example, image data of 256 gradations) into a unit image of a pixel × b pixel. In the present embodiment, an image dividing unit 31 is provided as an example of an acquisition unit that acquires an image. Further, a unit image is used as an example of a partial image, and an image dividing unit 31 is provided as an example of a dividing unit that divides an image into a plurality of partial images.
The edge determination unit 32 determines whether each unit image obtained by the division by the image dividing unit 31 is an image including an object edge (hereinafter referred to as “edge image”) or an image not including an object edge (hereinafter referred to as “edge image”). Or “non-edge image”).
The angle detection unit 34 detects the dominant angle θ 0 in the unit image determined as the edge image by the edge determination unit 32. A method for detecting the dominant angle θ 0 will be described later. In the present embodiment, an angle detection unit 34 is provided as an example of a detection unit that detects the direction of the contour line.

エッジスクリーン決定部35は、角度検出部34により検出された支配的角度θに基づいて、エッジ画像で用いるスクリーン(以下、「エッジスクリーン」という)を決定する。具体的には、0≦θ≦90°であれば第2スクリーンを選択し、90°≦θ≦180°であれば第1スクリーンを選択する。本実施の形態では、特定の範囲の一例として、0〜90°の範囲を、他の範囲の一例として、90°〜180°の範囲を用いており、特定の範囲内の方向の第1の線群の一例として、第1スクリーンを、他の範囲内の方向の第2の線群の一例として、第2スクリーンを用いている。また、本実施の形態では、単色をM階調で表現するための情報を輪郭線に隣接する部分領域について決定する決定手段の一例として、エッジスクリーン決定部35を設けている。 The edge screen determination unit 35 determines a screen (hereinafter referred to as “edge screen”) to be used in the edge image based on the dominant angle θ 0 detected by the angle detection unit 34. Specifically, the second screen is selected if 0 ≦ θ 0 ≦ 90 °, and the first screen is selected if 90 ° ≦ θ 0 ≦ 180 °. In this embodiment, a range of 0 to 90 ° is used as an example of the specific range, and a range of 90 ° to 180 ° is used as an example of the other range, and the first in the direction within the specific range is used. The first screen is used as an example of a line group, and the second screen is used as an example of a second line group in a direction within another range. In the present embodiment, the edge screen determination unit 35 is provided as an example of a determination unit that determines information for expressing a single color in M gradations for a partial region adjacent to the contour line.

非エッジスクリーン決定部36は、エッジスクリーン決定部35により決定されたエッジスクリーンの情報に基づいて、非エッジ画像で用いるスクリーン(以下、「非エッジスクリーン」という)を決定する。本実施の形態では、単色をM階調で表現するための情報を第1の線群が使用される部分領域及び第2の線群が使用される部分領域に隣接する部分領域について決定する決定手段の一例として、非エッジスクリーン決定部36を設けている。   The non-edge screen determination unit 36 determines a screen (hereinafter referred to as “non-edge screen”) to be used in the non-edge image based on the information on the edge screen determined by the edge screen determination unit 35. In the present embodiment, determination for determining information for expressing a single color with M gradations for a partial region in which the first line group is used and a partial region adjacent to the partial region in which the second line group is used. As an example of the means, a non-edge screen determination unit 36 is provided.

スクリーン処理部37は、エッジスクリーン決定部35により決定されたエッジスクリーンと、非エッジスクリーン決定部36により決定された非エッジスクリーンとに基づいて、入力された多値画像データにスクリーン処理を施す。本実施の形態では、単色をM階調に変換する変換手段の一例として、スクリーン処理部37を設けている。   The screen processing unit 37 performs screen processing on the input multi-valued image data based on the edge screen determined by the edge screen determination unit 35 and the non-edge screen determined by the non-edge screen determination unit 36. In the present embodiment, a screen processing unit 37 is provided as an example of conversion means for converting a single color into M gradations.

ここで、支配的角度θの検出方法について、具体的に説明する。
本実施の形態では、単位画像内のエッジの角度のうち最も出現頻度の高い角度を、支配的角度θとする。
図6は、単位画像内にエッジの角度として1つの角度しか出現しない場合の例である。
(a)は、単位画像内の各ピクセル(画素)を、エッジを表すピクセルを「1」、エッジを表さないピクセルを「0」として示したものである。
まず、(b)に示すように、エッジを表す各ピクセルから隣接するピクセルへの角度の出現頻度を調べる。
(c)は、角度の出現頻度をヒストグラムで示したものである。この例では、45°が最も出現頻度が高いので、単位画像における支配的角度θは45°となる。
Here, a method for detecting the dominant angle θ 0 will be specifically described.
In the present embodiment, the angle with the highest appearance frequency among the angles of the edges in the unit image is defined as the dominant angle θ 0 .
FIG. 6 shows an example in which only one angle appears as an edge angle in the unit image.
(A) shows each pixel (pixel) in the unit image as a pixel representing an edge as “1” and a pixel not representing an edge as “0”.
First, as shown in (b), the appearance frequency of an angle from each pixel representing an edge to an adjacent pixel is examined.
(C) is a histogram showing the frequency of angle appearance. In this example, since 45 ° has the highest appearance frequency, the dominant angle θ 0 in the unit image is 45 °.

図7は、単位画像内にエッジの角度として複数の角度が出現する場合の例である。
(a)は、単位画像内の各ピクセル(画素)を、エッジを表すピクセルを「1」、エッジを表さないピクセルを「0」として示したものである。
まず、(b)に示すように、エッジを表す各ピクセルから隣接するピクセルへの角度の出現頻度を調べる。
(c)は、角度の出現頻度をヒストグラムで示したものである。この例では、0°、45°、135°が出現するが、このうち135°が最も出現頻度が高いので、単位画像における支配的角度θは135°となる。
FIG. 7 shows an example in which a plurality of angles appear as edge angles in the unit image.
(A) shows each pixel (pixel) in the unit image as a pixel representing an edge as “1” and a pixel not representing an edge as “0”.
First, as shown in (b), the appearance frequency of an angle from each pixel representing an edge to an adjacent pixel is examined.
(C) is a histogram showing the frequency of angle appearance. In this example, 0 °, 45 °, and 135 ° appear. Of these, 135 ° has the highest appearance frequency, so the dominant angle θ 0 in the unit image is 135 °.

次に、第1の実施の形態における2値化処理部25の動作について説明する。
図8は、2値化処理部25のうちの非エッジスクリーン決定部36及びスクリーン処理部37以外の部分の動作例を示したフローチャートである。
図示するように、まず、画像分割部31が、入力された多値画像データをP個の単位画像に分割する(ステップ301)。ここで、P個の単位画像には、番号pが付与される。多値画像データ内の単位画像の位置に応じて番号pを付与することにより、単位画像内の各ピクセルを含む単位画像をその番号pによって特定可能になっているものとする。そして、画像分割部31による分割で得られたP個の単位画像は、エッジ判定部32に渡され、保持される。
Next, the operation of the binarization processing unit 25 in the first embodiment will be described.
FIG. 8 is a flowchart showing an operation example of a part other than the non-edge screen determination unit 36 and the screen processing unit 37 in the binarization processing unit 25.
As shown in the figure, first, the image dividing unit 31 divides the input multi-value image data into P unit images (step 301). Here, the number p is assigned to the P unit images. It is assumed that a unit image including each pixel in the unit image can be specified by the number p by assigning a number p according to the position of the unit image in the multivalued image data. Then, the P unit images obtained by the division by the image dividing unit 31 are transferred to and held by the edge determination unit 32.

次に、エッジ判定部32は、単位画像の番号pに1を代入する(ステップ302)。そして、p番目の単位画像を取り出し、その単位画像がエッジ画像であるかどうかを判定する(ステップ303)。ここで、単位画像がエッジ画像であるかどうかの判定は、公知のエッジ検出方法を用いて行うとよい。
単位画像がエッジ画像であると判定された場合、単位画像及びその番号pは角度検出部34へと渡され、角度検出部34が、p番目の単位画像における支配的角度θを検出する(ステップ304)。ここで、支配的角度θの検出は、図6及び図7で述べたような方法で行うとよい。
そして、支配的角度θ及び単位画像の番号pはエッジスクリーン決定部35へと伝えられ、エッジスクリーン決定部35が、支配的角度θが0≦θ≦90°を満たすかどうかを判定する(ステップ305)。
Next, the edge determination unit 32 substitutes 1 for the number p of the unit image (step 302). Then, the p-th unit image is taken out and it is determined whether or not the unit image is an edge image (step 303). Here, it is preferable to determine whether the unit image is an edge image using a known edge detection method.
When it is determined that the unit image is an edge image, the unit image and its number p are passed to the angle detection unit 34, and the angle detection unit 34 detects the dominant angle θ 0 in the p-th unit image ( Step 304). Here, the dominant angle θ 0 may be detected by the method described with reference to FIGS.
Then, the dominant angle θ 0 and the unit image number p are transmitted to the edge screen determination unit 35, and the edge screen determination unit 35 determines whether the dominant angle θ 0 satisfies 0 ≦ θ 0 ≦ 90 °. (Step 305).

支配的角度θが0≦θ≦90°を満たせば、エッジスクリーン決定部35は、p番目の単位画像のスクリーン処理で用いるスクリーンとして、第2スクリーンを選択する(ステップ306)。 If the dominant angle θ 0 satisfies 0 ≦ θ 0 ≦ 90 °, the edge screen determination unit 35 selects the second screen as the screen used in the screen processing of the p-th unit image (step 306).

一方、支配的角度θが0≦θ≦90°を満たさなければ、エッジスクリーン決定部35は、p番目の単位画像のスクリーン処理で用いるスクリーンとして、第1スクリーンを選択する(ステップ307)。 On the other hand, if the dominant angle θ 0 does not satisfy 0 ≦ θ 0 ≦ 90 °, the edge screen determination unit 35 selects the first screen as the screen used in the screen processing of the p-th unit image (step 307). .

尚、p番目の単位画像のスクリーン処理で用いるスクリーンとして第1スクリーン及び第2スクリーンの何れが選択されたかは、単位画像の番号pに対応付けて、スクリーン選択情報として、エッジスクリーン決定部35が保持しておくものとする。   Whether the first screen or the second screen is selected as the screen used in the screen processing of the p-th unit image is correlated with the unit image number p by the edge screen determining unit 35 as screen selection information. Shall be retained.

一方、ステップ303でp番目の単位画像が非エッジ画像であると判定された場合、エッジ判定部32は、単位画像に対し、非エッジ画像であることを示すタグ情報を付加する(ステップ308)。   On the other hand, when it is determined in step 303 that the p-th unit image is a non-edge image, the edge determination unit 32 adds tag information indicating that the unit image is a non-edge image (step 308). .

その後、エッジ判定部32は、単位画像の番号pが単位画像の個数Pに達したかどうかを判定する(ステップ309)。pがPに達していなければ、pに1を加算して(ステップ310)、ステップ303へ戻るが、pがPに達していれば、処理を終了する。   Thereafter, the edge determination unit 32 determines whether or not the number p of unit images has reached the number P of unit images (step 309). If p has not reached P, 1 is added to p (step 310), and the process returns to step 303. If p has reached P, the process ends.

図9は、2値化処理部25のうちの非エッジスクリーン決定部36の動作例を示したフローチャートである。
図示するように、まず、非エッジスクリーン決定部36は、エッジ判定部32が保持するP個の単位画像のうち、タグ情報が付加されたQ個の非エッジ画像を取り出す(ステップ321)。尚、このとき、非エッジ画像の単位画像としての番号pも取り出すものとする。
次に、非エッジスクリーン決定部36は、非エッジ画像の番号qに1を代入する(ステップ322)。そして、q番目の非エッジ画像を取り出し、その非エッジ画像が、第1スクリーンが選択されたエッジ画像及び第2スクリーンが選択されたエッジ画像の両方に隣接しているかどうかを判定する(ステップ323)。尚、このような判定は、q番目の非エッジ画像の単位画像としての番号pに基づいて、この非エッジ画像に隣接する単位画像の番号p,p,…を求め、エッジスクリーン決定部35内のスクリーン選択情報で単位画像の番号p,p,…のそれぞれに対応付けられたスクリーンの中に、第1スクリーン及び第2スクリーンの両方があるかどうかを調べることにより、行えばよい。
FIG. 9 is a flowchart illustrating an operation example of the non-edge screen determination unit 36 in the binarization processing unit 25.
As shown in the figure, first, the non-edge screen determination unit 36 extracts Q non-edge images to which tag information is added from the P unit images held by the edge determination unit 32 (step 321). At this time, the number p as a unit image of the non-edge image is also taken out.
Next, the non-edge screen determination unit 36 substitutes 1 for the number q of the non-edge image (step 322). Then, the q-th non-edge image is extracted, and it is determined whether or not the non-edge image is adjacent to both the edge image with the first screen selected and the edge image with the second screen selected (step 323). ). Note that this determination is based on the number p as the unit image of the q-th non-edge image to obtain the number p 1 , p 2 ,... By checking whether there are both the first screen and the second screen among the screens associated with the unit image numbers p 1 , p 2 ,... Good.

q番目の非エッジ画像が、第1スクリーンが選択されたエッジ画像及び第2スクリーンが選択されたエッジ画像の両方に隣接していると判定された場合、非エッジスクリーン決定部36は、第1スクリーン及び第2スクリーンの境界にスジが発生しないように、q番目の非エッジ画像のスクリーン処理で用いるスクリーンとして、第1スクリーン及び第2スクリーンと同角度かつ同線数のドットスクリーンである第3スクリーンを選択する(ステップ324)。   When it is determined that the q-th non-edge image is adjacent to both the edge image for which the first screen is selected and the edge image for which the second screen is selected, the non-edge screen determination unit 36 selects the first edge image. A third screen which is a dot screen having the same angle and the same number of lines as the first screen and the second screen is used as the screen for the screen processing of the q-th non-edge image so that no streak occurs at the boundary between the screen and the second screen A screen is selected (step 324).

一方、q番目の非エッジ画像が、第1スクリーンが選択されたエッジ画像及び第2スクリーンが選択されたエッジ画像の両方に隣接しているわけではないと判定された場合、非エッジスクリーン決定部36は、q番目の非エッジ画像が、第2スクリーンが選択されたエッジ画像に隣接しているかどうかを判定する(ステップ325)。尚、このような判定は、q番目の非エッジ画像の単位画像としての番号pに基づいて、この非エッジ画像に隣接する単位画像の番号p,p,…を求め、エッジスクリーン決定部35内のスクリーン選択情報で単位画像の番号p,p,…のそれぞれに対応付けられたスクリーンの中に、第2スクリーンがあるかどうかを調べることにより、行えばよい。q番目の非エッジ画像が、第2スクリーンが選択されたエッジ画像に隣接していないと判定された場合、第1スクリーンを選択してもスジは発生しないので、非エッジスクリーン決定部36は、第1スクリーンを選択する(ステップ326)。また、q番目の非エッジ画像が、第2スクリーンが選択されたエッジ画像に隣接していると判定された場合、第1スクリーンを選択するとスジが発生するので、非エッジスクリーン決定部36は、第2スクリーンを選択する(ステップ327)。
尚、q番目の非エッジ画像のスクリーン処理で用いるスクリーンとして第1スクリーン、第2スクリーン、第3スクリーンの何れが選択されたかは、この非エッジ画像の単位画像としての番号pに対応付けて、スクリーン選択情報として、非エッジスクリーン決定部36が保持しておくものとする。
On the other hand, when it is determined that the qth non-edge image is not adjacent to both the edge image from which the first screen is selected and the edge image from which the second screen is selected, the non-edge screen determination unit 36 determines whether the qth non-edge image is adjacent to the selected edge image for the second screen (step 325). Note that this determination is based on the number p as the unit image of the q-th non-edge image to obtain the number p 1 , p 2 ,... This may be done by checking whether there is a second screen among the screens associated with the unit image numbers p 1 , p 2 ,. If it is determined that the q-th non-edge image is not adjacent to the selected edge image of the second screen, no streaking occurs even if the first screen is selected. The first screen is selected (step 326). In addition, when it is determined that the q-th non-edge image is adjacent to the selected edge image of the second screen, a streak occurs when the first screen is selected. The second screen is selected (step 327).
Note that which of the first screen, the second screen, and the third screen is selected as the screen used in the screen processing of the qth non-edge image is associated with the number p as the unit image of the non-edge image, It is assumed that the non-edge screen determination unit 36 holds the screen selection information.

その後、非エッジスクリーン決定部36は、非エッジ画像の番号qが非エッジ画像の個数Qに達したかどうかを判定する(ステップ328)。qがQに達していなければ、qに1を加算して(ステップ329)、ステップ323へ戻るが、qがQに達していれば、処理を終了する。   Thereafter, the non-edge screen determination unit 36 determines whether the number q of the non-edge images has reached the number Q of non-edge images (step 328). If q has not reached Q, 1 is added to q (step 329), and the process returns to step 323. If q has reached Q, the process is terminated.

そして、最後に、スクリーン処理部37が、入力された多値画像データに対してスクリーン処理を施す。具体的には、まず、多値画像データに含まれる各ピクセルがスクリーン処理の対象であるか、つまり、各ピクセルの色が中間調であるか判定する。次に、スクリーン処理の対象と判定されたピクセルについて、そのピクセルを含む単位画像を、単位画像の番号に基づいて特定する。そして、エッジスクリーン決定部35又は非エッジスクリーン決定部36が保持するスクリーン選択情報のうち、この特定された単位画像に対するスクリーン選択情報を参照することにより、第1スクリーン、第2スクリーン、第3スクリーンの何れかのスクリーンを選択し、そのピクセルについて、選択したスクリーンを用いてスクリーン処理を行う。   Finally, the screen processing unit 37 performs screen processing on the input multi-value image data. Specifically, first, it is determined whether each pixel included in the multi-valued image data is subject to screen processing, that is, whether the color of each pixel is halftone. Next, for a pixel determined to be subject to screen processing, a unit image including the pixel is specified based on the unit image number. Then, by referring to the screen selection information for the specified unit image among the screen selection information held by the edge screen determination unit 35 or the non-edge screen determination unit 36, the first screen, the second screen, the third screen Any one of the screens is selected, and screen processing is performed for the pixel using the selected screen.

[第2の実施の形態]
第1の実施の形態では、主に単色のスクリーン処理について述べたが、第2の実施の形態では、2次色以上のスクリーン処理について述べる。
例えばYMCK4色のプリンタの場合、モアレを回避するために、4色のうち2色のスクリーン角度を0〜90°の範囲に設定し、4色のうち残りの2色のスクリーン角度を90°〜180°の範囲に設定することが多い。つまり、4つのスクリーン角度を、各スクリーン角度の差分が大きくなるように設定する。
ここでは、Y色とC色のスクリーンの角度を0〜90°の範囲内の角度とし、このようなスクリーンを「鋭角スクリーン」と呼ぶことにする。また、M色とK色のスクリーンの角度を、90°〜180°の範囲内の角度とし、このようなスクリーンを「鈍角スクリーン」と呼ぶことにする。
[Second Embodiment]
In the first embodiment, the monochromatic screen processing is mainly described. In the second embodiment, the screen processing for secondary colors or more is described.
For example, in the case of a YMCK four-color printer, in order to avoid moire, the screen angle of two of the four colors is set in the range of 0 to 90 °, and the screen angle of the remaining two of the four colors is set to 90 ° to It is often set in the range of 180 °. That is, the four screen angles are set so that the difference between the screen angles becomes large.
Here, the angle of the Y color and C color screens is set to an angle in the range of 0 to 90 °, and such a screen is referred to as an “acute angle screen”. Further, the angle of the M color screen and the K color screen is set to an angle within a range of 90 ° to 180 °, and such a screen is referred to as an “obtuse angle screen”.

このような条件の下、まず、3次色以上のスクリーン処理について考える。3次色以上の場合、その色を構成する少なくとも1つの単色のスクリーンの角度は、オブジェクトに対して有利な角度(オブジェクトのエッジの角度との差分が大きい角度)であることが多いが、その場合、各単色に対して予め定められたスクリーンをそのまま用いるとよい。或いは、1つのスクリーンの角度のみがオブジェクトに対して有利な角度である場合に、残りのスクリーンのうちの1つのスクリーンの角度をオブジェクトに対して有利な角度とすることも考えられるが、以下では、各単色に対して予め定められたスクリーンをそのまま用いるものとする。   Under such conditions, first, screen processing for tertiary colors or more will be considered. In the case of a tertiary color or more, the angle of at least one single color screen constituting the color is an advantageous angle with respect to the object (an angle having a large difference from the angle of the edge of the object). In this case, it is preferable to use a screen predetermined for each single color as it is. Alternatively, if only one screen angle is advantageous for the object, the angle of one of the remaining screens may be advantageous for the object. Suppose that a predetermined screen for each single color is used as it is.

次に、2次色のスクリーン処理について考える。2次色の場合、その色を構成する2つの単色のスクリーンの両方が鋭角スクリーン又は鈍角スクリーンであれば、2つの単色のスクリーンの角度の両方をオブジェクトに対して有利な角度にするとモアレが出てしまうので、1つの単色のスクリーンの角度のみをオブジェクトに対して有利な角度とする。
その際、2つの単色のうち、入力された多値画像データでカバレッジが大きい方の単色のスクリーンの角度を有利な角度とすると効果的である。言い換えると、何れの単色のスクリーンの角度を有利な角度とするかを、画像において各単色が占める面積に応じて決定してもよい。
或いは、2つの単色のうちコントラストが得られ易い単色のスクリーンの角度を有利な角度としてもよい。上述したように、Y色とC色のスクリーンが鋭角スクリーンであれば、C色のスクリーンの角度を有利な角度とし、M色とK色のスクリーンが鈍角スクリーンであれば、K色のスクリーンの角度を有利な角度とするとよい。言い換えると、何れの単色のスクリーンの角度を有利な角度とするかを、各単色の明暗差に対する影響度に応じて決定してもよい。
Next, consider secondary color screen processing. In the case of a secondary color, if both of the two monochrome screens that make up the color are acute or obtuse screens, moire occurs when both the angles of the two monochrome screens are set to an advantageous angle with respect to the object. Therefore, only the angle of one monochrome screen is set as an advantageous angle with respect to the object.
At that time, it is effective to set the angle of the monochrome screen having the larger coverage in the input multi-value image data of the two monochrome colors as an advantageous angle. In other words, it may be determined according to the area occupied by each single color in the image which one of the single color screens has an advantageous angle.
Alternatively, an angle of a single-color screen that easily obtains contrast between the two single colors may be set as an advantageous angle. As described above, if the Y and C screens are acute-angle screens, the angle of the C-color screen is an advantageous angle, and if the M- and K-color screens are obtuse screens, The angle may be an advantageous angle. In other words, which single-color screen angle is to be an advantageous angle may be determined in accordance with the degree of influence on the contrast of each single color.

図10は、このようなスクリーン処理を行う2値化処理部25の構成を示したブロック図である。
図示するように、2値化処理部25は、画像分割部31と、エッジ判定部32と、2次色判定部33と、角度検出部34と、エッジスクリーン決定部35と、非エッジスクリーン決定部36と、スクリーン処理部37とを備える。
FIG. 10 is a block diagram showing the configuration of the binarization processing unit 25 that performs such screen processing.
As illustrated, the binarization processing unit 25 includes an image dividing unit 31, an edge determination unit 32, a secondary color determination unit 33, an angle detection unit 34, an edge screen determination unit 35, and a non-edge screen determination. A unit 36 and a screen processing unit 37.

画像分割部31、エッジ判定部32、角度検出部34、エッジスクリーン決定部35、非エッジスクリーン決定部36、スクリーン処理部37は、第1の実施の形態で既に述べたので、ここでは説明を省略する。
2次色判定部33は、エッジ判定部32によりエッジ画像と判定された単位画像の色が単色であるか、2次色であるか、3次色以上であるか、及び、2次色である場合は、鋭角スクリーンが用いられるか鈍角スクリーンが用いられるかを判定する。本実施の形態では、2つの線群の方向が何れも特定の範囲内にあるかどうかを判定する判定手段の一例として、2次色判定部33を設けている。
Since the image division unit 31, the edge determination unit 32, the angle detection unit 34, the edge screen determination unit 35, the non-edge screen determination unit 36, and the screen processing unit 37 have already been described in the first embodiment, description will be given here. Omitted.
The secondary color determination unit 33 determines whether the color of the unit image determined as the edge image by the edge determination unit 32 is a single color, a secondary color, a tertiary color or more, and a secondary color. In some cases, it is determined whether an acute screen or an obtuse screen is used. In the present embodiment, the secondary color determination unit 33 is provided as an example of a determination unit that determines whether the directions of the two line groups are both within a specific range.

次に、第2の実施の形態における2値化処理部25の動作について説明する。
図11は、2値化処理部25のうちの非エッジスクリーン決定部36及びスクリーン処理部37以外の部分の動作例を示したフローチャートである。
図示するように、まず、画像分割部31が、入力された多値画像データをP個の単位画像に分割する(ステップ351)。ここで、P個の単位画像には、番号pが付与される。多値画像データ内の単位画像の位置に応じて番号pを付与することにより、単位画像内の各ピクセルを含む単位画像をその番号pによって特定可能になっているものとする。そして、画像分割部31による分割で得られたP個の単位画像は、エッジ判定部32に渡され、保持される。
Next, the operation of the binarization processing unit 25 in the second embodiment will be described.
FIG. 11 is a flowchart showing an example of the operation of the binarization processing unit 25 other than the non-edge screen determination unit 36 and the screen processing unit 37.
As shown in the figure, first, the image dividing unit 31 divides the inputted multi-value image data into P unit images (step 351). Here, the number p is assigned to the P unit images. It is assumed that a unit image including each pixel in the unit image can be specified by the number p by assigning a number p according to the position of the unit image in the multivalued image data. Then, the P unit images obtained by the division by the image dividing unit 31 are transferred to and held by the edge determination unit 32.

次に、エッジ判定部32は、単位画像の番号pに1を代入する(ステップ352)。そして、p番目の単位画像を取り出し、その単位画像がエッジ画像であるかどうかを判定する(ステップ353)。ここで、単位画像がエッジ画像であるかどうかの判定は、公知のエッジ検出方法を用いて行うとよい。
単位画像がエッジ画像であると判定された場合、単位画像及びその番号pは2次色判定部33へと渡され、2次色判定部33が、p番目の単位画像の色が2次色以下であるかどうかを判定する(ステップ354)。尚、この動作例では、単位画像内に1つのオブジェクトの部分が含まれ、そのオブジェクトの部分が1つの色で塗り潰されることを前提としている。従って、ここでいう「単位画像の色」とは、このオブジェクトの部分を塗り潰す色のことである。
p番目の単位画像の色が2次色以下であると判定された場合、次に、2次色判定部33は、p番目の単位画像の色が単色(1次色)であるかどうかを判定する(ステップ355)。p番目の単位画像の色が単色であれば、そのままステップ357へ進む。一方、p番目の単位画像の色が単色でなければ、つまり、2次色であれば、2次色判定部33は、2次色を構成する2つの単色のスクリーンが、両方とも鋭角スクリーン、両方とも鈍角スクリーンの何れかであるかを判定する(ステップ356)。
Next, the edge determination unit 32 substitutes 1 for the number p of the unit image (step 352). Then, the p-th unit image is taken out and it is determined whether or not the unit image is an edge image (step 353). Here, it is preferable to determine whether the unit image is an edge image using a known edge detection method.
When it is determined that the unit image is an edge image, the unit image and its number p are passed to the secondary color determination unit 33, and the secondary color determination unit 33 determines that the color of the p-th unit image is the secondary color. It is determined whether the following is true (step 354). In this operation example, it is assumed that one object part is included in the unit image and that the object part is filled with one color. Therefore, the “unit image color” here is a color that fills the object portion.
If it is determined that the color of the p-th unit image is equal to or less than the secondary color, then the secondary color determination unit 33 determines whether the color of the p-th unit image is a single color (primary color). Determination is made (step 355). If the color of the p-th unit image is a single color, the process proceeds to step 357 as it is. On the other hand, if the color of the p-th unit image is not a single color, that is, if it is a secondary color, the secondary color determination unit 33 determines that the two single-color screens constituting the secondary color are both acute angle screens, It is determined whether both are obtuse angle screens (step 356).

ステップ355でp番目の単位画像の色が単色であると判定された場合、又は、ステップ356で2つの単色のスクリーンが両方とも鋭角スクリーン又は両方とも鈍角スクリーンであると判定された場合、単位画像及びその番号pは角度検出部34へと渡され、角度検出部34が、p番目の単位画像における支配的角度θを検出する(ステップ357)。ここで、支配的角度θの検出は、図6及び図7で述べたような方法で行うとよい。
そして、支配的角度θ及び単位画像の番号pはエッジスクリーン決定部35へと伝えられ、エッジスクリーン決定部35が、支配的角度θが0≦θ≦90°を満たすかどうかを判定する(ステップ358)。
If it is determined in step 355 that the color of the p-th unit image is a single color, or if it is determined in step 356 that the two single-color screens are both acute angle screens or both are obtuse angle screens, the unit image And the number p is passed to the angle detector 34, and the angle detector 34 detects the dominant angle θ 0 in the p-th unit image (step 357). Here, the dominant angle θ 0 may be detected by the method described with reference to FIGS.
Then, the dominant angle θ 0 and the unit image number p are transmitted to the edge screen determination unit 35, and the edge screen determination unit 35 determines whether the dominant angle θ 0 satisfies 0 ≦ θ 0 ≦ 90 °. (Step 358).

支配的角度θが0≦θ≦90°を満たせば、エッジスクリーン決定部35は、p番目の単位画像のスクリーン処理で用いるスクリーンとして、第2スクリーンを選択する(ステップ359)。具体的には、p番目の単位画像の色が単色の場合、その単色に対して予め定められたスクリーンが鋭角スクリーンであれば、そのスクリーンと鏡像の関係にあるスクリーンを第2スクリーンとして選択し、その単色に対して予め定められたスクリーンが鈍角スクリーンであれば、そのスクリーンをそのまま第2スクリーンとして選択する。また、p番目の単位画像の色が2次色の場合、2次色を構成する2つの単色に対して予め定められた2つのスクリーンが鋭角スクリーンであれば、その2つのスクリーンの一方と鏡像の関係にあるスクリーンを第2スクリーンとして選択し、2次色を構成する2つの単色に対して予め定められた2つのスクリーンが鈍角スクリーンであれば、その2つのスクリーンの一方を第2スクリーンとして選択する。但し、このとき、2つのスクリーンの他方はそのまま選択する。 If the dominant angle θ 0 satisfies 0 ≦ θ 0 ≦ 90 °, the edge screen determination unit 35 selects the second screen as the screen used in the screen processing of the p-th unit image (step 359). Specifically, when the color of the p-th unit image is a single color, if the screen predetermined for the single color is an acute angle screen, a screen having a mirror image relationship with the screen is selected as the second screen. If the predetermined screen for the single color is an obtuse angle screen, the screen is selected as it is as the second screen. Further, when the color of the p-th unit image is a secondary color, if two screens predetermined for the two single colors constituting the secondary color are acute angle screens, one of the two screens and a mirror image are displayed. If the screen having the relationship is selected as the second screen and the two screens predetermined for the two single colors constituting the secondary color are obtuse angles, one of the two screens is set as the second screen. select. However, at this time, the other of the two screens is selected as it is.

一方、支配的角度θが0≦θ≦90°を満たさなければ、エッジスクリーン決定部35は、p番目の単位画像のスクリーン処理で用いるスクリーンとして、第1スクリーンを選択する(ステップ360)。具体的には、p番目の単位画像の色が単色の場合、その単色に対して予め定められたスクリーンが鋭角スクリーンであれば、そのスクリーンをそのまま第1スクリーンとして選択し、その単色に対して予め定められたスクリーンが鈍角スクリーンであれば、そのスクリーンと鏡像の関係にあるスクリーンを第1スクリーンとして選択する。また、p番目の単位画像の色が2次色の場合、2次色を構成する2つの単色に対して予め定められた2つのスクリーンが鋭角スクリーンであれば、その2つのスクリーンの一方を第1スクリーンとして選択し、2次色を構成する2つの単色に対して予め定められた2つのスクリーンが鈍角スクリーンであれば、その2つのスクリーンの一方と鏡像の関係にあるスクリーンを第1スクリーンとして選択する。但し、このとき、2つのスクリーンの他方はそのまま選択する。 On the other hand, if the dominant angle θ 0 does not satisfy 0 ≦ θ 0 ≦ 90 °, the edge screen determination unit 35 selects the first screen as the screen used in the screen processing of the p-th unit image (step 360). . Specifically, when the color of the p-th unit image is a single color, if the screen predetermined for the single color is an acute angle screen, the screen is selected as the first screen as it is, If the predetermined screen is an obtuse angle screen, a screen having a mirror image relationship with the screen is selected as the first screen. Further, when the color of the p-th unit image is a secondary color, if two screens predetermined for the two single colors constituting the secondary color are acute angle screens, one of the two screens is changed to the first color. If two screens selected as one screen and the two predetermined colors constituting the secondary color are obtuse angle screens, a screen having a mirror image relationship with one of the two screens is used as the first screen. select. However, at this time, the other of the two screens is selected as it is.

尚、p番目の単位画像のスクリーン処理で用いるスクリーンとして第1スクリーン及び第2スクリーンの何れが選択されたかは、色ごとに、単位画像の番号pに対応付けて、スクリーン選択情報として、エッジスクリーン決定部35が保持しておくものとする。   Note that whether the first screen or the second screen is selected as the screen used in the screen processing of the p-th unit image is associated with the unit image number p for each color, and is selected as an edge screen as screen selection information. It is assumed that the determination unit 35 holds it.

また、ステップ354でp番目の単位画像の色が2次色以下でない、つまり、3次色以上であると判定された場合、又は、ステップ356で2つの単色のスクリーンが両方とも鋭角スクリーン又は両方とも鈍角スクリーンであるということはない、つまり、2つの単色のスクリーンの一方が鋭角スクリーンで他方が鈍角スクリーンであると判定された場合、単位画像及びその番号pはエッジスクリーン決定部35へと渡され、エッジスクリーン決定部35は、p番目の単位画像のスクリーン処理で用いるスクリーンとして、予め定められたスクリーンをそのまま選択する(ステップ361)。   If it is determined in step 354 that the color of the p-th unit image is not a secondary color or less, that is, a tertiary color or more, or in step 356, two single-color screens are both acute angle screens or both Neither is an obtuse angle screen, that is, if it is determined that one of the two monochrome screens is an acute angle screen and the other is an obtuse angle screen, the unit image and its number p are passed to the edge screen determination unit 35. Then, the edge screen determination unit 35 selects a predetermined screen as it is as a screen used for the screen processing of the p-th unit image (step 361).

一方、ステップ353でp番目の単位画像が非エッジ画像であると判定された場合、エッジ判定部32は、単位画像に対し、非エッジ画像であることを示すタグ情報を付加する(ステップ362)。   On the other hand, when it is determined in step 353 that the p-th unit image is a non-edge image, the edge determination unit 32 adds tag information indicating that the unit image is a non-edge image (step 362). .

その後、エッジ判定部32は、単位画像の番号pが単位画像の個数Pに達したかどうかを判定する(ステップ363)。pがPに達していなければ、pに1を加算して(ステップ364)、ステップ353へ戻るが、pがPに達していれば、処理を終了する。   Thereafter, the edge determination unit 32 determines whether or not the number p of unit images has reached the number P of unit images (step 363). If p has not reached P, 1 is added to p (step 364), and the process returns to step 353. If p has reached P, the process is terminated.

次いで、非エッジスクリーン決定部36が動作するが、これは第1の実施の形態で図9のフローチャートを参照して説明したものとほぼ同様なので、詳細な説明は省略する。但し、第1の実施の形態では、色を考慮しなかったのに対し、この第2の実施の形態では、色ごとに、図9のフローチャートに示す処理を実行するものとする。その場合、第1スクリーンは、各単色について選択されたスクリーンのうち鋭角スクリーンを意味し、第2スクリーンは、各単色について選択されたスクリーンのうち鈍角スクリーンを意味することとなる。また、スクリーン選択情報も、単位画像の番号pだけでなく、色にも対応付けて、非エッジスクリーン決定部36に保持されるものとする。   Next, the non-edge screen determination unit 36 operates. Since this is substantially the same as that described with reference to the flowchart of FIG. 9 in the first embodiment, detailed description thereof is omitted. However, in the first embodiment, the color is not considered, whereas in the second embodiment, the process shown in the flowchart of FIG. 9 is executed for each color. In this case, the first screen means an acute angle screen among the screens selected for each single color, and the second screen means an obtuse angle screen among the screens selected for each single color. The screen selection information is also held in the non-edge screen determination unit 36 in association with not only the unit image number p but also the color.

そして、最後に、スクリーン処理部37が、入力された多値画像データに対してスクリーン処理を施す。具体的には、まず、多値画像データに含まれる各ピクセルがスクリーン処理の対象であるか、つまり、各ピクセルの色を構成する何れかの単色が中間調であるか判定する。次に、スクリーン処理の対象と判定されたピクセルについて、そのピクセルを含む単位画像を、単位画像の番号に基づいて特定する。そして、エッジスクリーン決定部35又は非エッジスクリーン決定部36が保持するスクリーン選択情報のうち、この特定された単位画像及びその単色に対するスクリーン選択情報を参照することにより、第1スクリーン、第2スクリーン、第3スクリーンの何れかのスクリーンを選択し、そのピクセルにおけるその単色について、この選択したスクリーンを用いてスクリーン処理を行う。   Finally, the screen processing unit 37 performs screen processing on the input multi-value image data. Specifically, first, it is determined whether each pixel included in the multi-valued image data is an object of screen processing, that is, whether any single color constituting the color of each pixel is halftone. Next, for a pixel determined to be subject to screen processing, a unit image including the pixel is specified based on the unit image number. The screen selection information held by the edge screen determination unit 35 or the non-edge screen determination unit 36 is referred to by the screen selection information for the specified unit image and its single color, thereby the first screen, the second screen, Any one of the third screens is selected, and screen processing is performed on the single color at the pixel using the selected screen.

尚、本実施の形態では、多値画像データ(例えば256階調)を2値画像データに変換することを前提として説明したが、これには限らない。N(N≧3)階調の画像データをM(2≦M<N)階調の画像データに変換することを前提としてもよい。
また、本実施の形態では、オブジェクトに対するスクリーン処理に本発明を適用した場合について説明したが、イメージデータの特定の色の領域に対するスクリーン処理にも本発明は適用可能である。このような意味で、オブジェクトは、画像内の領域の一例である。
更に、本実施の形態では、第1スクリーンの角度を0〜90°の範囲内に設定し、第2スクリーンの角度を90°〜180°の範囲内に設定したが、この限りではない。第1スクリーンの角度及び第2スクリーンの角度は、それぞれ、互いに重複部分を持たない2つの如何なる範囲内に設定してもよい。
更にまた、本実施の形態では、第1スクリーンをY軸を基準に鏡像変換したものを第2スクリーンとしたが、鏡像変換の基準はY軸に限らず、予め定めた他の軸でもよい。また、第2スクリーンの角度は、第1スクリーンの角度を鏡像変換することによって求めるのではなく、第1スクリーンの角度を回転変換することによって求めてもよい。
In the present embodiment, the description has been made on the assumption that multi-value image data (for example, 256 gradations) is converted into binary image data, but the present invention is not limited to this. N (N ≧ 3) gradation image data may be premised on conversion to M (2 ≦ M <N) gradation image data.
In the present embodiment, the case where the present invention is applied to the screen processing for an object has been described. However, the present invention can also be applied to the screen processing for a specific color area of image data. In this sense, an object is an example of a region in an image.
Furthermore, in the present embodiment, the angle of the first screen is set in the range of 0 to 90 ° and the angle of the second screen is set in the range of 90 ° to 180 °, but this is not restrictive. The angle of the first screen and the angle of the second screen may be set in any two ranges that do not overlap each other.
Furthermore, in the present embodiment, the second screen is a mirror image converted from the first screen with respect to the Y axis. However, the reference for mirror image conversion is not limited to the Y axis, but may be another predetermined axis. Further, the angle of the second screen may be obtained by rotationally transforming the angle of the first screen, instead of obtaining the angle of the first screen by mirror image transformation.

ところで、本実施の形態における画像処理装置20は、プリンタ内で実現するようにしてもよいが、PC等の汎用のコンピュータ内でも実現可能である。
以下、このような汎用のコンピュータをコンピュータ90として、そのハードウェア構成について説明する。
Incidentally, the image processing apparatus 20 in the present embodiment may be realized in a printer, but can also be realized in a general-purpose computer such as a PC.
Hereinafter, the hardware configuration of such a general-purpose computer as the computer 90 will be described.

図12は、コンピュータ90のハードウェア構成を示した図である。
図示するように、コンピュータ90は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92及び磁気ディスク装置(HDD:Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーション等の各種ソフトウェアを実行し、上述した各機能を実現する。また、メインメモリ92は、各種ソフトウェアやその実行に用いるデータ等を記憶する記憶領域であり、磁気ディスク装置93は、各種ソフトウェアに対する入力データや各種ソフトウェアからの出力データ等を記憶する記憶領域である。
更に、コンピュータ90は、外部との通信を行うための通信I/F94と、ビデオメモリやディスプレイ等からなる表示機構95と、キーボードやマウス等の入力デバイス96とを備える。
FIG. 12 is a diagram illustrating a hardware configuration of the computer 90.
As shown in the figure, the computer 90 includes a CPU (Central Processing Unit) 91 as a calculation means, a main memory 92 as a storage means, and a magnetic disk device (HDD: Hard Disk Drive) 93. Here, the CPU 91 executes various types of software such as an OS (Operating System) and applications to realize the above-described functions. The main memory 92 is a storage area for storing various software and data used for execution thereof, and the magnetic disk device 93 is a storage area for storing input data for various software, output data from various software, and the like. .
Further, the computer 90 includes a communication I / F 94 for performing communication with the outside, a display mechanism 95 including a video memory and a display, and an input device 96 such as a keyboard and a mouse.

尚、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。   The program for realizing the present embodiment can be provided not only by communication means but also by storing it in a recording medium such as a CD-ROM.

10…ホスト装置、20…画像処理装置、21…PDL解釈部、22…描画部、23…レンダリング部、24…ガンマ補正部、25…2値化処理部、31…画像分割部、32…エッジ判定部、33…2次色判定部、34…角度検出部、35…エッジスクリーン決定部、36…非エッジスクリーン決定部、37…スクリーン処理部、40…画像形成装置 DESCRIPTION OF SYMBOLS 10 ... Host apparatus, 20 ... Image processing apparatus, 21 ... PDL interpretation part, 22 ... Drawing part, 23 ... Rendering part, 24 ... Gamma correction part, 25 ... Binarization processing part, 31 ... Image division part, 32 ... Edge Determining unit, 33 ... secondary color determining unit, 34 ... angle detecting unit, 35 ... edge screen determining unit, 36 ... non-edge screen determining unit, 37 ... screen processing unit, 40 ... image forming apparatus

Claims (9)

N(N≧3)階調で表現された単色により構成されるK(K≧2)次色の領域を含む画像を取得する取得手段と、
前記K次色を構成するK個の単色のうちの2つの単色をM(2≦M<N)階調で表現するための情報として当該2つの単色のそれぞれに対して予め定められた2つの線群の方向が、何れも特定の範囲内にあるかどうかを判定する判定手段と、
前記判定手段により前記2つの線群の方向が何れも前記特定の範囲内にあると判定された場合に、前記2つの単色のうちの一の単色をM階調で表現するための情報を、当該一の単色に対して予め定められた線群に決定し、前記2つの単色のうちの他の単色をM階調で表現するための情報を、前記領域のうちの前記特定の範囲と重複しない他の範囲内の方向の輪郭線に隣接する第1の部分領域については、当該他の単色に対して予め定められた第1の線群に決定し、前記領域のうちの前記特定の範囲内の方向の輪郭線に隣接する第2の部分領域については、当該第1の線群の方向を前記他の範囲内の方向に変更した第2の線群に決定する決定手段と
を備えたことを特徴とする階調変換制御装置。
Obtaining means for obtaining an image including a region of a K (K ≧ 2) order color composed of a single color expressed by N (N ≧ 3) gradations;
As information for expressing two of the K single colors constituting the K-order color with M (2 ≦ M <N) gradations, two predetermined colors for each of the two single colors are used. Determining means for determining whether or not the direction of the line group is within a specific range;
Information for expressing one of the two single colors in M gradations when the determination unit determines that the directions of the two line groups are both within the specific range, A line group determined in advance for the one single color is determined, and information for expressing another single color of the two single colors in M gradations overlaps with the specific range in the region. The first partial region adjacent to the contour line in the direction within the other range is determined as the first line group predetermined for the other single color, and the specific range of the region is determined. The second partial region adjacent to the contour line in the inner direction includes a determining unit that determines the second line group in which the direction of the first line group is changed to the direction in the other range. A gradation conversion control device characterized by that.
前記決定手段は、前記第1の線群を予め定められた軸を基準に鏡像変換した線群を、前記第2の線群として用いることを特徴とする請求項1に記載の階調変換制御装置。   2. The gradation conversion control according to claim 1, wherein the determining unit uses, as the second line group, a line group obtained by mirror-image-converting the first line group with a predetermined axis as a reference. apparatus. 前記特定の範囲及び前記他の範囲は、一方が、前記画像における右方向と上方向とに挟まれた範囲で、他方が、前記画像における左方向と上方向とに挟まれた範囲であり、
前記予め定められた軸は、前記画像における鉛直方向の軸であることを特徴とする請求項2に記載の階調変換制御装置。
One of the specific range and the other range is a range sandwiched between the right direction and the upper direction in the image, and the other is a range sandwiched between the left direction and the upper direction in the image,
The gradation conversion control apparatus according to claim 2, wherein the predetermined axis is a vertical axis in the image.
前記決定手段は、前記2つの単色の何れを前記一の単色とし何れを前記他の単色とするかを、前記画像において当該一の単色及び当該他の単色が占める面積に応じて決定することを特徴とする請求項1乃至請求項3の何れかに記載の階調変換制御装置。   The determining means determines which of the two single colors is the one single color and which is the other single color according to the area occupied by the one single color and the other single color in the image. The gradation conversion control device according to any one of claims 1 to 3, wherein 前記決定手段は、前記2つの単色の何れを前記一の単色とし何れを前記他の単色とするかを、当該一の単色及び当該他の単色の明暗差に対する影響度に応じて決定することを特徴とする請求項1乃至請求項3の何れかに記載の階調変換制御装置。   The determining means determines which of the two single colors is the one single color and which is the other single color according to the degree of influence on the contrast between the one single color and the other single color. The gradation conversion control device according to any one of claims 1 to 3, wherein 前記決定手段は、前記他の単色をM階調で表現するための情報を、前記領域のうちの前記第1の部分領域及び前記第2の部分領域に隣接する第3の部分領域については、前記第1の線群及び前記第2の線群に応じた網点に決定することを特徴とする請求項1乃至請求項5の何れかに記載の階調変換制御装置。   The determining means provides information for expressing the other single color in M gradations, and for the third partial region adjacent to the first partial region and the second partial region of the region, 6. The gradation conversion control device according to claim 1, wherein halftone dots corresponding to the first line group and the second line group are determined. 前記画像の前記領域の輪郭線を含む部分画像における当該輪郭線を構成する一の画素から他の画素への方向の出現頻度に基づいて、当該輪郭線の方向を検出する検出手段を更に備えたことを特徴とする請求項1乃至請求項6の何れかに記載の階調変換制御装置。   The image processing apparatus further includes detection means for detecting the direction of the contour line based on the appearance frequency of the direction from one pixel constituting the contour line to another pixel in the partial image including the contour line of the region of the image. The gradation conversion control apparatus according to any one of claims 1 to 6, wherein N(N≧3)階調で表現された単色により構成されるK(K≧2)次色の領域を含む画像を、予め定められた大きさの複数の部分画像に分割する分割手段と、
前記K次色を構成するK個の単色のうちの2つの単色をM(2≦M<N)階調で表現するための情報として当該2つの単色のそれぞれに対して予め定められた2つの線群の方向が、何れも特定の範囲内にあるかどうかを判定する判定手段と、
前記複数の部分画像のうちの前記領域の輪郭線を含む特定の部分画像における当該輪郭線の方向を検出する検出手段と、
前記判定手段により前記2つの線群の方向が何れも前記特定の範囲内にあると判定され、かつ、前記検出手段により検出された前記輪郭線の方向が前記特定の範囲内にある場合に、前記特定の部分画像について、前記2つの単色のうちの一の単色を、当該一の単色に対して予め定められた線群を用いてM階調に変換し、前記2つの単色のうちの他の単色を、当該他の単色に対して予め定められた線群の方向を前記特定の範囲と重複しない他の範囲内の方向に変更した線群を用いてM階調に変換する変換手段と
を備えたことを特徴とする画像処理装置。
A dividing unit that divides an image including an area of a K (K ≧ 2) order color constituted by a single color expressed by N (N ≧ 3) gradations into a plurality of partial images having a predetermined size;
As information for expressing two of the K single colors constituting the K-order color with M (2 ≦ M <N) gradations, two predetermined colors for each of the two single colors are used. Determining means for determining whether or not the direction of the line group is within a specific range;
Detecting means for detecting a direction of the contour line in a specific partial image including the contour line of the region of the plurality of partial images;
When it is determined by the determining means that the directions of the two line groups are both within the specific range, and the direction of the contour line detected by the detecting means is within the specific range, For the specific partial image, one single color of the two single colors is converted to M gradation using a line group predetermined for the single single color, and the other of the two single colors is converted. Conversion means for converting the single color of the second color into M gradations using a line group in which the direction of a predetermined line group with respect to the other single color is changed to a direction within another range that does not overlap with the specific range; An image processing apparatus comprising:
コンピュータに、
N(N≧3)階調で表現された単色により構成されるK(K≧2)次色の領域を含む画像を取得する機能と、
前記K次色を構成するK個の単色のうちの2つの単色をM(2≦M<N)階調で表現するための情報として当該2つの単色のそれぞれに対して予め定められた2つの線群の方向が、何れも特定の範囲内にあるかどうかを判定する機能と、
前記2つの線群の方向が何れも前記特定の範囲内にあると判定された場合に、前記2つの単色のうちの一の単色をM階調で表現するための情報を、当該一の単色に対して予め定められた線群に決定し、前記2つの単色のうちの他の単色をM階調で表現するための情報を、前記領域のうちの前記特定の範囲と重複しない他の範囲内の方向の輪郭線に隣接する第1の部分領域については、当該他の単色に対して予め定められた第1の線群に決定し、前記領域のうちの前記特定の範囲内の方向の輪郭線に隣接する第2の部分領域については、当該第1の線群の方向を前記他の範囲内の方向に変更した第2の線群に決定する機能と
を実現させるためのプログラム。
On the computer,
A function of acquiring an image including an area of a K (K ≧ 2) order color composed of a single color expressed by N (N ≧ 3) gradations;
As information for expressing two of the K single colors constituting the K-order color with M (2 ≦ M <N) gradations, two predetermined colors for each of the two single colors are used. A function for determining whether the direction of each line group is within a specific range;
When it is determined that the directions of the two line groups are both within the specific range, information for expressing one single color of the two single colors with M gradations is displayed. Is determined to be a predetermined line group, and information for expressing the other single color of the two single colors in M gradations is another range that does not overlap the specific range of the region. The first partial region adjacent to the contour line in the inner direction is determined as the first line group determined in advance for the other single color, and the direction in the specific range of the region is determined. A program for realizing a function of determining a second line group in which the direction of the first line group is changed to a direction within the other range for the second partial region adjacent to the contour line.
JP2011070170A 2011-03-28 2011-03-28 Gradation conversion controller, image processing device, and program Withdrawn JP2012205220A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011070170A JP2012205220A (en) 2011-03-28 2011-03-28 Gradation conversion controller, image processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011070170A JP2012205220A (en) 2011-03-28 2011-03-28 Gradation conversion controller, image processing device, and program

Publications (1)

Publication Number Publication Date
JP2012205220A true JP2012205220A (en) 2012-10-22

Family

ID=47185689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011070170A Withdrawn JP2012205220A (en) 2011-03-28 2011-03-28 Gradation conversion controller, image processing device, and program

Country Status (1)

Country Link
JP (1) JP2012205220A (en)

Similar Documents

Publication Publication Date Title
JP5874721B2 (en) Image processing apparatus, image correction method, and program
JP6781406B2 (en) Image processing equipment and computer programs
JP2007318408A (en) Image processor, image forming apparatus, and image processing method
US20170208211A1 (en) Image processing apparatus, image processing method, and storage medium
JP2016058879A (en) Image processing apparatus and image processing method
EP1734737B1 (en) Image processing method and a recording medium storing image processing program
JP6613115B2 (en) Image processing apparatus, image processing method, and program
JP5863001B2 (en) Image processing apparatus, image forming apparatus, and program
JP5499981B2 (en) Image processing device
US9894244B2 (en) Image processing system and image processing method that perform correction of shifting bitmap data in a sub-scanning direction to cancel bending of and electro-photographic laser scanning line
US9398194B2 (en) Image processing apparatus and method performing density adjustment on image data based on generated density characteristics data
US9989875B2 (en) Image processing apparatus, image processing method, and storage medium
US20100079818A1 (en) Image forming apparatus to improve image quality and image quality improvement method
US8565548B2 (en) Image processing apparatus which performs anti-aliasing on input image data and image processing method thereof
US11423268B2 (en) Image processing apparatus, image processing apparatus control method, and storage medium
US9077914B2 (en) Image processing apparatus and control method thereof printing image data having M tones under infrared light
JP2011176556A (en) Image processing apparatus, program and recording medium
US10404892B2 (en) Image forming apparatus for outputting a halftone image and image forming method
US10384465B2 (en) Control apparatus that controls print executing section that is capable of forming dots in different sizes
JP2012205220A (en) Gradation conversion controller, image processing device, and program
JP5644230B2 (en) Image processing apparatus and image processing method
EP2894841B1 (en) Information processing apparatus, information processing method, and storage medium
JP5990217B2 (en) Image processing apparatus, image forming apparatus, and control method thereof
JP6190152B2 (en) Image processing apparatus and image processing method
US8922836B2 (en) Image processing apparatus, method, and computer program product for conversion of rendering commands into transparent object

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603