JP6765103B2 - Image processing device, image processing program and image processing method - Google Patents

Image processing device, image processing program and image processing method Download PDF

Info

Publication number
JP6765103B2
JP6765103B2 JP2016239119A JP2016239119A JP6765103B2 JP 6765103 B2 JP6765103 B2 JP 6765103B2 JP 2016239119 A JP2016239119 A JP 2016239119A JP 2016239119 A JP2016239119 A JP 2016239119A JP 6765103 B2 JP6765103 B2 JP 6765103B2
Authority
JP
Japan
Prior art keywords
image data
pixels
edge
edge extraction
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016239119A
Other languages
Japanese (ja)
Other versions
JP2018098552A (en
Inventor
隆彦 堀内
隆彦 堀内
佐藤 敏哉
敏哉 佐藤
拓馬 清友
拓馬 清友
浩基 瀬崎
浩基 瀬崎
雄大 塚野
雄大 塚野
弘樹 木伏
弘樹 木伏
恵介 星野
恵介 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Kikai Seisakusho Co Ltd
Chiba University NUC
Original Assignee
Tokyo Kikai Seisakusho Co Ltd
Chiba University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Kikai Seisakusho Co Ltd, Chiba University NUC filed Critical Tokyo Kikai Seisakusho Co Ltd
Priority to JP2016239119A priority Critical patent/JP6765103B2/en
Publication of JP2018098552A publication Critical patent/JP2018098552A/en
Application granted granted Critical
Publication of JP6765103B2 publication Critical patent/JP6765103B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、デジタル印刷装置の画像処理装置、画像処理プログラム及び画像処理方法に関するものである。 The present invention relates to an image processing apparatus, an image processing program, and an image processing method of a digital printing apparatus.

従来、プリントヘッドからインクを吐出させることで、印刷紙に対して印刷を施すインクジェット式のデジタル印刷装置が広く知られている(特許文献1)。このようなデジタル印刷装置においては、印刷紙に対するインク吐出のオン/オフによって印刷を行うため、印刷制御に用いる画像データは二値画像データである必要がある。このため、従来は、デジタル印刷の前処理として、多値画像データ(濃淡画像データ)を二値画像データに変換する階調変換処理(ハーフトーン処理)を実行している。ここで、二値画像データとは、画像を構成する各画素の階調(輝度、濃度)が1ビット(すなわち、2階調)で表現された画像データのことをいう。また、多値画像データとは、画像を構成する各画素の階調(輝度、濃度)が2ビット以上(例えば、8ビット=256階調)で表現された画像データのことをいう。 Conventionally, an inkjet digital printing apparatus that prints on printing paper by ejecting ink from a print head is widely known (Patent Document 1). In such a digital printing apparatus, printing is performed by turning on / off ink ejection on printing paper, so that the image data used for print control needs to be binary image data. Therefore, conventionally, as a pre-processing for digital printing, a gradation conversion process (halftone process) for converting multi-valued image data (shade image data) into binary image data is executed. Here, the binary image data refers to image data in which the gradation (luminance, density) of each pixel constituting the image is expressed by 1 bit (that is, 2 gradations). Further, the multi-valued image data refers to image data in which the gradation (luminance, density) of each pixel constituting the image is represented by 2 bits or more (for example, 8 bits = 256 gradations).

階調変換処理としては、誤差拡散法やディザ法(組織的ディザ法、ランダムディザ法等)等の種々の方法が知られているが、滑らかなグラデーションの再現性に優れるとの理由から、誤差拡散法が広く採用されている。誤差拡散法は、周知な方法であるからその詳細な説明を省略するが、図11を用いて、その概要を説明する。 Various methods such as an error diffusion method and a dither method (organized dither method, random dither method, etc.) are known as gradation conversion processing, but an error is obtained because the reproducibility of smooth gradation is excellent. The diffusion method is widely adopted. Since the error diffusion method is a well-known method, a detailed description thereof will be omitted, but an outline thereof will be described with reference to FIG.

図11は、256階調の多値画像データにおける二値化処理の例を示す図であり、特に、図11(a)、図11(c)、図11(e)及び図11(g)は、多値画像データの画素配置の一例を示しており、図11(b)、図11(d)、図11(f)及び図11(h)は、それぞれ誤差拡散テーブルを示している。なお、以下の説明では、閾値を中間の輝度値(すなわち、128)として、128よりも小さい画素は0に、128以上の画素は256にそれぞれ変換させるものとして説明するが、これに限定されず、閾値は任意に設定可能である。また、以下の説明では、階調変換前の輝度値と階調変換後の輝度値の差を「誤差(Err)」とし、図11(b)に示すように、「Err」で示される画素を中心に、右に7/16、右下に1/16、下に5/16、左下に3/16の割合で誤差が拡散されるものとして説明するが、これに限定されず、誤差拡散テーブルの値は任意に設定することが可能である。 FIG. 11 is a diagram showing an example of binarization processing in 256-gradation multi-valued image data, and in particular, FIGS. 11 (a), 11 (c), 11 (e), and 11 (g). Shows an example of pixel arrangement of multi-valued image data, and FIGS. 11 (b), 11 (d), 11 (f) and 11 (h) show error diffusion tables, respectively. In the following description, the threshold value is set to an intermediate luminance value (that is, 128), pixels smaller than 128 are converted to 0, and pixels larger than 128 are converted to 256, but the present invention is not limited to this. , The threshold value can be set arbitrarily. Further, in the following description, the difference between the luminance value before the gradation conversion and the luminance value after the gradation conversion is defined as an "error (Err)", and as shown in FIG. 11B, the pixels represented by the "Err". The error is diffused at a rate of 7/16 to the right, 1/16 to the lower right, 5/16 to the lower, and 3/16 to the lower left, but the error diffusion is not limited to this. The values in the table can be set arbitrarily.

図11(a)では、左上の画素(輝度値が「0」となっている部分)のみ、階調変換処理が終了している。以降の図において、階調変換処理が終了した画素をハッチで示すものとする。図11(c)では、上段の左から2番目の画素の輝度値が100(<128)であるため、階調変換後の輝度値は「0」となる。このとき、誤差はErr=100−0=100であるから、図11(d)に示す誤差拡散テーブルの拡散誤差(右隣の画素から時計回りに44、6、31、19)が、図11(c)における周囲の未処理画素に加算される(144、106、131、119)。続いて、図11(e)では、上段の左から3番目の画素の輝度値が144(≧128)であるため、階調変換後の輝度値は「255」となる。このとき、誤差はErr=144−255=−111となり、負の値となる。その結果、図11(f)に示す誤差拡散テーブルの拡散誤差(右隣の画素から時計回りに−48、−7、−35、−21)が、図11(e)における周囲の画素に加算される(52、93、71、110)。続いて、図11(g)では、上段の左から4番目の画素の値が52(<128)であるため、階調変換後の値は「0」となる。このとき、誤差はErr=52−0=52であるから、図11(h)に示す誤差拡散テーブルの拡散誤差(右隣の画素から時計回りに23、3、16、10)が、図11(g)における周囲の画素に加算される(123、103、109、81)。以後、同様に、多値画像データを構成する全ての画素について、閾値との比較による判定と、周囲の未処理画素への誤差の拡散とが実行される。 In FIG. 11A, the gradation conversion process is completed only in the upper left pixel (the portion where the brightness value is “0”). In the following figures, the pixels for which the gradation conversion process has been completed are indicated by hatches. In FIG. 11C, since the luminance value of the second pixel from the left in the upper row is 100 (<128), the luminance value after gradation conversion is “0”. At this time, since the error is Err = 100-0 = 100, the diffusion error of the error diffusion table shown in FIG. 11 (d) (44, 6, 31, 19 clockwise from the pixel on the right) is shown in FIG. It is added to the surrounding unprocessed pixels in (c) (144, 106, 131, 119). Subsequently, in FIG. 11 (e), since the luminance value of the third pixel from the left in the upper row is 144 (≧ 128), the luminance value after gradation conversion is “255”. At this time, the error becomes Err = 144-255 = −111, which is a negative value. As a result, the diffusion error of the error diffusion table shown in FIG. 11 (f) (-48, -7, -35, -21 clockwise from the pixel on the right) is added to the surrounding pixels in FIG. 11 (e). (52, 93, 71, 110). Subsequently, in FIG. 11 (g), since the value of the fourth pixel from the left in the upper row is 52 (<128), the value after gradation conversion is “0”. At this time, since the error is Err = 52-0 = 52, the diffusion error of the error diffusion table shown in FIG. 11 (h) (23, 3, 16, 10 clockwise from the pixel on the right) is shown in FIG. It is added to the surrounding pixels in (g) (123, 103, 109, 81). After that, similarly, for all the pixels constituting the multi-valued image data, the determination by comparison with the threshold value and the diffusion of the error to the surrounding unprocessed pixels are executed.

そして、このような誤差拡散法によれば、二値化の際に生じた誤差を所定割合で周囲の未処理画素に拡散させることにより、閾値を基準として単純に二値化を行う場合に比べ、滑らかなグラデーションを再現することができ、階調変換処理後の画像の見た目を階調変換処理前のものに近づけることができる。 Then, according to such an error diffusion method, the error generated during binarization is diffused to the surrounding unprocessed pixels at a predetermined ratio, as compared with the case of simply binarizing with reference to the threshold value. , Smooth gradation can be reproduced, and the appearance of the image after the gradation conversion processing can be made closer to that before the gradation conversion processing.

しかしながら、誤差拡散法は、上述のとおり、二値化の際に生じた誤差を所定割合で周囲の未処理画素に拡散させることで、滑らかなグラデーションを再現する方法であることから、多値画像データに含まれる画像や文字のエッジ部が不鮮明となるおそれがある。また、例えば図12(a)に示すように、多値画像データに含まれる画像や文字が少ない画素数で構成されるものである場合(例えば、細線で表現された文字等の場合)には、図12(b)に示すように、誤差拡散によって極端に色が薄くなったり、画像や文字が消失したりする等の問題が生じるおそれがある。 However, as described above, the error diffusion method is a method of reproducing a smooth gradation by diffusing the error generated during binarization to the surrounding unprocessed pixels at a predetermined ratio, and thus is a multi-valued image. The edges of images and characters included in the data may be blurred. Further, for example, as shown in FIG. 12A, when the images and characters included in the multi-valued image data are composed of a small number of pixels (for example, in the case of characters represented by thin lines), As shown in FIG. 12B, there is a possibility that problems such as extremely lightening of colors and loss of images and characters may occur due to error diffusion.

そこで、近年、多値画像データにエッジ検出処理を施すことによって、画像内に存在するエッジ部分を特定した上で、エッジ部分についてはディザ法による階調変換処理を実行し、その他の部分(非エッジ部分)については誤差拡散法による階調変換処理を実行する方法が提案されている(特許文献2)。このような特許文献2の方法によれば、画素の誤差拡散を行わないディザ法によりエッジ部分の二値化を行うようにしたことにより、理論上は、エッジ部分の崩れや色抜けを抑制することが可能である。 Therefore, in recent years, by performing edge detection processing on multi-valued image data, after identifying the edge portion existing in the image, gradation conversion processing by the dither method is executed for the edge portion, and other portions (non-non-existent). For the edge portion), a method of executing gradation conversion processing by an error diffusion method has been proposed (Patent Document 2). According to the method of Patent Document 2 as described above, the edge portion is binarized by the dither method that does not diffuse the pixel error, so that the edge portion is theoretically suppressed from collapsing or color loss. It is possible.

特許第5744360号公報Japanese Patent No. 5744360 特開2005−72748号公報Japanese Unexamined Patent Publication No. 2005-72748

しかしながら、特許文献2の方法では、エッジ検出処理が、隣接する画素同士の単純な輝度の差異抽出に留まるため、本来エッジとして処理すべきでない箇所をエッジとして処理してしまうおそれや、本来エッジとして処理すべき箇所をエッジとして抽出できないおそれがあり、それゆえ、流麗な階調表現を持った画像生成を実現することができない場合があるという問題がある。すなわち、特許文献2におけるエッジ検出処理を含め、従来のエッジ検出処理では、隣接する画素同士の輝度差が大きい箇所を「エッジ」とみなしている。しかしながら、輝度差が大きいからといって必ずしもそこがエッジであるとは限らず、また、例えば同程度の輝度を有する赤色と青色の境等、輝度差が小さくても色味が異なればエッジとなり得るものである。これにより、従来のエッジ検出処理では、例えば連続する画像部分であるにも関わらずエッジ部であると誤検出し、不適切なエッジ強調がなされるおそれがある。そして、特許文献2の方法では、このような誤検出の結果、例えば連続する画像部分のような、誤差拡散法により均一に階調変換処理すべき箇所について、部分的にディザ法による階調変換処理を実行してしまうおそれがあり、これにより、滑らかなグラデーションを再現することができない場合がある。 However, in the method of Patent Document 2, since the edge detection process is limited to simply extracting the difference in brightness between adjacent pixels, there is a risk that a portion that should not be processed as an edge is processed as an edge, or as an edge. There is a problem that the part to be processed may not be extracted as an edge, and therefore it may not be possible to realize image generation with a flowing gradation expression. That is, in the conventional edge detection process including the edge detection process in Patent Document 2, a portion where the brightness difference between adjacent pixels is large is regarded as an “edge”. However, just because the brightness difference is large does not necessarily mean that it is an edge, and even if the brightness difference is small, it becomes an edge, for example, the boundary between red and blue having the same brightness. What you get. As a result, in the conventional edge detection process, for example, even though it is a continuous image portion, it may be erroneously detected as an edge portion, and inappropriate edge enhancement may be performed. Then, in the method of Patent Document 2, as a result of such erroneous detection, the gradation conversion is partially performed by the dither method for the portion to be uniformly gradation-converted by the error diffusion method, such as a continuous image portion. There is a risk of executing the process, which may make it impossible to reproduce a smooth gradation.

本発明は、上述した従来技術の問題点に鑑みてなされたものであり、その目的は、エッジ部を正確に抽出することが可能な画像処理装置、画像処理プログラム及び画像処理方法を提供することを目的とする。 The present invention has been made in view of the above-mentioned problems of the prior art, and an object of the present invention is to provide an image processing apparatus, an image processing program, and an image processing method capable of accurately extracting an edge portion. With the goal.

本発明者は、「エッジ部」の特徴として、隣接する画素同士の輝度差が大きいという従来公知の特徴に加え、エッジ部として取り扱うべき画素の周辺には必ず異なった(あるいは離散した)輝度や色味があり、そうでない画素(非エッジ部として取り扱うべき画素)の周辺には同質性の高い輝度や色味を持った画素が存在するという新たな着眼点に基づく特徴を見出し、鋭意研究の結果、これらの特徴に基づく高精度なエッジ抽出を実現可能な画像処理装置、画像処理プログラム及び画像処理方法を発明した。 In addition to the conventionally known feature that the brightness difference between adjacent pixels is large as a feature of the "edge portion", the present inventor always has different (or discrete) brightness around the pixel to be treated as the edge portion. We found a feature based on a new point of view that there are pixels with high homogeneity brightness and color around pixels that have color and do not (pixels that should be treated as non-edge parts), and we have been studying diligently. As a result, we have invented an image processing device, an image processing program, and an image processing method that can realize highly accurate edge extraction based on these features.

具体的には、本発明に係る画像処理装置は、多値画像データをデジタル印刷装置で使用可能な二値画像データに変換する画像処理装置であって、多値画像データに対して、エッジ抽出処理を実行するエッジ抽出部と、前記エッジ抽出部によりエッジ抽出処理が実行された前記多値画像データに対して階調変換処理を実行することで、該多値画像データを二値画像データに変換する階調変換処理部とを備え、前記エッジ抽出部は、前記多値画像データに対し、一次微分フィルタ又は二次微分フィルタを用いてエッジ抽出処理を実行する一次エッジ抽出部と、前記多値画像データを構成する画素のそれぞれについて、所定範囲内における複数の画素を統計対象として輝度のばらつきを算出し、該算出したばらつきを所定の閾値と比較することで、前記多値画像データを構成する画素の輝度のばらつきをマップ化するマップ化処理部と、前記一次エッジ抽出部によりエッジ部分が抽出された一次エッジ抽出データと、前記マップ化処理部によって生成された輝度のばらつきを示すマップデータとを論理合成することで、輝度のばらつきが反映された二次エッジ抽出データを生成するエッジ論理合成処理部とを備えることを特徴とする。 Specifically, the image processing device according to the present invention is an image processing device that converts multi-valued image data into binary image data that can be used in a digital printing device, and edge extraction is performed on the multi-valued image data. By executing the gradation conversion process on the edge extraction unit that executes the process and the multi-value image data for which the edge extraction process has been executed by the edge extraction unit, the multi-value image data becomes binary image data. The edge extraction unit includes a gradation conversion processing unit for conversion, and the edge extraction unit includes a primary edge extraction unit that executes edge extraction processing on the multi-valued image data using a primary differential filter or a secondary differential filter, and the multi-value image data. For each of the pixels constituting the value image data, the variation in brightness is calculated for a plurality of pixels within a predetermined range as statistical targets, and the calculated variation is compared with a predetermined threshold to configure the multivalued image data. The mapping processing unit that maps the variation in the brightness of the pixels to be performed, the primary edge extraction data in which the edge portion is extracted by the primary edge extraction unit, and the map data indicating the variation in brightness generated by the mapping processing unit. It is characterized in that it includes an edge logic composition processing unit that generates secondary edge extraction data reflecting variations in brightness by logically synthesizing and.

本発明に係る画像処理装置において、前記マップ化処理部は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として輝度の分散値を算出し、該算出された分散値が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化するよう構成されるとしても良い。 In the image processing apparatus according to the present invention, the mapping processing unit calculates a luminance dispersion value for a plurality of pixels within a predetermined range centered on a pixel to be determined, and calculates the luminance dispersion value. By executing the process of determining whether or not is equal to or less than a predetermined threshold value for each of the pixels constituting the multi-valued image data, the variation in the brightness of the pixels constituting the multi-valued image data is mapped. It may be configured to be.

また、本発明に係る画像処理装置において、前記マップ化処理部は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として、所定の閾値以上又は未満の輝度を有する画素の個数を算出し、該算出された個数が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化するよう構成されるとしても良い。 Further, in the image processing apparatus according to the present invention, the mapping processing unit targets a plurality of pixels within a predetermined range centered on a pixel to be determined as a statistical target, and pixels having a brightness equal to or lower than a predetermined threshold. By executing the process of calculating the number of pixels and determining whether or not the calculated number is equal to or less than a predetermined threshold value for each of the pixels constituting the multi-valued image data, the multi-valued image It may be configured to map the variation in the brightness of the pixels constituting the data.

さらに、本発明に係る画像処理装置において、前記マップ化処理部は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として、輝度の分散値と、所定の閾値以上又は未満の輝度を有する画素の個数とを算出し、該算出された分散値及び個数の双方が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化するよう構成されるとしても良い。 Further, in the image processing apparatus according to the present invention, the mapping processing unit sets a plurality of pixels within a predetermined range centered on the pixel to be determined as statistical targets, and has a luminance dispersion value and a predetermined threshold value or more. Pixels constituting the multi-valued image data are subjected to a process of calculating the number of pixels having a brightness of less than or equal to and determining whether or not both the calculated dispersion value and the number of pixels are equal to or less than a predetermined threshold value. By executing each of the above, the variation in the brightness of the pixels constituting the multi-valued image data may be configured to be mapped.

本発明に係る画像処理装置において、前記階調変換処理部は、前記エッジ抽出部によりエッジ部分であると判定された部分に対する階調変換処理と、前記エッジ抽出部により非エッジ部分であると判定された部分に対する階調変換処理とを、それぞれ異なる条件下で実行するよう構成されることが好ましい。 In the image processing apparatus according to the present invention, the gradation conversion processing unit performs gradation conversion processing on a portion determined to be an edge portion by the edge extraction unit, and determines that the portion is a non-edge portion by the edge extraction unit. It is preferable that the gradation conversion process for the formed portion is executed under different conditions.

具体的には、前記階調変換処理部は、前記エッジ抽出部によりエッジ部分であると判定された部分を対象として、階調変換処理を実行するエッジ部量子化処理部と、前記エッジ抽出部により非エッジ部分であると判定された部分を対象として、階調変換処理を実行する非エッジ部量子化処理部と、前記エッジ部量子化処理部により処理された量子化データと、前記非エッジ部量子化処理部により処理された量子化データとを論理合成することで、前記二値画像データを生成する量子化論理合成処理部とを備えることが好ましい。 Specifically, the gradation conversion processing unit includes an edge portion quantization processing unit that executes gradation conversion processing for a portion determined to be an edge portion by the edge extraction unit, and the edge extraction unit. The non-edge portion quantization processing unit that executes the gradation conversion process, the quantization data processed by the edge portion quantization processing unit, and the non-edge portion for the portion determined to be the non-edge portion by It is preferable to include a quantization logic synthesis processing unit that generates the binary image data by logically synthesizing the quantization data processed by the partial quantization processing unit.

また、本発明に係る画像処理装置において、前記エッジ部分に対する階調変換処理と、前記非エッジ部分に対する階調変換処理とは、互いに異なる閾値を基準とした誤差拡散法に基づく階調変換処理であることが好ましい。 Further, in the image processing apparatus according to the present invention, the gradation conversion processing for the edge portion and the gradation conversion processing for the non-edge portion are gradation conversion processing based on an error diffusion method based on different threshold values. It is preferable to have.

本発明に係る画像処理プログラムは、多値画像データをデジタル印刷装置で使用可能な二値画像データに変換する画像処理を、画像処理装置に実行させる画像処理プログラムであって、前記画像処理装置に、多値画像データに対して、エッジ抽出処理を実行するエッジ抽出工程と、前記エッジ抽出工程によりエッジ抽出処理が実行された前記多値画像データに対して階調変換処理を実行することで、該多値画像データを二値画像データに変換する階調変換処理工程とを実行させ、前記エッジ抽出工程は、前記多値画像データに対し、一次微分フィルタ又は二次微分フィルタを用いてエッジ抽出処理を実行する一次エッジ抽出工程と、前記多値画像データを構成する画素のそれぞれについて、所定範囲内における複数の画素を統計対象として輝度のばらつきを算出し、該算出したばらつきを所定の閾値と比較することで、前記多値画像データを構成する画素の輝度のばらつきをマップ化するマップ化処理工程と、前記一次エッジ抽出工程によりエッジ部分が抽出された一次エッジ抽出データと、前記マップ化処理工程によって生成された輝度のばらつきを示すマップデータとを論理合成することで、輝度のばらつきが反映された二次エッジ抽出データを生成するエッジ論理合成処理工程とを含むことを特徴とする。 The image processing program according to the present invention is an image processing program that causes an image processing device to execute image processing for converting multi-valued image data into binary image data that can be used in a digital printing device, and causes the image processing device to execute image processing. By executing the edge extraction process for executing the edge extraction process on the multi-valued image data and the gradation conversion process for the multi-valued image data on which the edge extraction process is executed by the edge extraction step. A gradation conversion processing step of converting the multi-valued image data into binary image data is executed, and the edge extraction step extracts edges of the multi-valued image data using a primary differential filter or a secondary differential filter. For each of the primary edge extraction step for executing the process and the pixels constituting the multi-valued image data, the variation in brightness is calculated for a plurality of pixels within a predetermined range as statistical targets, and the calculated variation is set as a predetermined threshold value. By comparing, the mapping processing step of mapping the variation in the brightness of the pixels constituting the multi-valued image data, the primary edge extraction data in which the edge portion is extracted by the primary edge extraction step, and the mapping process. It is characterized by including an edge logic synthesis processing step of generating secondary edge extraction data reflecting the variation in brightness by logically synthesizing the map data indicating the variation in brightness generated by the process.

本発明に係る画像処理プログラムにおいて、前記マップ化処理工程は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として輝度の分散値を算出し、該算出された分散値が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化する工程を含むとしても良い。 In the image processing program according to the present invention, the mapping processing step calculates the luminance dispersion value for a plurality of pixels within a predetermined range centered on the pixel to be determined, and the calculated luminance dispersion value. By executing the process of determining whether or not is equal to or less than a predetermined threshold value for each of the pixels constituting the multi-valued image data, the variation in the brightness of the pixels constituting the multi-valued image data is mapped. It may include a step of converting.

また、本発明に係る画像処理プログラムにおいて、前記マップ化処理工程は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として、所定の閾値以上又は未満の輝度を有する画素の個数を算出し、該算出された個数が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化する工程を含むとしても良い。 Further, in the image processing program according to the present invention, in the mapping processing step, a plurality of pixels within a predetermined range centered on a pixel to be determined are set as statistical targets, and pixels having a brightness equal to or lower than a predetermined threshold. By executing the process of calculating the number of pixels and determining whether or not the calculated number is equal to or less than a predetermined threshold value for each of the pixels constituting the multi-valued image data, the multi-valued image It may include a step of mapping the variation in the brightness of the pixels constituting the data.

さらに、本発明に係る画像処理プログラムにおいて、前記マップ化処理工程は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として、輝度の分散値と、所定の閾値以上又は未満の輝度を有する画素の個数とを算出し、該算出された分散値及び個数の双方が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化する工程を含むとしても良い。 Further, in the image processing program according to the present invention, in the mapping processing step, a plurality of pixels within a predetermined range centered on the pixel to be determined are set as statistical targets, and the brightness dispersion value and a predetermined threshold value or more or Pixels constituting the multi-valued image data are subjected to a process of calculating the number of pixels having a brightness of less than or equal to and determining whether or not both the calculated dispersion value and the number of pixels are equal to or less than a predetermined threshold value. By executing each of the above, the step of mapping the variation in the brightness of the pixels constituting the multi-valued image data may be included.

本発明に係る画像処理プログラムにおいて、前記階調変換処理工程は、前記エッジ抽出工程によりエッジ部分であると判定された部分に対する階調変換処理と、前記エッジ抽出工程により非エッジ部分であると判定された部分に対する階調変換処理とを、それぞれ異なる条件下で実行する工程を含むことが好ましい。 In the image processing program according to the present invention, the gradation conversion processing step includes gradation conversion processing for a portion determined to be an edge portion by the edge extraction step and determination to be a non-edge portion by the edge extraction step. It is preferable to include a step of executing the gradation conversion process for the formed portion under different conditions.

具体的には、前記階調変換処理工程は、前記エッジ抽出工程によりエッジ部分であると判定された部分を対象として、階調変換処理を実行するエッジ部量子化処理工程と、前記エッジ抽出工程により非エッジ部分であると判定された部分を対象として、階調変換処理を実行する非エッジ部量子化処理工程と、前記エッジ部量子化処理工程により処理された量子化データと、前記非エッジ部量子化処理工程により処理された量子化データとを論理合成することで、前記二値画像データを生成する量子化論理合成処理工程とを含むことが好ましい。 Specifically, the gradation conversion processing step includes an edge portion quantization processing step for executing gradation conversion processing for a portion determined to be an edge portion by the edge extraction step, and the edge extraction step. The non-edge portion quantization processing step for executing the gradation conversion process, the quantization data processed by the edge portion quantization processing step, and the non-edge portion for the portion determined to be the non-edge portion by It is preferable to include a quantization logic synthesis processing step of generating the binary image data by logically synthesizing the quantization data processed by the partial quantization processing step.

また、本発明に係る画像処理プログラムにおいて、前記エッジ部分に対する階調変換処理と、前記非エッジ部分に対する階調変換処理とは、互いに異なる閾値を基準とした誤差拡散法に基づく階調変換処理であることが好ましい。 Further, in the image processing program according to the present invention, the gradation conversion processing for the edge portion and the gradation conversion processing for the non-edge portion are gradation conversion processing based on an error diffusion method based on different threshold values. It is preferable to have.

本発明に係る画像処理方法は、多値画像データをデジタル印刷装置で使用可能な二値画像データに変換する画像処理方法であって、多値画像データに対して、エッジ抽出処理を実行するエッジ抽出工程と、前記エッジ抽出工程によりエッジ抽出処理が実行された前記多値画像データに対して階調変換処理を実行することで、該多値画像データを二値画像データに変換する階調変換処理工程とを備え、前記エッジ抽出工程は、前記多値画像データに対し、一次微分フィルタ又は二次微分フィルタを用いてエッジ抽出処理を実行する一次エッジ抽出工程と、前記多値画像データを構成する画素のそれぞれについて、所定範囲内における複数の画素を統計対象として輝度のばらつきを算出し、該算出したばらつきを所定の閾値と比較することで、前記多値画像データを構成する画素の輝度のばらつきをマップ化するマップ化処理工程と、前記一次エッジ抽出工程によりエッジ部分が抽出された一次エッジ抽出データと、前記マップ化処理工程によって生成された輝度のばらつきを示すマップデータとを論理合成することで、輝度のばらつきが反映された二次エッジ抽出データを生成するエッジ論理合成処理工程とを備えることを特徴とする。 The image processing method according to the present invention is an image processing method that converts multi-valued image data into binary image data that can be used in a digital printing apparatus, and is an edge that executes edge extraction processing on the multi-valued image data. Gradation conversion that converts the multi-valued image data into binary image data by executing the gradation conversion process on the extraction step and the multi-valued image data for which the edge extraction process has been executed by the edge extraction step. The edge extraction step comprises a processing step, and the edge extraction step comprises a primary edge extraction step of executing an edge extraction process on the multivalued image data using a primary differential filter or a secondary differential filter, and the multivalued image data. For each of the pixels to be used, the variation in brightness is calculated for a plurality of pixels within a predetermined range as statistical targets, and the calculated variation is compared with a predetermined threshold to determine the brightness of the pixels constituting the multi-valued image data. The mapping processing step of mapping the variation, the primary edge extraction data in which the edge portion is extracted by the primary edge extraction step, and the map data showing the variation of the brightness generated by the mapping processing step are logically combined. This is characterized by including an edge logic synthesis processing step for generating secondary edge extraction data reflecting variations in brightness.

本発明によれば、エッジ部を正確に抽出することが可能な画像処理装置、画像処理プログラム及び画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus, an image processing program, and an image processing method capable of accurately extracting an edge portion.

本発明の一実施形態に係る画像処理装置及びデジタル印刷装置を概略的に示す図である。It is a figure which shows schematic the image processing apparatus and digital printing apparatus which concerns on one Embodiment of this invention. 本実施形態に係る画像処理装置の概略構成を示すブロック構成図である。It is a block block diagram which shows the schematic structure of the image processing apparatus which concerns on this embodiment. エッジ抽出部の概略構成を示すブロック構成図である。It is a block block diagram which shows the schematic structure of the edge extraction part. 多値画像データの画素配置の一例を示す図である。It is a figure which shows an example of the pixel arrangement of a multi-valued image data. エッジ抽出処理の一例を示す図である。It is a figure which shows an example of the edge extraction processing. エッジ抽出処理の他の例を示す図である。It is a figure which shows another example of the edge extraction processing. 階調変換処理部の概略構成を示すブロック構成図である。It is a block composition diagram which shows the schematic structure of the gradation conversion processing part. 本実施形態に係る画像処理方法の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing method which concerns on this Embodiment. 本実施形態に係るマップ化処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the mapping process which concerns on this embodiment. 図10(a)は、元画像を示す図であり、図10(b)は、従来の階調変換処理により二値化した二値画像を示す図であり、図10(c)は、本実施形態に係る画像処理方法により二値化した二値画像を示す図である。FIG. 10A is a diagram showing an original image, FIG. 10B is a diagram showing a binary image binarized by a conventional gradation conversion process, and FIG. 10C is a main image. It is a figure which shows the binary image which was binarized by the image processing method which concerns on embodiment. 256階調の多値画像データにおける誤差拡散法による二値化処理の例を示す図であり、図11(a)、図11(c)、図11(e)及び図11(g)は、多値画像データの画素配置の一例を示す図であり、図11(b)、図11(d)、図11(f)及び図11(h)は、それぞれ誤差拡散テーブルを示す図である。It is a figure which shows the example of the binarization processing by the error diffusion method in the multi-valued image data of 256 gradations, FIG. 11 (a), FIG. 11 (c), FIG. 11 (e) and FIG. 11 (g). It is a figure which shows an example of the pixel arrangement of the multi-valued image data, and FIG. 11 (b), FIG. 11 (d), FIG. 11 (f) and FIG. 11 (h) are the figures which show the error diffusion table respectively. 図12(a)は、元画像を示す図であり、図12(b)は、誤差拡散法により二値化した二値画像を示す図である。FIG. 12A is a diagram showing an original image, and FIG. 12B is a diagram showing a binary image binarized by an error diffusion method.

以下、本発明を実施するための好適な実施形態について、図面を用いて説明する。なお、以下の実施形態は、各請求項に係る発明を限定するものではなく、また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, preferred embodiments for carrying out the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the invention according to each claim, and not all combinations of features described in the embodiments are essential for the means for solving the invention. ..

本実施形態に係る画像処理装置1は、主として、他の情報処理端末や記憶媒体等から入力された入稿画像データ(元画像データ)に種々の画像処理を施すことによって、該入稿画像データをインクジェット式のデジタル印刷装置100で使用可能な二値画像データに変換する機能を有している。ここで、入稿画像データとしては、例えば、PDF(Portable Document Format)やPS(PostScript)等の形式で表現される画像データが挙げられるが、これらに限定されるものではない。 The image processing device 1 according to the present embodiment mainly performs various image processing on the submitted image data (original image data) input from another information processing terminal, storage medium, or the like, thereby performing the submitted image data. Has a function of converting the data into binary image data that can be used in the inkjet digital printing apparatus 100. Here, examples of the submitted image data include, but are not limited to, image data expressed in a format such as PDF (Portable Document Form) or PS (PostScript).

デジタル印刷装置100は、図1に示すように、巻取紙Rから送り出された連続紙Wにインクジェット印刷を施すプリントヘッド部102と、プリントヘッド部102を制御するプリントヘッド制御部104とを備えている。以下、デジタル印刷装置100として、4色カラー印刷が可能な所謂シングルパス方式のデジタル印刷装置を例に挙げて説明するが、これに限定されず、例えば、単色印刷又は4色以外の多色印刷用のデジタル印刷装置や、所謂スキャン方式のデジタル印刷装置等の種々のデジタル印刷装置を使用可能である。 As shown in FIG. 1, the digital printing apparatus 100 includes a print head unit 102 that performs inkjet printing on the continuous paper W sent out from the take-up paper R, and a print head control unit 104 that controls the print head unit 102. .. Hereinafter, as the digital printing apparatus 100, a so-called single-pass type digital printing apparatus capable of four-color color printing will be described as an example, but the present invention is not limited to this, and for example, single-color printing or multicolor printing other than four-color printing. Various digital printing devices such as a digital printing device for printing and a so-called scanning type digital printing device can be used.

プリントヘッド部102は、シアン(C)のインクを吐出可能なプリントヘッド群102cと、マゼンダ(M)のインクを吐出可能なプリントヘッド群102mと、イエロー(Y)のインクを吐出可能なプリントヘッド群102yと、ブラック(K)のインクを吐出可能なプリントヘッド群102kとを備えており、連続紙Wに対してカラー印刷を施すことが可能に構成されている。これらプリントヘッド群102c,102m,102y,102kは、それぞれ、連続紙Wの幅寸法よりも小さい複数(例えば4つ)のプリントヘッド(図示せず)を連続紙Wの幅方向に千鳥状に配置させることで構成されており、プリントヘッド群102c,102m,102y,102kの幅寸法(千鳥状に配置した複数のプリントヘッドの全長)が連続紙Wの幅寸法よりも大きくなるよう構成されている。このようなプリントヘッド部102の構成は、周知であるため、その詳細な説明は省略する。 The printhead unit 102 includes a printhead group 102c capable of ejecting cyan (C) ink, a printhead group 102m capable of ejecting magenta (M) ink, and a printhead capable of ejecting yellow (Y) ink. It includes a group 102y and a print head group 102k capable of ejecting black (K) ink, and is configured to be capable of performing color printing on continuous paper W. In each of these printhead groups 102c, 102m, 102y, and 102k, a plurality of (for example, four) printheads (not shown) smaller than the width dimension of the continuous paper W are arranged in a staggered pattern in the width direction of the continuous paper W. The width dimension of the printhead groups 102c, 102m, 102y, 102k (the total length of a plurality of printheads arranged in a staggered pattern) is larger than the width dimension of the continuous paper W. .. Since the configuration of such a print head unit 102 is well known, detailed description thereof will be omitted.

プリントヘッド制御部104は、画像処理装置1とデータ通信可能に構成されており、画像処理装置1から取得した4色分の二値画像データに基づいて、プリントヘッド部102を制御するよう構成されている。具体的には、プリントヘッド制御部104は、画像処理装置1から取得した4色分の二値画像データのそれぞれについて、各色に対応する各プリントヘッド群102c,102m,102y,102kのプリントヘッドの配置に基づいて並び替える処理を実行可能に構成されている。また、プリントヘッド制御部104は、並び替えた二値画像データに基づき、プリントヘッド群102c,102m,102y,102kの各プリントヘッドにおけるインク吐出のオン/オフを、二値画像データの画素単位で制御するよう構成されている。このようなプリントヘッド制御部104の構成は、周知であるため、その詳細な説明は省略する。 The printhead control unit 104 is configured to be capable of data communication with the image processing device 1, and is configured to control the printhead unit 102 based on binary image data for four colors acquired from the image processing device 1. ing. Specifically, the printhead control unit 104 uses the printheads of the printhead groups 102c, 102m, 102y, and 102k corresponding to each color for each of the binary image data for four colors acquired from the image processing device 1. It is configured to be able to execute the process of sorting based on the arrangement. Further, the printhead control unit 104 turns on / off the ink ejection in each printhead of the printhead group 102c, 102m, 102y, 102k based on the rearranged binary image data in pixel units of the binary image data. It is configured to control. Since the configuration of such a printhead control unit 104 is well known, detailed description thereof will be omitted.

画像処理装置1は、CPU等の制御部10を備える例えば処理サーバーであり、図2に示すように、入稿画像データ(元画像データ)の入力を受け付ける入力部12と、必要に応じて入稿画像データを多値画像データに変換するラスター変換処理部14と、多値画像データに対してエッジ抽出処理を実行するエッジ抽出部18と、多値画像データを各色に分版する色分版処理部16と、各色の多値画像データを印刷用の二値画像データに変換する階調変換処理部(量子化処理部)20と、各二値画像データをデジタル印刷装置100のプリントヘッド制御部104等に出力する出力部22と、画像処理装置1における画像処理に必要な各種データ及び画像処理プログラムを含む各種プログラム等が格納される記憶部24とを備えている。また、画像処理装置1は、デジタル印刷装置100に印刷データを提供するために必要なその他の処理(例えば面付け処理等)を実行可能に構成されている。 The image processing device 1 is, for example, a processing server including a control unit 10 such as a CPU, and as shown in FIG. 2, an input unit 12 that accepts input of submitted image data (original image data) and, if necessary, input. A raster conversion processing unit 14 that converts manuscript image data into multi-valued image data, an edge extraction unit 18 that executes edge extraction processing on the multi-valued image data, and a color separation plate that separates the multi-valued image data into each color. The processing unit 16, the gradation conversion processing unit (quantization processing unit) 20 that converts the multi-valued image data of each color into binary image data for printing, and the printhead control of each binary image data of the digital printing device 100. It includes an output unit 22 that outputs to unit 104 and the like, and a storage unit 24 that stores various data necessary for image processing in the image processing device 1 and various programs including an image processing program. Further, the image processing device 1 is configured to be capable of executing other processing (for example, imposition processing) necessary for providing print data to the digital printing device 100.

入力部12は、他の情報処理端末や記憶媒体等から、例えばPDFやPS等の形式の入稿画像データ(元画像データ)の入力を受け付けるよう構成されている。出力部22は、階調変換処理部20によって生成された、後述するシアン成分の二値画像データと、マゼンタ成分の二値画像データと、イエロー成分の二値画像データと、ブラック成分の二値画像データとを、デジタル印刷装置100のプリントヘッド制御部104等に受け渡すよう構成されている。なお、入力部12及び出力部22は、種々の公知のインターフェースを採用可能であるため、その詳細な説明を省略する。 The input unit 12 is configured to receive input of submitted image data (original image data) in a format such as PDF or PS from another information processing terminal, storage medium, or the like. The output unit 22 has a cyan component binary image data, a magenta component binary image data, a yellow component binary image data, and a black component binary image data generated by the gradation conversion processing unit 20. It is configured to transfer the image data to the print head control unit 104 or the like of the digital printing device 100. Since various known interfaces can be adopted for the input unit 12 and the output unit 22, detailed description thereof will be omitted.

ラスター変換処理部14は、入力部12を介して入力された入稿画像データがベクターデータ(ベクトル量で表現された線画像のデータ)等の非ラスターデータである場合に、この非ラスターデータをラスター変換処理(RIP)して、ドット(画素)の集合であるラスターデータに変換するよう構成されている。なお、ラスター変換処理部14により生成されたラスターデータは、画像を構成する画素のそれぞれが2ビット以上の階調情報を有する多値画像データ(例えば、各画素がそれぞれ8ビット(=256階調)の階調情報を有するフルカラー画像データ)である。なお、入稿画像データが多値画像である場合には、ラスター変換処理部14によるラスター変換処理は実行されなくても良い。また、ラスター変換処理部14で実行するラスター変換処理(RIP)は、種々の公知の処理手法を採用可能であるため、その詳細な説明を省略する。 When the submitted image data input via the input unit 12 is non-raster data such as vector data (line image data expressed by a vector amount), the raster conversion processing unit 14 uses this non-raster data. It is configured to perform raster conversion processing (RIP) and convert it into raster data, which is a set of dots (pixels). The raster data generated by the raster conversion processing unit 14 is multi-valued image data in which each of the pixels constituting the image has gradation information of 2 bits or more (for example, each pixel has 8 bits (= 256 gradations). ) Full-color image data having gradation information). When the submitted image data is a multi-valued image, the raster conversion process by the raster conversion processing unit 14 does not have to be executed. Further, since various known processing methods can be adopted for the raster conversion processing (RIP) executed by the raster conversion processing unit 14, detailed description thereof will be omitted.

エッジ抽出部18は、入力部12を介して入力された多値画像データ又はラスター変換処理部14によってラスター変換された多値画像データについて、それぞれ、エッジ抽出処理を実行するよう構成されている。具体的には、エッジ抽出部18は、図3に示すように、多値画像データに対し、エッジ抽出フィルタを用いてエッジ抽出処理を実行する一次エッジ抽出部18aと、多値画像データにおける画素の輝度のばらつきをマップ化するマップ化処理部18bと、一次エッジ抽出部18aで得られた一次エッジ抽出データとマップ化処理部18bで得られたマップデータとを論理合成(AND,NOR等)することで二次エッジ抽出データを生成するエッジ論理合成処理部18cとを備えている。なお、本実施形態に係るエッジ抽出部18において、各画素が複数の色成分についてそれぞれ輝度情報を有する場合には、各色成分の輝度の加重平均を画素の輝度として取り扱い、エッジ抽出処理を実行することとするが、これに限定されず、例えば、各色成分の輝度の合計値を画素の輝度として取り扱う方法や、任意の色成分の輝度を画素の輝度として取り扱う方法等の種々の方法を採用することが可能である。 The edge extraction unit 18 is configured to execute edge extraction processing for each of the multi-value image data input via the input unit 12 or the multi-value image data raster-converted by the raster conversion processing unit 14. Specifically, as shown in FIG. 3, the edge extraction unit 18 includes a primary edge extraction unit 18a that executes an edge extraction process on the multi-valued image data using an edge extraction filter, and pixels in the multi-valued image data. Logical composition (AND, NOR, etc.) of the mapping processing unit 18b that maps the variation in brightness, the primary edge extraction data obtained by the primary edge extraction unit 18a, and the map data obtained by the mapping processing unit 18b. It is provided with an edge logic synthesis processing unit 18c that generates secondary edge extraction data. In the edge extraction unit 18 according to the present embodiment, when each pixel has luminance information for each of a plurality of color components, the weighted average of the luminance of each color component is treated as the luminance of the pixel, and the edge extraction process is executed. However, the present invention is not limited to this, and various methods such as a method of treating the total brightness of each color component as the brightness of a pixel and a method of treating the brightness of an arbitrary color component as the brightness of a pixel are adopted. It is possible.

一次エッジ抽出部18aは、従来のエッジ検出処理と同様に、隣接する画素同士の輝度差が大きい箇所を「エッジ」とみなす手法により、画像に含まれるエッジ部を抽出するよう構成されている。具体的には、一次エッジ抽出部18aは、Robertsフィルタ、Sobelフィルタ及びPrewittフィルタ等の一次微分フィルタや、ラプラシアンフィルタ等の二次微分フィルタ等のエッジ抽出フィルタにより、画像に含まれるエッジ部を抽出するよう構成されている。また、一次エッジ抽出部18aは、エッジ部として抽出した画素の位置情報(座標)を示すデータを、一次エッジ抽出データ(図5(b)及び図6(b)に示すデータ)として、記憶部24に記憶させるよう構成されている。なお、一次微分フィルタを用いる場合には、一方向に対する処理のみでエッジ領域を求めることから、例えばx方向(画素配列の左右方向)に対する処理と、y方向(画素配列の上下方向)に対する処理とをそれぞれ実行した後、これらの処理を論理合成(AND,NOR等)することで、エッジ部を抽出することが好ましい。一次エッジ抽出部18aにおけるエッジ抽出処理は、種々の公知のエッジ抽出処理を採用可能であるため、その詳細な説明を省略する。また、エッジ抽出フィルタは、上述した各種フィルタに限定されず、種々のフィルタを採用することが可能である。 Similar to the conventional edge detection process, the primary edge extraction unit 18a is configured to extract the edge portion included in the image by a method of regarding a portion having a large brightness difference between adjacent pixels as an “edge”. Specifically, the primary edge extraction unit 18a extracts the edge portion included in the image by a primary differential filter such as a Roberts filter, a Sobel filter, and a Prewitt filter, or an edge extraction filter such as a secondary differential filter such as a Laplacian filter. It is configured to do. Further, the primary edge extraction unit 18a stores data indicating the position information (coordinates) of the pixels extracted as the edge unit as primary edge extraction data (data shown in FIGS. 5 (b) and 6 (b)). It is configured to be stored in 24. When a first-order differential filter is used, the edge region is obtained only in one direction. Therefore, for example, processing in the x direction (horizontal direction of the pixel array) and processing in the y direction (vertical direction of the pixel array). It is preferable to extract the edge portion by logically synthesizing (AND, NOR, etc.) these processes after executing each of the above. Since various known edge extraction processes can be adopted for the edge extraction process in the primary edge extraction unit 18a, detailed description thereof will be omitted. Further, the edge extraction filter is not limited to the various filters described above, and various filters can be adopted.

マップ化処理部18bは、多値画像データを構成する画素のそれぞれについて、所定範囲内における複数の画素を統計対象として輝度のばらつきを算出し、この算出したばらつきを所定の閾値と比較することで、多値画像データを構成する画素の輝度のばらつきをマップ化するよう構成されている。また、マップ化処理部18bは、画素の輝度のばらつきをマップ化したマップデータを記憶部24に記憶させるよう構成されている。 The mapping processing unit 18b calculates the variation in luminance for each of the pixels constituting the multi-valued image data, using a plurality of pixels within a predetermined range as statistical targets, and compares the calculated variation with a predetermined threshold value. , It is configured to map the variation in the brightness of the pixels that make up the multi-valued image data. Further, the mapping processing unit 18b is configured to store the map data in which the variation in the brightness of the pixels is mapped in the storage unit 24.

本実施形態に係るマップ化処理部18bでは、輝度のばらつきを判定基準としたマップ化処理として、例えば、(1)輝度の分散値を判定基準として用いる第1のマップ化処理(図4及び図5参照)と、(2)所定の輝度を有する画素の個数(画素数)を判定基準として用いる第2のマップ化処理(図4及び図6参照)と、(3)輝度の分散値及び所定の輝度を有する画素数の双方を判定基準として用いる第3のマップ化処理(図示せず)の3パターンを実行可能に構成されている。以下、第1〜第3のマップ化処理について、それぞれ説明する。 In the mapping processing unit 18b according to the present embodiment, as the mapping process using the variation in luminance as a determination criterion, for example, (1) the first mapping process using the dispersion value of luminance as a determination criterion (FIGS. 4 and FIG. 5), (2) a second mapping process (see FIGS. 4 and 6) that uses the number of pixels (number of pixels) having a predetermined brightness as a criterion, and (3) a variance value and a predetermined brightness. It is configured to be able to execute three patterns of a third mapping process (not shown) using both of the number of pixels having the brightness of the above as a determination criterion. Hereinafter, the first to third mapping processes will be described.

まず、第1のマップ化処理について、説明する。第1のマップ化処理は、判定対象となる画素(図4中、符号Aが付された画素)を中心とした所定範囲内における複数の画素を統計対象として輝度の分散値を算出し、この算出された分散値が所定の閾値以上(又は未満)であるか否かを判定する処理を、多値画像データを構成する画素のそれぞれについて実行することで、多値画像データを構成する画素の輝度のばらつきをマップ化する処理である。なお、統計対象とする範囲や、閾値等は、任意に設定することが可能である。 First, the first mapping process will be described. In the first mapping process, the dispersion value of the brightness is calculated for a plurality of pixels within a predetermined range centered on the pixel to be determined (the pixel with the reference numeral A in FIG. 4) as the statistical target. By executing the process of determining whether or not the calculated dispersion value is equal to or less than (or less than) a predetermined threshold value for each of the pixels constituting the multi-valued image data, the pixels constituting the multi-valued image data This is a process for mapping the variation in brightness. The range to be statistically measured, the threshold value, and the like can be arbitrarily set.

図4に示す例を用いて更に詳細に説明すると、第1のマップ化処理では、まず、判定対象画素Aを中心とした9×9の範囲内における81個の画素を統計対象として、輝度の分散値を算出する。なお、分散値は、一般的に輝度のばらつきの指標として用いられている値であり、統計対象となる全画素の階調(輝度値)の「2乗平均」と「平均の2乗」の差で求めることができる。図4に示す例では、81画素の階調の「2乗平均」が「14713」で、「平均の2乗」が「8831」であり、それゆえ、その差は「5882」である。第1のマップ化処理では、次に、算出された分散値(「5882」)が閾値以上(又は未満)であるか否かを判定する。例えば、閾値を「4000」とし、分散値が4000以上の画素をエッジ部として判定することとした場合には、図4に示す例では分散値が閾値(4000)以上であるため、判定対象画素Aをエッジ部として判定する。そして、これらの処理を多値画像データを構成する全ての画素について実行することで、エッジ部と判定された画素(分散値が閾値以上の画素)と、それ以外の画素(分散値が閾値未満の画素)との分布を示すマップデータ(図5(c)に示すデータ)が生成される。なお、9×9を統計対象とすることができない画素(例えば、画像端の画素等)については、例えば、マップ化処理に使用するフィルタのサイズを画像端の画素等の処理時にのみ画像からはみ出さないように変更する方法や、画像外の画素を画像中の一番近い画素の値と同値として補完する方法等の従来公知の方法により、処理が実行される。 Explaining in more detail using the example shown in FIG. 4, in the first mapping process, first, 81 pixels in the range of 9 × 9 centered on the determination target pixel A are set as statistical targets, and the luminance is increased. Calculate the variance value. The variance value is a value generally used as an index of variation in brightness, and is the "square average" and "average square" of the gradation (brightness value) of all pixels to be statistically measured. It can be calculated by the difference. In the example shown in FIG. 4, the "squared average" of the 81 pixel gradation is "14713" and the "average squared" is "8831", therefore the difference is "5882". In the first mapping process, it is then determined whether or not the calculated variance value (“5882”) is greater than or equal to (or less than) the threshold value. For example, when the threshold value is set to "4000" and a pixel having a dispersion value of 4000 or more is determined as an edge portion, in the example shown in FIG. 4, the dispersion value is the threshold value (4000) or more, so the determination target pixel. A is determined as an edge portion. Then, by executing these processes for all the pixels constituting the multi-valued image data, the pixels determined to be the edge portion (the pixels whose dispersion value is equal to or more than the threshold value) and the other pixels (the dispersion value is less than the threshold value). Map data (data shown in FIG. 5C) showing the distribution with (pixels of) is generated. For pixels for which 9 × 9 cannot be statistically targeted (for example, pixels at the image edge), for example, the size of the filter used for the mapping process extends out of the image only when the pixels at the image edge are processed. The process is executed by a conventionally known method such as a method of changing so as not to be performed or a method of complementing pixels outside the image with the same value as the value of the nearest pixel in the image.

次に、第2のマップ化処理について、説明する。第2のマップ化処理は、判定対象となる画素(図4中、符号Aが付された画素)を中心とした所定範囲内における複数の画素を統計対象として、所定の閾値以上(又は未満)の輝度を有する画素の個数を算出し、この算出された個数が所定の閾値以上(又は未満)であるか否かを判定する処理を、多値画像データを構成する画素のそれぞれについて実行することで、多値画像データを構成する画素の輝度のばらつきをマップ化する処理である。なお、統計対象とする範囲や、輝度の閾値及び個数の閾値等は、任意に設定することが可能である。 Next, the second mapping process will be described. In the second mapping process, a plurality of pixels within a predetermined range centered on the pixel to be determined (pixel with reference numeral A in FIG. 4) are set as statistical targets, and the value is equal to or less than a predetermined threshold. The process of calculating the number of pixels having the brightness of and determining whether or not the calculated number is equal to or less than a predetermined threshold is executed for each of the pixels constituting the multi-valued image data. This is a process for mapping the variation in the brightness of the pixels constituting the multi-valued image data. The range to be statistically targeted, the brightness threshold value, the number threshold value, and the like can be arbitrarily set.

図4に示す例を用いて更に詳細に説明すると、第2のマップ化処理では、まず、判定対象画素Aを中心とした9×9の範囲内における81個の画素を統計対象として、所定の閾値以上(又は未満)の輝度を有する画素の個数を算出する。例えば、輝度の閾値を「50」とした場合には、図4に示す例では、当該閾値以上の輝度(階調)を有する画素の個数は「29」となる。以下、説明を簡単にするため、閾値以上の輝度(階調)を有する画素を、その色に関わらず、「黒画素」という。第2のマップ化処理では、次に、算出された個数(「29」)が所定の閾値以上(又は未満)であるか否かを判定する。例えば、個数の閾値を「16個以上」とし、周囲の黒画素が16個以上の画素をエッジ部として判定することとした場合には、図4に示す例では周囲の黒画素が閾値(16個)以上であるため、判定対象画素Aをエッジ部として判定する。そして、これらの処理を多値画像データを構成する全ての画素について実行することで、エッジ部と判定された画素(周囲の黒画素の個数が閾値以上の画素)と、それ以外の画素(周囲の黒画素の個数が閾値未満の画素)との分布を示すマップデータ(図6(c)に示すデータ)が生成される。なお、9×9を統計対象とできない画素(例えば、画像端の画素等)に対する処理については、上述した第1のマップ化処理と同様である。 Explaining in more detail using the example shown in FIG. 4, in the second mapping process, first, 81 pixels in the range of 9 × 9 centered on the determination target pixel A are set as statistical targets, and a predetermined value is specified. Calculate the number of pixels with brightness above (or below) the threshold. For example, when the brightness threshold is set to "50", in the example shown in FIG. 4, the number of pixels having brightness (gradation) equal to or higher than the threshold is "29". Hereinafter, for the sake of simplicity, a pixel having a brightness (gradation) equal to or higher than a threshold value is referred to as a "black pixel" regardless of its color. In the second mapping process, it is next determined whether or not the calculated number (“29”) is equal to or greater than (or less than) a predetermined threshold value. For example, when the threshold value of the number is set to "16 or more" and the pixels having 16 or more surrounding black pixels are determined as the edge portion, the surrounding black pixels are the threshold value (16) in the example shown in FIG. Since the number is equal to or more than the above, the determination target pixel A is determined as the edge portion. Then, by executing these processes for all the pixels constituting the multi-valued image data, the pixels determined to be the edge portion (the number of surrounding black pixels is equal to or larger than the threshold value) and the other pixels (periphery). Map data (data shown in FIG. 6C) showing the distribution with (pixels in which the number of black pixels is less than the threshold value) is generated. The processing for pixels whose statistical target cannot be 9 × 9 (for example, pixels at the edge of an image) is the same as the first mapping processing described above.

次に、第3のマップ化処理について、説明する。第3のマップ化処理は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として、輝度の分散値と、所定の閾値以上(又は未満)の輝度を有する画素の個数とを算出し、これら算出された分散値及び個数の双方が所定の閾値以上(又は未満)であるか否かを判定する処理を、多値画像データを構成する画素のそれぞれについて実行することで、多値画像データを構成する画素の輝度のばらつきをマップ化する処理である。すなわち、上述した第1のマップ化処理により生成したマップデータと、上述した第2のマップ化処理により生成したマップデータとを論理合成(AND,NOR等)して、新たなマップデータを生成する処理である。なお、輝度の分散値を判定基準とした処理は、上述した第1のマップ化処理と同様であり、周囲の黒画素の個数を判定基準とした処理は、上述した第2のマップ化処理と同様であるため、これらの詳細な説明を省略する。 Next, the third mapping process will be described. In the third mapping process, a plurality of pixels within a predetermined range centered on the pixel to be determined are used as statistical targets, and the brightness dispersion value and the number of pixels having brightness equal to or higher than (or less than) a predetermined threshold value are used. By executing the process of determining whether or not both the calculated variance value and the number are equal to or less than a predetermined threshold value for each of the pixels constituting the multi-valued image data. This is a process for mapping the variation in the brightness of the pixels constituting the multi-valued image data. That is, new map data is generated by logically synthesizing (AND, NOR, etc.) the map data generated by the above-mentioned first mapping process and the map data generated by the above-mentioned second mapping process. It is a process. The process using the variance value of the luminance as the determination criterion is the same as the first mapping process described above, and the process using the number of surrounding black pixels as the determination criterion is the same as the second mapping process described above. Since they are the same, detailed description thereof will be omitted.

エッジ論理合成処理部18cは、一次エッジ抽出部18aによりエッジ部分が抽出された一次エッジ抽出データと、マップ化処理部18bによって生成された輝度のばらつきを示すマップデータとを論理合成することで、輝度のばらつきが反映された二次エッジ抽出データを生成するよう構成されている。具体的には、エッジ論理合成処理部18cは、図5及び図6に示すように、通常のエッジ抽出処理によってエッジ部が抽出された一次エッジ抽出データ(図5(b)及び図6(b)に示すデータ)と、第1〜第3のマップ化処理によって生成されたマップデータ(図5(c)及び図6(c)に示すデータ等)とを論理合成(AND,NOR等)して、隣接する画素間の輝度差と、輝度の空間分布特性(輝度の連続性や離散性等)及び色味の空間分布特性(色味の比率等)との双方を加味した二次エッジ抽出データ(図5(d)及び図6(d)に示すデータ)を生成するよう構成されている。このように、一次エッジ抽出データに輝度のばらつきを示すマップデータの情報を反映させることにより、単純な輝度差だけでなく、輝度の空間分布特性(輝度の連続性や離散性等)や、色味の空間分布特性(色味の比率等)をも考慮してエッジ部を特定することが可能となるため、エッジ部の誤検出を抑制し、エッジ部を正確に抽出することが可能となる。また、エッジ論理合成処理部18cは、生成した二次エッジ抽出データを、後述する4色分の多値画像データにおいて共通して使用されるエッジ抽出データとして、記憶部24に記憶させるよう構成されている。 The edge logic synthesis processing unit 18c logically synthesizes the primary edge extraction data in which the edge portion is extracted by the primary edge extraction unit 18a and the map data indicating the variation in brightness generated by the mapping processing unit 18b. It is configured to generate secondary edge extraction data that reflects the variation in brightness. Specifically, as shown in FIGS. 5 and 6, the edge logic synthesis processing unit 18c includes primary edge extraction data (FIGS. 5 (b) and 6 (b)) in which the edge portion is extracted by a normal edge extraction process. ) And the map data (data shown in FIGS. 5 (c) and 6 (c)) generated by the first to third mapping processes are logically combined (AND, NOR, etc.). Secondary edge extraction that takes into account both the difference in brightness between adjacent pixels and the spatial distribution characteristics of brightness (continuity and discreteness of brightness, etc.) and the spatial distribution characteristics of tint (ratio of tint, etc.). It is configured to generate data (data shown in FIGS. 5 (d) and 6 (d)). In this way, by reflecting the information of the map data showing the variation in luminance in the primary edge extraction data, not only the simple luminance difference but also the spatial distribution characteristics of luminance (continuity and discreteness of luminance, etc.) and color Since it is possible to specify the edge portion in consideration of the spatial distribution characteristics of the taste (ratio of hue, etc.), it is possible to suppress erroneous detection of the edge portion and accurately extract the edge portion. .. Further, the edge logic synthesis processing unit 18c is configured to store the generated secondary edge extraction data in the storage unit 24 as edge extraction data commonly used in the multi-valued image data for four colors described later. ing.

ここで、エッジ論理合成処理部18cにおける論理合成処理としては、例えば、画素単位で論理合成する方法と、隣接する複数の画素からなる画素群単位で論理合成する方法とを適宜採用することが可能である。画素単位で論理合成する方法としては、例えば、一次エッジ抽出データの各画素と、マップデータの各画素とを画素単位で比較し、両データにおいてエッジ部(又は非エッジ部)と判定された画素のみをエッジ部(又は非エッジ部)とする方法を採用可能である。また、画素群単位で論理合成する方法としては、例えば、一次エッジ抽出データ中の4近傍で接続している画素を1つの画素群(クラスタ)とし、画素群を構成する画素について一括で論理合成を行う方法を採用可能である。なお、本実施形態の説明において、4近傍で接続する画素からなる画素群とは、1つの中心画素と、その4近傍(左右上下)に位置する4つの周辺画素からなる画素群を意味している。また、一括で論理合成を行う方法としては、例えば、一次エッジ抽出データにおける画素群に対応するマップデータにおける画素群について、その平均値(第1のマップ化処理においては分散値の平均値、第2のマップ化処理においては画素数の平均値、第3のマップ化処理においては分散値及び/又は画素数の平均値)を算出し、該算出した平均値と予め定めた任意の閾値とを比較することで、画素群単位でエッジ部(又は非エッジ部)を判定する手法を採用可能である。上述の説明では、4近傍で接続している画素を1つの画素群とするものとして説明したが、これに限定されるものではなく、画素群は、任意の画素数及び画素配置からなる画素群とすることが可能である。 Here, as the logic synthesis process in the edge logic synthesis processing unit 18c, for example, a method of logic synthesis in pixel units and a method of logic synthesis in pixel group units composed of a plurality of adjacent pixels can be appropriately adopted. Is. As a method of logic synthesis in pixel units, for example, each pixel of the primary edge extraction data and each pixel of the map data are compared in pixel units, and a pixel determined to be an edge portion (or non-edge portion) in both data. It is possible to adopt a method in which only the edge portion (or non-edge portion) is used. Further, as a method of logically synthesizing in pixel group units, for example, pixels connected in the vicinity of 4 in the primary edge extraction data are regarded as one pixel group (cluster), and the pixels constituting the pixel group are collectively logically synthesized. It is possible to adopt the method of doing. In the description of the present embodiment, the pixel group consisting of pixels connected in the vicinity of four means a pixel group consisting of one central pixel and four peripheral pixels located in the vicinity of the four neighborhoods (left, right, top and bottom). There is. Further, as a method of performing logical composition in a batch, for example, the average value of the pixel group in the map data corresponding to the pixel group in the primary edge extraction data (the average value of the variance values in the first mapping process, the first In the mapping process of 2, the average value of the number of pixels is calculated, and in the third mapping process, the dispersion value and / or the average value of the number of pixels) is calculated, and the calculated average value and an arbitrary threshold value set in advance are set. By comparing, it is possible to adopt a method of determining the edge portion (or non-edge portion) for each pixel group. In the above description, the pixels connected in the vicinity of 4 are regarded as one pixel group, but the present invention is not limited to this, and the pixel group is a pixel group having an arbitrary number of pixels and a pixel arrangement. It is possible to

色分版処理部16は、入力部12を介して入力された多値画像データ又はラスター変換処理部14によってラスター変換された多値画像データを、シアン成分の多値画像データと、マゼンタ成分の多値画像データと、イエロー成分の多値画像データと、ブラック成分の多値画像データとに分版するよう構成されている。なお、色分版処理部16で実行する色分版処理は、種々の公知の処理手法を採用可能であるため、その詳細な説明を省略する。 The color separation processing unit 16 uses the multi-value image data input via the input unit 12 or the multi-value image data raster-converted by the raster conversion processing unit 14 as the multi-value image data of the cyan component and the magenta component. It is configured to be divided into a multi-value image data, a multi-value image data of a yellow component, and a multi-value image data of a black component. Since various known processing methods can be adopted for the color separation processing executed by the color separation processing unit 16, detailed description thereof will be omitted.

階調変換処理部20は、色分版処理部16によって色分版された4色分の多値画像データに対して、エッジ抽出部18によって生成された二次エッジ抽出データを用いてそれぞれ階調変換処理を実行することで、各多値画像データを印刷用の二値画像データ(ビットマップデータ)にそれぞれ変換するよう構成されている。また、階調変換処理部20は、生成した印刷用の二値画像データを記憶部24に記憶させるよう構成されている。 The gradation conversion processing unit 20 uses the secondary edge extraction data generated by the edge extraction unit 18 for the multi-valued image data for four colors color-coded by the color separation processing unit 16 to each floor. By executing the key conversion process, each multi-valued image data is converted into binary image data (bitmap data) for printing. Further, the gradation conversion processing unit 20 is configured to store the generated binary image data for printing in the storage unit 24.

ここで、本実施形態に係る階調変換処理部20では、エッジ抽出部18によりエッジ部分であると判定された部分に対する階調変換処理と、エッジ抽出部18により非エッジ部分(エッジ部分ではない部分)であると判定された部分に対する階調変換処理とを、それぞれ異なる条件下で実行するよう構成されている。具体的には、階調変換処理部20は、図7に示すように、エッジ抽出部18によりエッジ部分であると判定された部分を対象として、階調変換処理を実行するエッジ部量子化処理部20aと、エッジ抽出部18により非エッジ部分であると判定された部分を対象として、階調変換処理を実行する非エッジ部量子化処理部20bと、エッジ部量子化処理部20aにより処理された量子化データと、非エッジ部量子化処理部20bにより処理された量子化データとを論理合成(AND,NOR等)することで、印刷用の二値画像データを生成する量子化論理合成処理部20cとを備えている。 Here, in the gradation conversion processing unit 20 according to the present embodiment, the gradation conversion processing for the portion determined to be the edge portion by the edge extraction unit 18 and the non-edge portion (not the edge portion) by the edge extraction unit 18 are performed. It is configured to execute the gradation conversion process for the portion determined to be the portion) under different conditions. Specifically, as shown in FIG. 7, the gradation conversion processing unit 20 performs an edge portion quantization process for executing a gradation conversion process on a portion determined to be an edge portion by the edge extraction unit 18. The non-edge portion quantization processing unit 20b and the edge portion quantization processing unit 20a that execute the gradation conversion process target the portion 20a and the portion determined to be the non-edge portion by the edge extraction unit 18. Quantization logic synthesis processing to generate binary image data for printing by logically synthesizing (AND, NOR, etc.) the quantized data and the quantized data processed by the non-edge part quantization processing unit 20b. It is provided with a part 20c.

ここで、異なる条件としては、例えば、誤差拡散法により二値化する際の閾値を、エッジ部と非エッジ部とで異なる値とすることが挙げられる。例えば、エッジ部を誤差拡散法により二値化する際の閾値を、非エッジ部を誤差拡散法により二値化する際の閾値よりも低く設定した場合には、本来エッジ部となるべき画素の「0」値化(消失)を抑制することが可能となるため、エッジ部を鮮明に再現することが可能となる。なお、異なる閾値を用いて誤差拡散法で階調変換処理(二値化処理)する例以外にも、例えば、エッジ部をディザ法(例えば組織的ディザ法)で処理し、非エッジ部を誤差拡散法で処理する等、エッジ部と非エッジ部とで異なる手法により階調変換処理するようにしても良い。本実施形態に係る階調変換処理部20では、このように、エッジ部と非エッジ部とを互いに独立して階調変換処理可能としたことにより、エッジ部と非エッジ部とのそれぞれについて、最適な条件の下で階調変換処理を実行することが可能となるため、非エッジ部の画像の流麗さとエッジ部の画像の鮮明さを両立させた二値画像データを生成することが可能となる。 Here, as different conditions, for example, the threshold value at the time of binarization by the error diffusion method may be set to a different value between the edge portion and the non-edge portion. For example, if the threshold value for binarizing the edge portion by the error diffusion method is set lower than the threshold value for binarizing the non-edge portion by the error diffusion method, the pixel that should originally be the edge portion Since it is possible to suppress the value conversion (disappearance) of "0", it is possible to clearly reproduce the edge portion. In addition to the example of gradation conversion processing (binarization processing) by the error diffusion method using different threshold values, for example, the edge portion is processed by the dither method (for example, the systematic dither method), and the non-edge portion is errored. The gradation conversion processing may be performed by different methods for the edge portion and the non-edge portion, such as processing by the diffusion method. In the gradation conversion processing unit 20 according to the present embodiment, the edge portion and the non-edge portion can be subjected to the gradation conversion processing independently of each other in this way, so that each of the edge portion and the non-edge portion can be processed. Since it is possible to execute the gradation conversion process under the optimum conditions, it is possible to generate binary image data that has both the smoothness of the image in the non-edge portion and the sharpness of the image in the edge portion. Become.

次に、本実施形態に係る画像処理装置を用いた画像処理方法について、図8及び図9を用いて説明する。なお、以下で説明する画像処理方法は、画像処理装置1の記憶部24に格納された画像処理プログラムによって実行処理される。 Next, an image processing method using the image processing apparatus according to the present embodiment will be described with reference to FIGS. 8 and 9. The image processing method described below is executed by an image processing program stored in the storage unit 24 of the image processing device 1.

本実施形態に係る画像処理方法では、図8に示すように、まず、他の情報処理端末や記憶媒体等から入稿画像データ(元画像データ)の入力を受け付け、この入稿画像データが多値画像データではない場合には、ラスター変換処理部14にて多値画像データに変換する(S1)。 In the image processing method according to the present embodiment, as shown in FIG. 8, first, input of submitted image data (original image data) is received from another information processing terminal, storage medium, etc., and the submitted image data is large. If it is not value image data, the raster conversion processing unit 14 converts it into multi-value image data (S1).

続いて、本実施形態に係る画像処理方法では、入力部12を介して入力された多値画像データ又はラスター変換処理部14によってラスター変換された多値画像データについて、エッジ抽出処理を実行する(エッジ抽出工程)。具体的には、まず、多値画像データに対し、一次微分フィルタ又は二次微分フィルタを用いてエッジ抽出処理を実行する(一次エッジ抽出工程S2)。また、その前後又は一次エッジ抽出工程と並行して、多値画像データを構成する画素のそれぞれについて、所定範囲内における複数の画素を統計対象として輝度のばらつきを算出し、この算出したばらつきを所定の閾値と比較することで、多値画像データを構成する画素の輝度のばらつきをマップ化する(マップ化処理工程S3)。そして、これら一次エッジ抽出工程及びマップ化処理工程が完了した後に、一次エッジ抽出工程によりエッジ部分が抽出された一次エッジ抽出データと、マップ化処理工程によって生成された輝度のばらつきを示すマップデータとを論理合成することで、輝度のばらつきが反映された二次エッジ抽出データを生成する(エッジ論理合成処理工程S4)。 Subsequently, in the image processing method according to the present embodiment, edge extraction processing is executed for the binary image data input via the input unit 12 or the binary image data raster-converted by the raster conversion processing unit 14 ( Edge extraction process). Specifically, first, an edge extraction process is executed on the multi-valued image data using a first-order differential filter or a second-order differential filter (first-order edge extraction step S2). Further, before and after that or in parallel with the primary edge extraction step, for each of the pixels constituting the multi-valued image data, a variation in brightness is calculated for each of a plurality of pixels within a predetermined range as statistical targets, and the calculated variation is determined. By comparing with the threshold value of, the variation in the brightness of the pixels constituting the multi-valued image data is mapped (mapping processing step S3). Then, after the primary edge extraction step and the mapping processing step are completed, the primary edge extraction data in which the edge portion is extracted by the primary edge extraction step and the map data showing the variation in brightness generated by the mapping processing step are obtained. By logically synthesizing the above, secondary edge extraction data reflecting the variation in brightness is generated (edge logical synthesis processing step S4).

ここで、マップ化処理工程(S3)について、図9を用いて詳述する。マップ化処理工程は、上述した第1のマップ化処理、第2のマップ化処理及び第3のマップ化処理のいずれかの処理を実行する工程である。具体的には、まず、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として、輝度の分散値若しくは/及び所定の閾値以上(又は未満)の輝度を有する画素の個数(第1のマップ化処理の場合には輝度の分散値、第2のマップ化処理の場合には所定輝度以上の画素数、第3のマップ化処理の場合には輝度の分散値と所定輝度以上の画素数の双方)を算出する(S3−1)。続いて、算出された分散値又は/及び所定輝度以上の画素数が所定の閾値以上(又は未満)であるか否かを判定する(S3−2)。そして、当該判定によって所定の閾値以上であると判定された画素については、エッジ部を構成する画素と判定し(S3−3)、所定の閾値未満であると判定された画素については、非エッジ部を構成する画素(エッジ部を構成しない画素)と判定する(S3−3’)。その後、未処理の画素が存在する場合には、未処理画素へ移行して上記S3−1〜S3−3,S3−3’の処理を実行する(S3−4,S3−5)。そして、多値画像データを構成する全ての画素について処理が完了した場合には、第1〜第3のマップ化処理のいずれかによってエッジ部又は非エッジ部と判定された画素の分布情報(位置情報)を、画素の輝度のばらつきをマップ化したマップデータとして、記憶部24に保存する(S3−4,S3−6)。以上のS3−1〜S3−6の工程により、マップ化処理工程が実行される。 Here, the mapping processing step (S3) will be described in detail with reference to FIG. The mapping process step is a step of executing any of the above-mentioned first mapping process, second mapping process, and third mapping process. Specifically, first, the number of pixels having a brightness dispersion value and / or a brightness equal to or higher than (or less than) a predetermined threshold value is set as a statistical target for a plurality of pixels within a predetermined range centered on the pixel to be determined. (In the case of the first mapping process, the brightness dispersion value, in the case of the second mapping process, the number of pixels equal to or greater than the predetermined brightness, and in the case of the third mapping process, the brightness dispersion value and the predetermined brightness. Both of the above number of pixels) are calculated (S3-1). Subsequently, it is determined whether or not the calculated dispersion value and / and the number of pixels having a predetermined brightness or more is equal to or less than (or less than) a predetermined threshold value (S3-2). Then, the pixels determined to be equal to or higher than the predetermined threshold value are determined to be the pixels constituting the edge portion (S3-3), and the pixels determined to be less than the predetermined threshold value are non-edge. It is determined that it is a pixel that constitutes a portion (a pixel that does not constitute an edge portion) (S3-3'). After that, if there are unprocessed pixels, the process shifts to the unprocessed pixels and the processing of S3-1 to S3-3 and S3-3'is executed (S3-4, S3-5). Then, when the processing is completed for all the pixels constituting the multi-valued image data, the distribution information (position) of the pixels determined to be the edge portion or the non-edge portion by any of the first to third mapping processes. Information) is stored in the storage unit 24 as map data in which the variation in the brightness of the pixels is mapped (S3-4, S3-6). The mapping processing step is executed by the above steps S3-1 to S3-6.

また、本実施形態に係る画像処理方法では、エッジ抽出工程の前後又はこれと並行して、色分版処理部16にて、入力部12を介して入力された多値画像データ又はラスター変換処理部14によってラスター変換された多値画像データを、シアン成分の多値画像データと、マゼンタ成分の多値画像データと、イエロー成分の多値画像データと、ブラック成分の多値画像データとに分版する(S4)。 Further, in the image processing method according to the present embodiment, the multi-valued image data or raster conversion processing input via the input unit 12 in the color separation processing unit 16 before or after or in parallel with the edge extraction step. The multi-valued image data rasterized by Part 14 is divided into multi-valued image data of cyan component, multi-valued image data of magenta component, multi-valued image data of yellow component, and multi-valued image data of black component. Print (S4).

続いて、本実施形態に係る画像処理方法では、図8に示すように、エッジ論理合成処理工程によって生成された共通の二次エッジ抽出データに基づき、4色の多値画像データについてそれぞれ階調変換処理を実行することで、各多値画像データを二値画像データに変換する(階調変換処理工程)。具体的には、二次エッジ抽出データにおいてエッジ部とされている画素に対する階調変換処理(量子化処理)を実行すると共に(エッジ部量子化処理工程S6)、その前後又はこれと並行して、二次エッジ抽出データにおいて非エッジ部とされている画素に対する階調変換処理(量子化処理)を実行する(非エッジ部量子化処理工程S7)。なお、エッジ部に対する階調変換処理と、非エッジ部に対する階調変換処理とは、それぞれ適した処理条件が異なることから、本実施形態に係る画像処理方法では、これらの処理はそれぞれ異なる条件下(例えば、それぞれの処理に適した異なる閾値や二値化手法)で実行される。そして、これらエッジ部量子化処理及び非エッジ部量子化処理が完了した後に、エッジ部量子化処理により処理された量子化データと、非エッジ部量子化処理により処理された量子化データとを論理合成することで、印刷用の二値画像データを生成する(量子化論理合成処理工程S8)。 Subsequently, in the image processing method according to the present embodiment, as shown in FIG. 8, gradation is obtained for each of the four-color multi-valued image data based on the common secondary edge extraction data generated by the edge logic synthesis processing step. By executing the conversion process, each multi-valued image data is converted into binary image data (gradation conversion processing step). Specifically, a gradation conversion process (quantization process) is performed on a pixel that is an edge portion in the secondary edge extraction data (edge portion quantization process step S6), and before, after, or in parallel with this. , The gradation conversion process (quantization process) for the pixel which is regarded as the non-edge portion in the secondary edge extraction data is executed (non-edge portion quantization process step S7). Since the gradation conversion processing for the edge portion and the gradation conversion processing for the non-edge portion have different suitable processing conditions, in the image processing method according to the present embodiment, these processings have different conditions. (For example, different thresholds and binarization methods suitable for each process) are executed. Then, after the edge portion quantization processing and the non-edge portion quantization processing are completed, the quantization data processed by the edge portion quantization processing and the quantization data processed by the non-edge portion quantization processing are logically processed. By synthesizing, binary image data for printing is generated (quantization logic synthesis processing step S8).

最後に、本実施形態に係る画像処理方法では、以上のS1〜S8の工程によって生成された印刷用の二値画像データを記憶部24に保存し(S9)、デジタル印刷装置100に二値画像データを提供するために必要な種々の処理(例えば面付け処理等)を実行した後、デジタル印刷装置100のプリントヘッド制御部104へ出力する(S10)。 Finally, in the image processing method according to the present embodiment, the binary image data for printing generated by the above steps S1 to S8 is stored in the storage unit 24 (S9), and the binary image is stored in the digital printing apparatus 100. After executing various processes (for example, imposition processing) necessary for providing data, the data is output to the printhead control unit 104 of the digital printing apparatus 100 (S10).

以上説明したとおり、本実施形態に係る画像処理装置1は、多値画像データをデジタル印刷装置100で使用可能な二値画像データに変換する画像処理装置1であって、多値画像データに対して、エッジ抽出処理を実行するエッジ抽出部18と、エッジ抽出部18によりエッジ抽出処理が実行された多値画像データに対して階調変換処理を実行することで、多値画像データを二値画像データに変換する階調変換処理部20とを備え、エッジ抽出部18が、多値画像データに対し、一次微分フィルタ又は二次微分フィルタを用いてエッジ抽出処理を実行する一次エッジ抽出部18aと、多値画像データを構成する画素のそれぞれについて、所定範囲内における複数の画素を統計対象として輝度のばらつきを算出し、算出したばらつきを所定の閾値と比較することで、多値画像データを構成する画素の輝度のばらつきをマップ化するマップ化処理部18bと、一次エッジ抽出部18aによりエッジ部分が抽出された一次エッジ抽出データと、マップ化処理部18bによって生成された輝度のばらつきを示すマップデータとを論理合成することで、輝度のばらつきが反映された二次エッジ抽出データを生成するエッジ論理合成処理部18cとを備えている。 As described above, the image processing device 1 according to the present embodiment is an image processing device 1 that converts multi-valued image data into binary image data that can be used in the digital printing device 100, and is used for the multi-valued image data. Then, the edge extraction unit 18 that executes the edge extraction process and the multi-value image data for which the edge extraction process is executed by the edge extraction unit 18 are subjected to the gradation conversion process to convert the multi-value image data into binary. The primary edge extraction unit 18a is provided with a gradation conversion processing unit 20 for converting into image data, and the edge extraction unit 18 executes edge extraction processing on the multi-valued image data using a primary differential filter or a secondary differential filter. And, for each of the pixels constituting the binary image data, the variation in brightness is calculated with a plurality of pixels within a predetermined range as statistical targets, and the calculated variation is compared with a predetermined threshold to obtain the binary image data. The mapping processing unit 18b that maps the variation in the brightness of the constituent pixels, the primary edge extraction data in which the edge portion is extracted by the primary edge extraction unit 18a, and the variation in the brightness generated by the mapping processing unit 18b are shown. It includes an edge logic composition processing unit 18c that generates secondary edge extraction data reflecting variations in brightness by logically synthesizing the map data.

このように構成された本実施形態に係る画像処理装置1によれば、通常のエッジ抽出処理によってエッジ部が抽出された一次エッジ抽出データに、輝度のばらつきを示すマップデータの情報を反映させることにより、単純な輝度差だけでなく、輝度の空間分布特性(輝度の連続性や離散性等)や色味の空間分布特性(色味の比率等)をも考慮してエッジ部を特定することが可能となるため、高精度なエッジ抽出を実現することが可能である。すなわち、本実施形態に係る画像処理装置1では、隣接する画素との輝度差が大きい画素を直ちに「エッジ部」とするのではなく、あくまでも「エッジ部」の候補として留めておき、これら「エッジ部」の候補のうち、その周辺に異なった(あるいは離散した)輝度や色味がある程度存在する画素のみを「エッジ部」として特定することが可能となるため、特に図5(b)と図5(d)とを比較することで明らかなとおり、エッジ部の誤検出を抑制し、エッジ部を正確に抽出することが可能となる。また、本実施形態に係る画像処理装置1によれば、例えば同程度の輝度を有する異なる色の境についても、エッジ部として抽出することが可能となる。 According to the image processing apparatus 1 according to the present embodiment configured in this way, the information of the map data indicating the variation in brightness is reflected in the primary edge extraction data in which the edge portion is extracted by the normal edge extraction process. Therefore, the edge portion should be specified by considering not only the simple brightness difference but also the spatial distribution characteristics of brightness (continuity and discreteness of brightness, etc.) and the spatial distribution characteristics of tint (ratio of tint, etc.). Therefore, it is possible to realize highly accurate edge extraction. That is, in the image processing apparatus 1 according to the present embodiment, pixels having a large brightness difference from adjacent pixels are not immediately set as "edge portions", but are retained as candidates for "edge portions", and these "edges" are retained. Of the candidates for the "part", only the pixels having different (or discrete) brightness and color to some extent around them can be specified as the "edge part". Therefore, in particular, FIG. 5 (b) and FIG. As is clear from the comparison with 5 (d), it is possible to suppress erroneous detection of the edge portion and accurately extract the edge portion. Further, according to the image processing apparatus 1 according to the present embodiment, it is possible to extract, for example, boundaries of different colors having the same brightness as edge portions.

また、本実施形態に係る画像処理装置1は、上述のとおり、階調変換処理部20が、エッジ抽出部18によりエッジ部分であると判定された部分に対する階調変換処理と、エッジ抽出部18により非エッジ部分であると判定された部分に対する階調変換処理とを、それぞれ異なる条件下で実行するよう構成されている。このように構成された本実施形態に係る画像処理装置1によれば、エッジ部と非エッジ部とを互いに独立して階調変換処理可能としたことにより、エッジ部と非エッジ部とのそれぞれについて、最適な条件の下で階調変換処理を実行することが可能となるため、図10(b)と図10(c)とを比較することで明らかなとおり、非エッジ部の画像の流麗さとエッジ部の画像の鮮明さを両立させた二値画像データを生成することが可能となる。なお、図10(a)は、多値画像データである元画像を示しており、図10(b)は、元画像データの全体を従来の誤差拡散法により階調変換した二値画像データを示しており、図10(c)は、本実施形態に係る画像処理装置1により階調変換した二値画像データを示している。 Further, in the image processing device 1 according to the present embodiment, as described above, the gradation conversion processing unit 20 performs gradation conversion processing on a portion determined by the edge extraction unit 18 to be an edge portion, and the edge extraction unit 18 It is configured to execute the gradation conversion process for the portion determined to be the non-edge portion under different conditions. According to the image processing apparatus 1 according to the present embodiment configured in this way, the edge portion and the non-edge portion can be subjected to gradation conversion processing independently of each other, so that the edge portion and the non-edge portion can be processed respectively. Since it is possible to execute the gradation conversion process under the optimum conditions, as is clear from the comparison between FIGS. 10 (b) and 10 (c), the flow of the image in the non-edge portion is flowing. It is possible to generate binary image data that has both the sharpness of the image at the edge portion and the sharpness of the image at the edge portion. Note that FIG. 10A shows an original image which is multi-valued image data, and FIG. 10B shows binary image data obtained by gradation-converting the entire original image data by a conventional error diffusion method. FIG. 10 (c) shows binary image data that has been gradation-converted by the image processing device 1 according to the present embodiment.

特に、本実施形態に係る画像処理装置1は、上述のとおり、エッジ部に対する階調変換処理と、非エッジ部に対する階調変換処理とを別々に実行した後に、これらの処理で得られた量子化データを合成して、二値画像データを生成するよう構成されている。このように構成された画像処理装置1によれば、非エッジ部に対して行った量子化の影響(誤差拡散等)がエッジ部に及ぶことが無く、また、エッジ部に対して行った量子化の影響(誤差拡散等)が非エッジ部に及ぶことも無いため、エッジ部と非エッジ部との間における色味や輝度の相互干渉を排することが可能となる。そして、このように、エッジ部と非エッジ部との間における色味や輝度の相互干渉を排することにより、マルチトーン処理時に考慮すべき小さい文字部の色等の再現性が量子化後も維持可能となる。 In particular, the image processing apparatus 1 according to the present embodiment separately executes the gradation conversion processing for the edge portion and the gradation conversion processing for the non-edge portion as described above, and then the quantum obtained by these processes. It is configured to combine the quantized data to generate binary image data. According to the image processing apparatus 1 configured in this way, the influence of the quantization performed on the non-edge portion (error diffusion, etc.) does not extend to the edge portion, and the quantum performed on the edge portion. Since the influence of the conversion (error diffusion, etc.) does not extend to the non-edge portion, it is possible to eliminate mutual interference of color and brightness between the edge portion and the non-edge portion. By eliminating the mutual interference of color and brightness between the edge portion and the non-edge portion in this way, the reproducibility of the color of the small character portion, which should be considered in the multitone processing, is maintained even after quantization. It becomes sustainable.

以上、本発明の好適な実施形態について説明したが、本発明の技術的範囲は、上述した実施形態に記載の範囲には限定されない。上記各実施形態には、多様な変更又は改良を加えることが可能である。 Although the preferred embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the scope described in the above-described embodiments. Various changes or improvements can be made to each of the above embodiments.

例えば、上述した実施形態では、マップ化処理部18bにおけるマップ化処理として、第1〜第3のマップ化処理を例示したが、これらに限定されるものではなく、多値画像データを構成する画素の輝度のばらつきをマップ化することが可能な処理であれば、種々の処理方法を採用することが可能である。 For example, in the above-described embodiment, the first to third mapping processes are exemplified as the mapping process in the mapping processing unit 18b, but the present invention is not limited to these, and the pixels constituting the multi-valued image data are not limited thereto. Various processing methods can be adopted as long as the processing can map the variation in the brightness of the above.

また、上述した実施形態では、色分版前の多値画像データについてエッジ抽出処理を実行し、これで得られた二次エッジ抽出データを分版後の各色の多値画像データの階調変換処理において共通して用いるものとして説明したが、これに限定されるものではない。例えば、色分版を行った後の各色の多値画像データのそれぞれについて、エッジ抽出処理を実行し、それぞれ得られた二次エッジ抽出データを用いて、各色の多値画像データについて階調変換処理を行う構成としても良い。 Further, in the above-described embodiment, the edge extraction process is executed on the multi-valued image data before color separation, and the secondary edge extraction data obtained by this is subjected to gradation conversion of the multi-valued image data of each color after color separation. Although it has been described as being commonly used in processing, it is not limited to this. For example, edge extraction processing is executed for each of the multi-valued image data of each color after color separation, and the obtained secondary edge extraction data is used for gradation conversion of the multi-valued image data of each color. It may be configured to perform processing.

さらに、上述した実施形態では、階調変換処理において、二次エッジ抽出データにおいてエッジ部と判定された画素を対象としたエッジ部量子化処理と、二次エッジ抽出データにおいて非エッジ部と判定された画素を対象とした非エッジ部量子化処理とを別々に実行し、これらの処理で得られた量子化データを論理合成することで、二値画像データを生成するものとしたが、これに限定されるものではない。例えば、画素配列に沿って走査する過程において、処理対象となる画素毎に二次エッジ抽出データを参照してエッジ部であるか非エッジ部であるかを判定し、その判定結果に応じてエッジ部量子化処理と非エッジ部量子化処理とのいずれか一方を選択して実行するとしても良い。この場合には、誤差拡散法の演算処理が若干複雑になるものの、2つの量子化データを論理合成する処理が不要となるという利点がある。 Further, in the above-described embodiment, in the gradation conversion process, the edge portion quantization process for the pixel determined to be the edge portion in the secondary edge extraction data and the non-edge portion are determined in the secondary edge extraction data. Binary image data was generated by executing the non-edge part quantization processing for the pixels separately and logically synthesizing the quantization data obtained by these processing. It is not limited. For example, in the process of scanning along the pixel array, it is determined whether the pixel is an edge portion or a non-edge portion by referring to the secondary edge extraction data for each pixel to be processed, and the edge is determined according to the determination result. Either one of the partial quantization process and the non-edge portion quantization process may be selected and executed. In this case, although the arithmetic processing of the error diffusion method becomes slightly complicated, there is an advantage that the processing of logically synthesizing the two quantized data becomes unnecessary.

上記のような変形例が本発明の範囲に含まれることは、特許請求の範囲の記載から明らかである。 It is clear from the description of the claims that the above-mentioned modifications are included in the scope of the present invention.

1 画像処理装置、18 エッジ抽出部、18a 一次エッジ抽出部、18b マップ化処理部、18c エッジ論理合成処理部、20 階調変換処理部、20a エッジ部量子化処理部、20b 非エッジ部量子化処理部、20c 量子化論理合成処理部、100 デジタル印刷装置 1 Image processing device, 18 edge extraction unit, 18a primary edge extraction unit, 18b mapping processing unit, 18c edge logic synthesis processing unit, 20 gradation conversion processing unit, 20a edge part quantization processing unit, 20b non-edge part quantization Processing unit, 20c quantization logic synthesis processing unit, 100 digital printing device

Claims (15)

多値画像データをデジタル印刷装置で使用可能な二値画像データに変換する画像処理装置であって、
多値画像データに対して、エッジ抽出処理を実行するエッジ抽出部と、
前記エッジ抽出部によりエッジ抽出処理が実行された前記多値画像データに対して階調変換処理を実行することで、該多値画像データを二値画像データに変換する階調変換処理部と
を備え、
前記エッジ抽出部は、
前記多値画像データに対し、一次微分フィルタ又は二次微分フィルタを用いてエッジ抽出処理を実行する一次エッジ抽出部と、
前記多値画像データを構成する画素のそれぞれについて、所定範囲内における複数の画素を統計対象として輝度のばらつきを算出し、該算出したばらつきを所定の閾値と比較することで、前記多値画像データを構成する画素の輝度のばらつきをマップ化するマップ化処理部と、
前記一次エッジ抽出部によりエッジ部分が抽出された一次エッジ抽出データと、前記マップ化処理部によって生成された輝度のばらつきを示すマップデータとを論理合成することで、輝度のばらつきが反映された二次エッジ抽出データを生成するエッジ論理合成処理部と
を備えることを特徴とする画像処理装置。
An image processing device that converts multi-valued image data into binary image data that can be used in digital printing devices.
An edge extraction unit that executes edge extraction processing for multi-valued image data,
A gradation conversion processing unit that converts the multi-valued image data into binary image data by executing a gradation conversion process on the multi-valued image data for which the edge extraction process has been executed by the edge extraction unit. Prepare,
The edge extraction unit
A primary edge extraction unit that executes edge extraction processing using a primary differential filter or a secondary differential filter on the multi-valued image data.
For each of the pixels constituting the multi-value image data, the variation in brightness is calculated for each of a plurality of pixels within a predetermined range as statistical targets, and the calculated variation is compared with a predetermined threshold to obtain the multi-value image data. A mapping processing unit that maps the variation in brightness of the pixels that make up the
The variation in brightness is reflected by logically synthesizing the primary edge extraction data in which the edge portion is extracted by the primary edge extraction unit and the map data indicating the variation in brightness generated by the mapping processing unit. An image processing device including an edge logic synthesis processing unit that generates next edge extraction data.
前記マップ化処理部は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として輝度の分散値を算出し、該算出された分散値が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化するよう構成されている
ことを特徴とする請求項1に記載の画像処理装置。
The mapping processing unit calculates a luminance dispersion value for a plurality of pixels within a predetermined range centered on a pixel to be determined as statistical targets, and the calculated variance value is equal to or less than a predetermined threshold value. By executing the process of determining whether or not the multi-valued image data is performed for each of the pixels constituting the multi-valued image data, it is configured to map the variation in the brightness of the pixels constituting the multi-valued image data. The image processing apparatus according to claim 1.
前記マップ化処理部は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として、所定の閾値以上又は未満の輝度を有する画素の個数を算出し、該算出された個数が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化するよう構成されている
ことを特徴とする請求項1に記載の画像処理装置。
The mapping processing unit calculates the number of pixels having brightness equal to or less than a predetermined threshold with a plurality of pixels within a predetermined range centered on the pixel to be determined as statistical targets, and the calculated number of pixels. By executing the process of determining whether or not is equal to or less than a predetermined threshold value for each of the pixels constituting the multi-valued image data, the variation in the brightness of the pixels constituting the multi-valued image data is mapped. The image processing apparatus according to claim 1, wherein the image processing apparatus is configured to be the same.
前記マップ化処理部は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として、輝度の分散値と、所定の閾値以上又は未満の輝度を有する画素の個数とを算出し、該算出された分散値及び個数の双方が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化するよう構成されている
ことを特徴とする請求項1に記載の画像処理装置。
The mapping processing unit calculates the dispersion value of brightness and the number of pixels having brightness equal to or less than a predetermined threshold, with a plurality of pixels within a predetermined range centered on the pixel to be determined as statistical targets. Then, by executing the process of determining whether or not both the calculated dispersion value and the number are equal to or less than a predetermined threshold value for each of the pixels constituting the multi-valued image data, the multi-valued value is obtained. The image processing apparatus according to claim 1, wherein the variation in brightness of pixels constituting the image data is configured to be mapped.
前記階調変換処理部は、前記エッジ抽出部によりエッジ部分であると判定された部分に対する階調変換処理と、前記エッジ抽出部により非エッジ部分であると判定された部分に対する階調変換処理とを、それぞれ異なる条件下で実行するよう構成されている
ことを特徴とする請求項1乃至4いずれか1項に記載の画像処理装置。
The gradation conversion processing unit includes gradation conversion processing for a portion determined to be an edge portion by the edge extraction unit, and gradation conversion processing for a portion determined to be a non-edge portion by the edge extraction unit. The image processing apparatus according to any one of claims 1 to 4, wherein the image processing apparatus is configured to be executed under different conditions.
前記階調変換処理部は、
前記エッジ抽出部によりエッジ部分であると判定された部分を対象として、階調変換処理を実行するエッジ部量子化処理部と、
前記エッジ抽出部により非エッジ部分であると判定された部分を対象として、階調変換処理を実行する非エッジ部量子化処理部と、
前記エッジ部量子化処理部により処理された量子化データと、前記非エッジ部量子化処理部により処理された量子化データとを論理合成することで、前記二値画像データを生成する量子化論理合成処理部と
を備える
ことを特徴とする請求項5に記載の画像処理装置。
The gradation conversion processing unit
An edge portion quantization processing unit that executes gradation conversion processing for a portion determined to be an edge portion by the edge extraction unit,
A non-edge portion quantization processing unit that executes gradation conversion processing for a portion determined to be a non-edge portion by the edge extraction unit, and
Quantization logic that generates the binary image data by logically synthesizing the quantization data processed by the edge portion quantization processing unit and the quantization data processed by the non-edge portion quantization processing unit. The image processing apparatus according to claim 5, further comprising a compositing processing unit.
前記エッジ部分に対する階調変換処理と、前記非エッジ部分に対する階調変換処理とは、互いに異なる閾値を基準とした誤差拡散法に基づく階調変換処理である
ことを特徴とする請求項5又は6に記載の画像処理装置。
Claim 5 or 6 is characterized in that the gradation conversion process for the edge portion and the gradation conversion process for the non-edge portion are gradation conversion processes based on an error diffusion method based on different threshold values. The image processing apparatus according to.
多値画像データをデジタル印刷装置で使用可能な二値画像データに変換する画像処理を、画像処理装置に実行させる画像処理プログラムであって、
前記画像処理装置に、
多値画像データに対して、エッジ抽出処理を実行するエッジ抽出工程と、
前記エッジ抽出工程によりエッジ抽出処理が実行された前記多値画像データに対して階調変換処理を実行することで、該多値画像データを二値画像データに変換する階調変換処理工程と
を実行させ、
前記エッジ抽出工程は、
前記多値画像データに対し、一次微分フィルタ又は二次微分フィルタを用いてエッジ抽出処理を実行する一次エッジ抽出工程と、
前記多値画像データを構成する画素のそれぞれについて、所定範囲内における複数の画素を統計対象として輝度のばらつきを算出し、該算出したばらつきを所定の閾値と比較することで、前記多値画像データを構成する画素の輝度のばらつきをマップ化するマップ化処理工程と、
前記一次エッジ抽出工程によりエッジ部分が抽出された一次エッジ抽出データと、前記マップ化処理工程によって生成された輝度のばらつきを示すマップデータとを論理合成することで、輝度のばらつきが反映された二次エッジ抽出データを生成するエッジ論理合成処理工程と
を含むことを特徴とする画像処理プログラム。
An image processing program that causes an image processing device to execute image processing that converts multi-valued image data into binary image data that can be used in a digital printing device.
In the image processing device
An edge extraction process that executes edge extraction processing for multi-valued image data,
A gradation conversion processing step of converting the multi-valued image data into binary image data by executing a gradation conversion process on the multi-valued image data for which the edge extraction process has been executed by the edge extraction step. Let it run
The edge extraction step
A primary edge extraction step of executing an edge extraction process using a primary differential filter or a secondary differential filter on the multi-valued image data, and
For each of the pixels constituting the multi-value image data, the variation in brightness is calculated for each of a plurality of pixels within a predetermined range as statistical targets, and the calculated variation is compared with a predetermined threshold to obtain the multi-value image data. A mapping process that maps the variation in brightness of the pixels that make up the
The variation in brightness is reflected by logically synthesizing the primary edge extraction data in which the edge portion is extracted by the primary edge extraction step and the map data indicating the variation in brightness generated by the mapping processing step. An image processing program characterized by including an edge logic synthesis processing step for generating next edge extraction data.
前記マップ化処理工程は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として輝度の分散値を算出し、該算出された分散値が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化する工程を含む
ことを特徴とする請求項8に記載の画像処理プログラム。
In the mapping processing step, the brightness dispersion value is calculated for a plurality of pixels within a predetermined range centered on the pixel to be determined as statistical targets, and the calculated dispersion value is equal to or less than a predetermined threshold value. It is characterized by including a step of mapping the variation in brightness of the pixels constituting the multi-valued image data by executing the process of determining whether or not the multi-valued image data is performed for each of the pixels constituting the multi-valued image data. The image processing program according to claim 8.
前記マップ化処理工程は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として、所定の閾値以上又は未満の輝度を有する画素の個数を算出し、該算出された個数が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化する工程を含む
ことを特徴とする請求項8に記載の画像処理プログラム。
In the mapping processing step, the number of pixels having a brightness equal to or less than a predetermined threshold is calculated for a plurality of pixels within a predetermined range centered on the pixel to be determined, and the calculated number of pixels is calculated. By executing the process of determining whether or not is equal to or less than a predetermined threshold value for each of the pixels constituting the multi-valued image data, the variation in the brightness of the pixels constituting the multi-valued image data is mapped. The image processing program according to claim 8, further comprising a step of converting.
前記マップ化処理工程は、判定対象となる画素を中心とした所定範囲内における複数の画素を統計対象として、輝度の分散値と、所定の閾値以上又は未満の輝度を有する画素の個数とを算出し、該算出された分散値及び個数の双方が所定の閾値以上又は未満であるか否かを判定する処理を、前記多値画像データを構成する画素のそれぞれについて実行することで、該多値画像データを構成する画素の輝度のばらつきをマップ化する工程を含む
ことを特徴とする請求項8に記載の画像処理プログラム。
In the mapping processing step, the dispersion value of the brightness and the number of pixels having the brightness equal to or less than the predetermined threshold are calculated by setting a plurality of pixels within a predetermined range centering on the pixel to be determined as statistical targets. Then, by executing the process of determining whether or not both the calculated dispersion value and the number are equal to or less than a predetermined threshold value for each of the pixels constituting the multi-valued image data, the multi-valued value is obtained. The image processing program according to claim 8, further comprising a step of mapping variations in brightness of pixels constituting image data.
前記階調変換処理工程は、前記エッジ抽出工程によりエッジ部分であると判定された部分に対する階調変換処理と、前記エッジ抽出工程により非エッジ部分であると判定された部分に対する階調変換処理とを、それぞれ異なる条件下で実行する工程を含む
ことを特徴とする請求項8乃至11いずれか1項に記載の画像処理プログラム。
The gradation conversion processing step includes a gradation conversion process for a portion determined to be an edge portion by the edge extraction step, and a gradation conversion process for a portion determined to be a non-edge portion by the edge extraction step. The image processing program according to any one of claims 8 to 11, further comprising a step of executing the above under different conditions.
前記階調変換処理工程は、
前記エッジ抽出工程によりエッジ部分であると判定された部分を対象として、階調変換処理を実行するエッジ部量子化処理工程と、
前記エッジ抽出工程により非エッジ部分であると判定された部分を対象として、階調変換処理を実行する非エッジ部量子化処理工程と、
前記エッジ部量子化処理工程により処理された量子化データと、前記非エッジ部量子化処理工程により処理された量子化データとを論理合成することで、前記二値画像データを生成する量子化論理合成処理工程と
を含む
ことを特徴とする請求項12に記載の画像処理プログラム。
The gradation conversion processing step is
An edge part quantization processing step of executing a gradation conversion process for a part determined to be an edge part by the edge extraction step, and
A non-edge portion quantization processing step for executing a gradation conversion process for a portion determined to be a non-edge portion by the edge extraction step, and a non-edge portion quantization processing step.
Quantization logic that generates the binary image data by logically synthesizing the quantization data processed by the edge quantization processing step and the quantization data processed by the non-edge quantization processing step. The image processing program according to claim 12, wherein the image processing program includes a synthesis processing step.
前記エッジ部分に対する階調変換処理と、前記非エッジ部分に対する階調変換処理とは、互いに異なる閾値を基準とした誤差拡散法に基づく階調変換処理である
ことを特徴とする請求項12又は13に記載の画像処理プログラム。
Claim 12 or 13 characterized in that the gradation conversion process for the edge portion and the gradation conversion process for the non-edge portion are gradation conversion processes based on an error diffusion method based on different threshold values. The image processing program described in.
多値画像データをデジタル印刷装置で使用可能な二値画像データに変換する画像処理方法であって、
多値画像データに対して、エッジ抽出処理を実行するエッジ抽出工程と、
前記エッジ抽出工程によりエッジ抽出処理が実行された前記多値画像データに対して階調変換処理を実行することで、該多値画像データを二値画像データに変換する階調変換処理工程と
を備え、
前記エッジ抽出工程は、
前記多値画像データに対し、一次微分フィルタ又は二次微分フィルタを用いてエッジ抽出処理を実行する一次エッジ抽出工程と、
前記多値画像データを構成する画素のそれぞれについて、所定範囲内における複数の画素を統計対象として輝度のばらつきを算出し、該算出したばらつきを所定の閾値と比較することで、前記多値画像データを構成する画素の輝度のばらつきをマップ化するマップ化処理工程と、
前記一次エッジ抽出工程によりエッジ部分が抽出された一次エッジ抽出データと、前記マップ化処理工程によって生成された輝度のばらつきを示すマップデータとを論理合成することで、輝度のばらつきが反映された二次エッジ抽出データを生成するエッジ論理合成処理工程と
を備えることを特徴とする画像処理方法。
An image processing method that converts multi-valued image data into binary image data that can be used in digital printing equipment.
An edge extraction process that executes edge extraction processing for multi-valued image data,
A gradation conversion processing step of converting the multi-valued image data into binary image data by executing a gradation conversion process on the multi-valued image data for which the edge extraction process has been executed by the edge extraction step. Prepare,
The edge extraction step
A primary edge extraction step of executing an edge extraction process using a primary differential filter or a secondary differential filter on the multi-valued image data, and
For each of the pixels constituting the multi-value image data, the variation in brightness is calculated for each of a plurality of pixels within a predetermined range as statistical targets, and the calculated variation is compared with a predetermined threshold to obtain the multi-value image data. A mapping process that maps the variation in brightness of the pixels that make up the
The variation in brightness is reflected by logically synthesizing the primary edge extraction data in which the edge portion is extracted by the primary edge extraction step and the map data indicating the variation in brightness generated by the mapping processing step. An image processing method characterized by including an edge logic composition processing step for generating next edge extraction data.
JP2016239119A 2016-12-09 2016-12-09 Image processing device, image processing program and image processing method Expired - Fee Related JP6765103B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016239119A JP6765103B2 (en) 2016-12-09 2016-12-09 Image processing device, image processing program and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016239119A JP6765103B2 (en) 2016-12-09 2016-12-09 Image processing device, image processing program and image processing method

Publications (2)

Publication Number Publication Date
JP2018098552A JP2018098552A (en) 2018-06-21
JP6765103B2 true JP6765103B2 (en) 2020-10-07

Family

ID=62631476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016239119A Expired - Fee Related JP6765103B2 (en) 2016-12-09 2016-12-09 Image processing device, image processing program and image processing method

Country Status (1)

Country Link
JP (1) JP6765103B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7224616B2 (en) * 2018-07-06 2023-02-20 国立大学法人千葉大学 Image processing device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61128385A (en) * 1984-11-27 1986-06-16 Oki Electric Ind Co Ltd Picture processor
JP2002084422A (en) * 2000-09-07 2002-03-22 Murata Mach Ltd Image processor
JP3997507B2 (en) * 2001-08-01 2007-10-24 コニカミノルタホールディングス株式会社 Image processing apparatus, image processing method, and image forming apparatus
JP2003219162A (en) * 2002-01-24 2003-07-31 Ricoh Co Ltd Image forming apparatus, image forming method, program and recording medium
JP2006049992A (en) * 2004-07-30 2006-02-16 Ricoh Co Ltd Image processor

Also Published As

Publication number Publication date
JP2018098552A (en) 2018-06-21

Similar Documents

Publication Publication Date Title
US7602531B2 (en) Halftone edge enhancement for production by an image forming device
US9773319B2 (en) Image processing apparatus, method, and medium
US10515453B2 (en) Image processing apparatus, image processing method, and storage medium for performing an edge correction processing based on color variations
JP5014475B2 (en) Image processing apparatus and image processing method
US9253368B2 (en) Image processing device setting binary value without using dither matrix when prescribed condition is satisfied
JP2007013551A (en) Image processing apparatus and image processing method
CN105407251A (en) Image processing apparatus and image processing method
JP5634154B2 (en) Image processing apparatus and image processing method
US8620081B2 (en) Image processing apparatus, method, and storage medium for determining attributes
US10511740B2 (en) Image processing apparatus, method thereof, and image forming apparatus that determine a dot arrangement of printing material by halftone processing
KR101116682B1 (en) Image forming apparatus and control method thereof
JP5932683B2 (en) System to maintain image quality in economy printing mode
US20060285167A1 (en) Image processing method and a recording medium storing image processing program
US9948824B2 (en) Image compressing device, image forming apparatus, image compressing method, and recording medium
US6934412B2 (en) Detecting small amounts of color in an image
US8687237B2 (en) Image processing method and apparatus that changes pixel value of pixel of interest when trapping processing is determined
JP2004034327A (en) Image processor and processing method
JP6765103B2 (en) Image processing device, image processing program and image processing method
JP5151708B2 (en) Image processing apparatus and image processing program
JP2017117331A (en) Image processing apparatus, image processing method, and program
JP5715386B2 (en) Image processing apparatus, control method therefor, program, and storage medium
CN105657214B (en) Image processing equipment and image processing method
JP6641982B2 (en) Image processing apparatus, image processing method, and program
EP2894841B1 (en) Information processing apparatus, information processing method, and storage medium
JP5569107B2 (en) Image processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200908

R150 Certificate of patent or registration of utility model

Ref document number: 6765103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees