JP2016123070A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2016123070A JP2016123070A JP2015198477A JP2015198477A JP2016123070A JP 2016123070 A JP2016123070 A JP 2016123070A JP 2015198477 A JP2015198477 A JP 2015198477A JP 2015198477 A JP2015198477 A JP 2015198477A JP 2016123070 A JP2016123070 A JP 2016123070A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- unit
- pixel
- pixel value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 99
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000012937 correction Methods 0.000 claims abstract description 119
- 239000000203 mixture Substances 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 22
- 239000002131 composite material Substances 0.000 claims description 8
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 239000011800 void material Substances 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 29
- 238000000605 extraction Methods 0.000 description 19
- 239000011159 matrix material Substances 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000001788 irregular Effects 0.000 description 6
- 241000519995 Stachys sylvatica Species 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 208000028780 ocular motility disease Diseases 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、及び、プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
電子写真方式の画像形成装置では、レジストずれやスキューずれ、表裏に印刷可能な装置では表裏ずれが発生する。そこで、ずれ量を測定して、それを相殺するように画像の位置補正や変形補正を行う補正技術が既に知られている。このような補正技術の例として、平行移動、倍率補正、歪み補正、色間ずれ補正、表裏ずれ補正等が知られている。 In an electrophotographic image forming apparatus, registration deviation or skew deviation occurs, and in an apparatus capable of printing on both sides, front and back deviations occur. Therefore, a correction technique for measuring the amount of deviation and correcting the position or deformation of an image so as to cancel it is already known. As examples of such correction techniques, parallel movement, magnification correction, distortion correction, inter-color shift correction, front / back shift correction, and the like are known.
上記のような補正技術には、擬似階調処理前の多値画像に対して補正を行うものと、例えば特許文献1に記載された擬似階調処理後の少値画像に対して補正を行うものが知られている。そして、一般的には、多値画像に対して補正を行う処理が、少値画像に対して補正を行う処理より、本質的に画質異常が発生しにくく、比較的自由な画像変形が行えることが知られている。
In the correction technique as described above, correction is performed on a multi-value image before pseudo gradation processing, and correction is performed on a small-value image after pseudo gradation processing described in
多値画像に対する補正処理を行う具体例として、例えば特許文献1には、画像のスキューに起因する色版の重ね合わせずれを抑えつつ、細線画像の太りを抑え、かつ、画像の部分抜けの発生を抑える目的で、画像を構成する画素の一部を、スキューずれ等のずれ量に基づいて画素内に存在する画像箇所の面積に応じた多値の中間調の画素に変換し、書込用マトリクス(所謂ディザ閾値マトリクス)を適用して書込用画素に変換する際に、書込用マトリクス内分布を周辺画素の階調に基づいて決定する技術が開示されている。 As a specific example of performing a correction process on a multi-value image, for example, Japanese Patent Laid-Open No. 2004-228561 discloses that the color plate overlay shift due to image skew is suppressed, the thin line image is suppressed from being thickened, and the partial omission of the image is generated. For the purpose of suppressing the image, a part of the pixels constituting the image is converted into a multi-value halftone pixel corresponding to the area of the image location existing in the pixel based on the amount of deviation such as skew deviation, and for writing There has been disclosed a technique for determining a distribution in a writing matrix based on gradations of peripheral pixels when converting to writing pixels by applying a matrix (a so-called dither threshold matrix).
しかし、従来の多値画像に対して画像の位置補正や変形補正を行う装置では、背景が白地以外の場合に、文字や線画の周囲で白抜けが発生して画像劣化になるという問題が発生する。 However, with conventional devices that perform image position correction or deformation correction on multi-valued images, when the background is other than a white background, white spots occur around characters and line drawings, resulting in image degradation. To do.
本発明は、このような実情に鑑みてなされたものであって、多値画像に対して画像の位置補正や変形補正を行う装置において、背景が白地以外の場合であっても、文字や線画の周囲で白抜けの発生するのを防止することを目的とする。 The present invention has been made in view of such circumstances, and in an apparatus that performs image position correction and deformation correction on a multi-valued image, even if the background is other than a white background, characters and line drawings are provided. The purpose of this is to prevent white spots from occurring in the surrounding area.
上述した目的を達成するため、本発明の画像処理装置は、入力された画像データに対して幾何補正を行う画像処理装置であって、その画像データのオブジェクト情報に基づいて画素値が異なる複数の画素値補正画像データを生成する幾何補正手段と、幾何補正手段によって生成された複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成する合成手段と、合成手段により生成された補正画像合成データに対して疑似階調処理を施す疑似階調処理手段と、を備えることを特徴とする。 In order to achieve the above-described object, an image processing apparatus of the present invention is an image processing apparatus that performs geometric correction on input image data, and a plurality of pixel values having different pixel values based on object information of the image data. Geometric correction means for generating pixel value corrected image data, and synthesis means for generating corrected image composite data by selecting a pixel value to be applied to each pixel from a plurality of pixel value corrected image data generated by the geometric correction means And pseudo gradation processing means for performing pseudo gradation processing on the corrected image composition data generated by the composition means.
本発明によれば、多値画像に対して画像の位置補正や変形補正を行う装置において、背景が白地以外の場合であっても、文字や線画の周囲で白抜けが発生するのを防止することが可能となる。 According to the present invention, in an apparatus that performs image position correction and deformation correction on a multi-valued image, white spots are prevented from occurring around characters and line drawings even when the background is other than a white background. It becomes possible.
本発明の実施形態の画像処理装置に関し以下図面を用いて説明するが、本発明の趣旨を越えない限り、何ら本実施形態に限定されるものではない。なお、各図中、同一又は相当する部分には同一の符号を付しており、その重複説明は適宜に簡略化乃至省略する。なお、本実施形態における画像処理装置は、例えば複合機、プリンタ、FAX等の画像形成機能を有する画像形成装置に適用されるものであってよい。 An image processing apparatus according to an embodiment of the present invention will be described below with reference to the drawings. However, the present invention is not limited to the present embodiment as long as the gist of the present invention is not exceeded. In addition, in each figure, the same code | symbol is attached | subjected to the part which is the same or it corresponds, The duplication description is simplified thru | or abbreviate | omitted suitably. Note that the image processing apparatus according to the present embodiment may be applied to an image forming apparatus having an image forming function such as a multifunction peripheral, a printer, or a FAX.
本実施形態における画像処理装置のハードウェア構成について図1を参照して説明する。本実施形態における画像処理装置は、画像処理に必要な情報処理機能を担う基本的なハードウェアとして、CPU100、RAM101、ROM102、NW I/F103、HDD104、入力部105、出力部106、画像形成部107を備えている。
A hardware configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. The image processing apparatus according to the present embodiment includes a
CPU100は、画像処理装置における後述する各種処理を実現する処理部である。CPU100は、ROM102に格納された各処理プログラムをRAM101に読み出して、これを実行することにより各種処理を実現する。
The
RAM101は、上記のようにCPU100のワークメモリとして機能する。また、RAM101はこの後実施形態で説明するラインメモリとしての役割も担う。ROM102は、上記のように、各処理プログラムや画像処理装置の処理に必要な各種パラメータ等を格納する記憶部である。
The
NW I/F103は、画僧処理装置と外部装置又は外部ネットワーク等と接続するためのネットワークインタフェースである。なお、通信形態としては例えばLANやWAN、あるいはNFC等の近距離無線通信も適用でき、無線か有線かを問わない。 The NW I / F 103 is a network interface for connecting the image processing apparatus to an external apparatus or an external network. As a communication form, for example, short-range wireless communication such as LAN, WAN, or NFC can be applied, regardless of whether it is wireless or wired.
HDD104は、例えば画像等を保存するための記憶部であり、入力部105から入力された入力画像等を保存する。
The HDD 104 is a storage unit for storing an image or the like, for example, and stores an input image or the like input from the
入力部105は画像形成部107が形成するための画像の元データ等を入力するハードウェアであり、例えばスキャナ等に相当する。出力部106は画像を表示する表示部であったり、画像形成部107で画像が形成された用紙を排出する用紙排出部等を含む。画像形成部107は、上記の元データ等に基づいて画像を形成するエンジン部である。
The
[第1実施形態]
本発明の第1実施形態における画像処理装置は、概略的には幾何補正後の画素値を、周囲4点の整数値座標のオブジェクト情報に基づく値から算出し、算出した補正後の画素値を二値化するというものである。そして、本実施形態においては、二値化したデータの一方を前景、他方を背景と分類し、それぞれに応じた画素値を選択することで、前景と背景の境界部で中間濃度画素が発生することを防ぎ、疑似階調処理後の白抜けを防止する。
[First Embodiment]
The image processing apparatus according to the first embodiment of the present invention generally calculates a pixel value after geometric correction from a value based on object information of integer value coordinates of four surrounding points, and calculates the corrected pixel value. It is to binarize. In the present embodiment, one of the binarized data is classified as the foreground and the other is classified as the background, and the pixel value corresponding to each is selected to generate an intermediate density pixel at the boundary between the foreground and the background. This prevents white spots after pseudo gradation processing.
第1実施形態における画像処理装置の全体構成について図2を参照して説明する。本実施形態の画像処理装置は、入力画像取得部1と、レンダリング部2と、ずれ量取得部3と、幾何補正パラメータ設定部4と、幾何補正部5と、前景・背景二値化部6と、擬似階調処理部7と、プリンタ出力部8を備える。
The overall configuration of the image processing apparatus according to the first embodiment will be described with reference to FIG. The image processing apparatus according to the present embodiment includes an input
入力画像取得部1は、ページ記述言語で記載された入力画像を取得する。
The input
レンダリング部2は、入力画像取得部1が取得したページ記述言語を解釈して、各色8bitの階調値をもつビットマップ画像に変換する。そのとき、入力画像に含まれている文字・ライン・グラフィック・イメージ等のオブジェクト情報も解釈して、画素ごとに付与する。
The
ずれ量取得部3は、四隅の座標点が幾何補正なしでプリンタ出力するとどう変化するか、つまり、どれくらいずれるか、を計測して取得する。ここでは表面に対する裏面のずれ量を計測して取得し、補正する例について説明する。表裏のずれ量取得は、表面と裏面の四隅にトンボを印字し、それぞれの座標点を計測する。この計測には、装置内蔵型のセンサで自動計測する方法や、記録媒体に印字したものを定規で手動計測し、その結果を入力する方法を用いることが好ましい。
The deviation
幾何補正パラメータ設定部4は、ずれ量取得部3で取得した表裏各4点の座標点から、幾何補正パラメータとして、mat[0]〜mat[7]を算出する。
The geometric correction parameter setting unit 4 calculates mat [0] to mat [7] as geometric correction parameters from the four coordinate points of the front and back acquired by the deviation
幾何補正部5は、入力された画像データのオブジェクト情報に基づいて画素値が異なる複数の画素値補正画像データを生成する幾何補正手段である。複数の画素値補正画像データとして生成される補正データとしては、例えば複数の画素値をもつ多値補正画像データであることが好ましい。
The
さらに、幾何補正部5は、画像データのオブジェクト情報に基づいて、オブジェクト情報が異なる複数のオブジェクト補正画像データを生成することとしてもよい。そして、幾何補正部5は、入力された画像データの座標点に対応して算出された座標点に所定の補正量が付加された座標点の画素値を算出することが好ましい。また、幾何補正部5は、画像データのオブジェクト情報の座標点に所定の補正量が付加された座標点の画素値を算出することが好ましい。
Furthermore, the
幾何補正パラメータとしたmat[0]〜mat[7]を適用して、出力時に発生する位置ずれや歪みを見越した補正を行う。ここでは、オブジェクト情報に基づいて入力画像の前景画素と背景画素を識別し、前景・背景二値化部6で使用するため後述する前景背景合成比率画像を含む複数種類の画像を生成しておく。本実施形態における幾何補正部5は、次ブロックの前景・背景二値化部6の前処理として機能する。
By applying mat [0] to mat [7] as geometric correction parameters, correction is performed in anticipation of misalignment or distortion that occurs during output. Here, foreground and background pixels of the input image are identified based on the object information, and a plurality of types of images including a foreground / background composition ratio image to be described later are generated for use in the foreground /
前景・背景二値化部6は、前景背景合成比率画像に対してドット寄せ処理を行い、オブジェクト境界が前景と背景の階調値で二値化された画像を生成する。
The foreground /
オブジェクト境界が前景と背景の階調値で二値化された画像、つまり補正画像合成データに対して、擬似階調処理部7でスクリーン処理を行い白画素と黒画素に二値化し、プリンタ出力部8でプリンタ出力する。
The pseudo
擬似階調処理部7は、オブジェクト情報に応じて、適用するスクリーンを切り替える。オブジェクト情報が文字やラインの場合は300線程度のスクリーンを適用し、グラフィックやイメージの場合は200線程度のスクリーンを適用する。このとき参照するオブジェクト情報も、幾何補正部5および前景・背景二値化部6で処理された後のものであり、その時点での画像と対応がとれている。
The pseudo
本実施形態におけるオブジェクト情報の一例について図3を参照して説明する。本実施形態においては、オブジェクト情報を文字、ライン、グラフィック、及びイメージの4種類とする。文字やラインの背景が白地であっても色地であっても、均一濃度である場合、背景部のオブジェクト情報はグラフィックとなる。 An example of object information in the present embodiment will be described with reference to FIG. In the present embodiment, the object information includes four types of characters, lines, graphics, and images. If the background of the character or line is a white background or a color background and the density is uniform, the object information in the background portion is a graphic.
本実施形態においては、オブジェクト情報として2bitで表されたものを用いる。オブジェクト情報として、文字の場合は01、ラインの場合は10、グラフィックの場合は11、イメージの場合は00の各オブジェクト情報が画素ごとに付与される。なお、オブジェクト情報には、予め優先順位をつけておくことが好ましい。本実施形態では、優先度が高い順に、文字、ライン、グラフィック、イメージとする。 In the present embodiment, the object information represented by 2 bits is used. As the object information, 01 for a character, 10 for a line, 11 for a graphic, and 00 for an image are provided for each pixel. It is preferable to prioritize the object information in advance. In this embodiment, characters, lines, graphics, and images are used in descending order of priority.
次に、本実施形態における画像歪みに対する幾何補正について図4を参照して説明する。左側には、破線で表した入力画像(1)を幾何補正なしでプリンタ出力した場合に発生する画像歪みの例として補正なし時の出力画像(2)を実線で表している。また、右側には、プリンタ出力画像(4)を破線で表し、画像歪みを見越して逆補正した画像(3)を実線で表している。逆補正した画像(3)は、プリンタ出力画像(4)が入力画像(1)と同じになるようにするための画像である。 Next, geometric correction for image distortion in the present embodiment will be described with reference to FIG. On the left side, an output image (2) without correction is represented by a solid line as an example of image distortion that occurs when the input image (1) represented by a broken line is output to the printer without geometric correction. On the right side, the printer output image (4) is represented by a broken line, and the image (3) corrected in anticipation of image distortion is represented by a solid line. The reversely corrected image (3) is an image for making the printer output image (4) the same as the input image (1).
例えば、表裏ずれの場合は、入力画像(1)が表面、出力画像(2)が幾何補正なし時の裏面出力画像、逆補正した画像(3)が裏面に対する幾何補正後画像、プリンタ出力画像(4)が逆補正した画像(3)をプリンタ出力した画像となる。なお、ここでは、表面にはプリンタ出力しても歪みが発生しないものとする。 For example, in the case of front-back misalignment, the input image (1) is the front side, the output image (2) is the back side output image without geometric correction, the reversely corrected image (3) is the back side geometrically corrected image, the printer output image ( 4) is an image obtained by outputting the reversely corrected image (3) to the printer. Here, it is assumed that distortion does not occur on the front surface even when output from a printer.
本実施形態では、ずれ量取得部3が、入力画像(1)の四隅の座標と出力画像(2)の四隅の座標を取得し、幾何補正パラメータ設定部4が、プリンタ出力時に発生する画像歪みを見越して逆補正を行い、逆補正した画像(3)の画像を生成するための幾何補正パラメータとして、上述したmat[0]〜mat[7]を設定する。
In the present embodiment, the shift
次に、本実施形態における幾何補正部5の構成について図5を参照して説明する。幾何補正部5は、対応座標点算出部50と、4点抽出部51と、第1のオブジェクト抽出部52と、第2のオブジェクト抽出部53と、補間演算部54と、前景画素値選択部55と、背景画素値選択部56と、蓄積部57を備える。
Next, the configuration of the
対応座標点算出部50は、逆補正した画像(3)上の座標点(x、y)に対応する入力画像(1)上の座標点(X、Y)を、幾何補正パラメータであるmat[0]〜mat[7]を適用して算出する。座標点(X、Y)は、小数点以下の値をもつ実数値で算出されることが好ましい。
The corresponding coordinate
4点抽出部51は、座標点(X、Y)を囲む近傍4点を、X及びYの整数部の値に基づき抽出する。
The four-
第1のオブジェクト抽出部52は、4点に付与されているオブジェクト情報のうち、最も優先度の高いオブジェクト情報を抽出し、優先度の高いオブジェクト優先画像(d)の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。また、第1のオブジェクト抽出部52は、抽出したオブジェクト情報の他に4点の階調値を後段の前景画素値選択部55に送る。
The first
第2のオブジェクト抽出部53は、4点に付与されているオブジェクト情報のうち、最も優先度の低いオブジェクト情報を抽出し、優先度の低いオブジェクト優先画像(e)の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。また、第2のオブジェクト抽出部53は、抽出したオブジェクト情報の他に4点の階調値を後段の背景画素値選択部56に送る。
The second
補間演算部54は、周囲4点のオブジェクト情報に基づき補間演算を行い、前景背景合成比率画像(a)の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。
The
前景画素値選択部55は、第1のオブジェクト抽出部52で抽出したオブジェクト情報をもつ画素の階調値を4点から抽出し、前景優先画像(b)の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。
The foreground pixel
背景画素値選択部56は、第2のオブジェクト抽出部53で抽出したオブジェクト情報をもつ画素の階調値を4点から抽出し、背景優先画像(c)の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。なお、抽出された4点が全て同じオブジェクトである場合、前景優先画像(b)と背景優先画像(c)、優先度の高いオブジェクト優先画像(d)と優先度の低いオブジェクト優先画像(e)の画素値は同じになる。
The background pixel
次に、本実施形態における対応座標点算出部50について図6を参照して説明する。対応座標点算出部50は、以下の二次元射影変換式、式1および式2を適用して、(x、y)に対応する座標点(X、Y)を算出する。
Next, the corresponding coordinate
本実施形態における幾何補正は、入力画像(1)における座標点(X、Y)の階調値およびオブジェクト情報を補間演算で求め、逆補正した画像(3)の座標点(x、y)の階調値およびオブジェクト情報として還元することにより行われる。 In the geometric correction in the present embodiment, the gradation value and object information of the coordinate point (X, Y) in the input image (1) are obtained by interpolation calculation, and the coordinate point (x, y) of the image (3) subjected to reverse correction is obtained. This is done by reducing as gradation values and object information.
次に、本実施形態における補間演算部54について図7を参照して説明する。まず、4点抽出部51により、(X、Y)の整数部に該当する(X0、Y0)の座標点、及び、(X0+1、Y0)、(X0、Y0+1)、(X0+1、Y0+1)の計4点の座標点が抽出される。
Next, the
補間演算は、画素値に対して次式のように行う。ここでは、重みwx、wyを4点の画素値に適用して、(X、Y)の画素値を算出する。Xの小数部がwxに相当し、Yの小数部がwyに相当する。
(x、y)の画素値=(X、Y)の画素値=(X0、Y0)の画素値×(1−wx)×(1−wy)+(X0+1、Y0)の画素値×wx×(1−wy)+(X0、Y0+1)の画素値×(1−wx)×wy+(X0+1、Y0+1)の画素値×wx×wy
The interpolation calculation is performed on the pixel value as follows. Here, the pixel values of (X, Y) are calculated by applying the weights wx and wy to the four pixel values. The decimal part of X corresponds to wx, and the decimal part of Y corresponds to wy.
Pixel value of (x, y) = pixel value of (X, Y) = pixel value of (X0, Y0) × (1-wx) × (1-wy) + (X0 + 1, Y0) pixel value × wx × (1-wy) + (X0, Y0 + 1) pixel value × (1-wx) × wy + (X0 + 1, Y0 + 1) pixel value × wx × wy
本実施形態における補間演算部54で行う補間演算は、画素値に対して行うのではなく、オブジェクト情報に基づいて行う。つまり、本実施形態における補間演算は、次式のように行う。
画像(a)の(x、y)の画素値=(X0、Y0)のオブジェクト情報に基づく値×(1−wx)×(1−wy)+(X0+1、Y0)のオブジェクト情報に基づく値 × wx × (1−wy)+(X0、Y0+1)のオブジェクト情報に基づく値×(1−wx)×wy+(X0+1、Y0+1)のオブジェクト情報に基づく値×wx×wy
The interpolation calculation performed by the
Pixel value of image (a) (x, y) = value based on object information of (X0, Y0) × (1-wx) × (1-wy) + value based on object information of (X0 + 1, Y0) × Value based on object information of wx × (1-wy) + (X0, Y0 + 1) × Value based on object information of (1-wx) × wy + (X0 + 1, Y0 + 1) × wx × wy
なお、オブジェクト情報に基づく値は、該当画素のオブジェクト情報が第1のオブジェクト抽出部52で抽出された最も優先度の高いオブジェクトである場合は255、それ以外のオブジェクト情報である場合は0となる。ただし、4点全て同じオブジェクトである場合は強制的に0とする。
The value based on the object information is 255 when the object information of the corresponding pixel is the highest priority object extracted by the first
次に、本実施形態における前景・背景二値化部6の概略構成について図8を参照して説明する。本実施形態における前景・背景二値化部6は、ドット寄せ部60と、合成部61を備える。
Next, a schematic configuration of the foreground /
ドット寄せ部60は、多値補正画像データの画素値を二値化処理した二値化画像データを生成するドット寄せ手段である。より具体的には、ドット寄せ部60は、前景背景合成比率画像(a)に対して、背景優先画像(c)を参照してドット寄せ処理を行い、0(白画素)又は255(黒画素)の二値画像であるドット寄せ後の画像(a’)を生成する。ここで、前景背景合成比率画像(a)、背景優先画像(c)は4×4画素を参照するものとする。
The
合成部61は、幾何補正部5によって生成された複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成する合成手段である。
The synthesizing
より具体的には、合成部61は、二値化画像データであるドット寄せ後の画像(a’)に基づき、画素ごとに前景優先画像(b)又は背景優先画像(c)を選択して、補正後8bit画像を生成する。
More specifically, the
同様に、合成部61は、ドット寄せ後の画像(a’)に基づき、画素ごとに優先度の高いオブジェクト優先画像(d)又は優先度の低いオブジェクト優先画像(e)を選択して、補正後オブジェクト情報を生成する。ここで、補正後8bit画像および補正後オブジェクト情報は、2×2画素分が求められる。
Similarly, the
合成部61について図9を参照してさらに説明する。本図は、左から、ドット寄せ後の画像(a’)の画素値、補正後8bit画像、補正後オブジェクト情報を示し、ドット寄せ後の画像(a’)の画素値に対して、選択される補正後8bit画像および補正後オブジェクト情報の対応関係を示している。
The combining
補正後8bit画像は、ドット寄せ後の画像(a’)の画素値に基づき、画素値が255であれば前景優先画像(b)を選択し、画素値が0であれば背景優先画像(c)を選択した画素値で構成される。 The 8-bit image after correction is based on the pixel value of the image (a ′) after dot alignment. If the pixel value is 255, the foreground priority image (b) is selected. If the pixel value is 0, the background priority image (c ) Is composed of selected pixel values.
また、補正後オブジェクト情報は、ドット寄せ後の画像(a’)に基づき、画素値が255であれば優先度の高いオブジェクト優先画像(d)を選択し、画素値が0であれば優先度の低いオブジェクト優先画像(e)を選択した画素値で構成される。 The corrected object information is based on the image (a ′) after dot alignment, and if the pixel value is 255, the object priority image (d) having a high priority is selected, and if the pixel value is 0, the priority is selected. Is composed of selected pixel values.
つまり、本実施形態においては、合成部61は、補正後8bit画像とオブジェクト情報が補正後も完全に対応するように、オブジェクト情報も同様に補正を行っている。なお、ここで決定した補正後8bit画像と補正後オブジェクト情報は、いずれも後段の擬似階調処理部7への入力となる。本実施形態では、補正後オブジェクト情報に基づいて、補正後8bit画像に適用するスクリーンを切り替えて、擬似階調処理が行われることが好ましい。
That is, in the present embodiment, the combining
次に、ドット寄せ部60について図10を参照してさらに説明する。ドット寄せ部60は、第1の判定部600と、第2の判定部601と、閾値決定部602と、閾値処理部603を備える。
Next, the
第1の判定部600は、二値化処理に用いるスクリーンを判定する第1の判定手段である。より具体的には、第1の判定部600は、横万線スクリーンを適用してドット寄せを行うか、縦万線スクリーンを適用してドット寄せを行うか、あるいは、斜め万線スクリーンを適用してドット寄せを行うかを背景優先画像(c)から判定する。
The
第2の判定部601は、二値化処理におけるドット寄せ方向を判定する第2の判定手段である。より具体的には、第2の判定部601は、斜め万線スクリーンを適用する場合に左上、右上、左下、右下のどちらに比重をおいてドット寄せを行うかを背景優先画像(c)から判定する。
The
閾値決定部602は、第1の判定部600と第2の判定部601の判定結果に応じて、2×2画素に対して適用するディザ閾値を決定する。
The
閾値処理部603は、閾値決定部602で決定したディザ閾値を、前景背景合成比率画像(a)に対して適用し、閾値以上であれば255(黒画素)、閾値未満であれば0(白画素)に変換して出力する。
The
第1の判定部600及び第2の判定部601について図11を参照してさらに詳細に説明する。ここでは、背景優先画像(c)の4×4画素を参照して判定するものとする。
The
第1の判定部600は、p00、p01、p10、p11、p20、p21、p30、p31の画素の平均値を算出し、左平均とし、p02、p03、p12、p13、p22、p23、p32、p33の画素の平均値を算出し、右平均とする。
The
また、第1の判定部600は、p00、p01、p02、p03、p10、p11、p12、p13の画素の平均値を算出し、上平均とし、p20、p21、p22、p23、p30、p31、p32、p33の画素の平均値を算出し、下平均とする。
In addition, the
そして、ここでは、左平均と右平均の差分の絶対値を、左右差、上平均と下平均の差分の絶対値を、上下差とする。そして、第1の判定部600は、左右差<上下差であれば、縦万線スクリーンを適用すると判定し、左右差>上下差であれば、横万線スクリーンを適用すると判定し、左右差=上下差であれば、斜め万線スクリーンを適用すると判定する。
Here, the absolute value of the difference between the left average and the right average is defined as the left-right difference, and the absolute value of the difference between the upper average and the lower average is defined as the vertical difference. The
他方、第2の判定部601は、p00、p01、p10、p11の画素の平均値を算出し、左上平均とし、p02、p03、p12、p13の画素の平均値を算出し、右上平均とする。また、第2の判定部601は、p20、p21、p30、p31の画素の平均値を算出し、左下平均とし、p22、p23、p32、p33の画素の平均値を算出し、右下平均とする。そして、第2の判定部601は、左上、右上、左下、右下のうち、平均値が最大の方向を寄せ方向として判定する。
On the other hand, the
閾値決定部602について図12を参照して説明する。まず、前提として、32×32程度のサイズの縦万線スクリーン用ディザ閾値マトリクス、及び、横万線スクリーン用ディザ閾値マトリクスを予め用意する。
The threshold
閾値決定部602は、第1の判定部600にて縦万線スクリーンを適用すると判定された場合は、縦万線スクリーン用ディザ閾値マトリクスから該当画素位置に対応した2×2画素分のディザ閾値を抽出する。
When the
また、閾値決定部602は、第1の判定部600にて横万線スクリーンを適用すると判定された場合は、横万線スクリーン用ディザ閾値マトリクスから該当画素位置に対応した2×2画素分のディザ閾値を抽出する。
In addition, when the
さらに、閾値決定部602は、第1の判定部600にて斜め万線スクリーンを適用すると判定された場合は、縦万線スクリーン用ディザ閾値マトリクスから該当画素位置に対応した2×2画素分のディザ閾値を抽出し、図に示すようにドット寄せ方向に応じて並べ替える。
Further, when the
閾値決定部602は、第2の判定部601にて寄せ方向が右上と判定された場合は、右上に小さい方のディザ閾値、対角の左下に大きい方のディザ閾値を配置する。また、閾値決定部602は、残り2つには小さい方のディザ閾値を大きい方のディザ閾値の平均値を配置する。寄せ方向が左下、左上、右下の場合も同様である。
When the
次に、本実施形態における幾何補正処理手順について図13を参照して説明する。まず、幾何補正パラメータ設定部4は、幾何補正後の座標点(x、y)を、初期値(0、0)に設定する(ステップS1、ステップS2)。 Next, the geometric correction processing procedure in this embodiment will be described with reference to FIG. First, the geometric correction parameter setting unit 4 sets the coordinate point (x, y) after geometric correction to an initial value (0, 0) (step S1, step S2).
次に、幾何補正部5は、幾何補正を行う(ステップS3)。幾何補正部5による幾何補正処理の結果が蓄積部57のラインメモリに蓄積される(ステップS4)。幾何補正部5は、x方向に座標点を「+1」する。幾何補正部5は、xの座標位置がx方向の画素数を越える(ステップS8)まで、ステップS3からステップS5までの処理を繰り返す。
Next, the
次に、幾何補正部5は、y方向に座標点を「+1」する(ステップS6)。幾何補正部5は、yの座標位置がy方向の画素数を越えないとき(ステップS9、NO)、yが偶数か否かを判定する(ステップS10)。幾何補正部5によりyが偶数と判定されたとき(ステップS10、YES)、前景・背景二値化部6に進み、2ライン分の前景背景二値化結果を取得する(ステップS7)。
Next, the
幾何補正部5は、yが偶数でないと判定したとき(ステップS10、NO)、ステップS2からの処理を繰り返す。つまり、幾何補正部5は、yの座標位置がy方向の画素数を越えるまで(ステップS9)、ステップS2からステップS6までの処理を繰り返す。なお、ステップS5の蓄積処理においては、最新4ライン分の結果を蓄積し、それ以前の結果は破棄してもよい。
When the
次に、本実施形態における幾何補正処理結果の具体例について図14を参照して説明する。本図に示すように、〇で表した周囲4点の画素に対して、〇の中に×を記載した入力画像(1)の座標点(X、Y)に対応する(a)〜(e)の画素値をwx=0.75、wy=0.5とすると、次のようになる。 Next, a specific example of the geometric correction processing result in the present embodiment will be described with reference to FIG. As shown in this figure, for the four surrounding pixels represented by ◯, (a) to (e) corresponding to the coordinate point (X, Y) of the input image (1) in which “x” is written in ◯. ) Is set as wx = 0.75 and wy = 0.5 as follows.
前景背景合成比率画像(a)は、255×0.25×0.5+255×0.75×0.5+255×0.25×0.5=159.375の小数点以下を切り捨てた159となる。 The foreground / background composition ratio image (a) is 159 with the decimal part of 255 × 0.25 × 0.5 + 255 × 0.75 × 0.5 + 255 × 0.25 × 0.5 = 159.375 rounded down.
優先度の高いオブジェクト優先画像(d)は、文字オブジェクトであることを表す01となり、前景優先画像(b)は、文字オブジェクトの画素がもつ画素値255になる。
The object priority image (d) having a high priority is 01 indicating that it is a character object, and the foreground priority image (b) has a
他方、優先度の低いオブジェクト優先画像(e)は、グラフィックオブジェクトであることを表す11となり、背景優先画像(c)は、グラフィックオブジェクトの画素がもつ画素値80になる。
On the other hand, the object priority image (e) having a low priority is 11 indicating that it is a graphic object, and the background priority image (c) has a
次に、本実施形態における幾何補正部5で生成される(a)〜(c)の画像について図15を参照して説明する。本図では、例示としてひらがな「あ」を表す画像を用いている。
Next, images (a) to (c) generated by the
前景背景合成比率画像(a)は、オブジェクト境界のエッジ部で0〜255の値をもつ多値画像になる。前景優先画像(b)は、文字(またはライン)が入力画像に対してやや太めになった画像になり、背景優先画像(c)は、文字(またはライン)が入力画像に対してやや細めになった画像になる。 The foreground / background composition ratio image (a) is a multivalued image having a value of 0 to 255 at the edge portion of the object boundary. The foreground priority image (b) is an image in which characters (or lines) are slightly thicker than the input image, and the background priority image (c) is in which characters (or lines) are slightly narrower than the input image. The resulting image will be.
また、優先度の高いオブジェクト優先画像(d)は、(b)に対応したオブジェクト情報画像になり、優先度の低いオブジェクト優先画像(e)は、(c)に対応したオブジェクト情報画像になる。 The object priority image (d) having a high priority is an object information image corresponding to (b), and the object priority image (e) having a low priority is an object information image corresponding to (c).
次に、本実施形態における前景・背景二値化部6における処理手順について図16を参照して説明する。まず、前景・背景二値化部6は、xを初期値0に設定する(ステップS71)。
Next, a processing procedure in the foreground /
次に、前景・背景二値化部6は、蓄積部57のラインメモリに蓄積された最新4ライン分の幾何補正結果から、4×4画素の幾何補正結果を切り出してくる(ステップS72)。このとき、前景・背景二値化部6は、x方向には、x−1、x、x+1、x+2の座標点の結果を切り出す。なお、x=0の場合のようにx−1=−1になってしまい、座標点が存在しないケースでは、幾何補正結果である(a)〜(e)の画素値が全て0であるとする。
Next, the foreground /
前景・背景二値化部6は、4×4画素の幾何補正結果を参照し、2×2画素分の前景背景二値化結果を取得する(ステップS73)。前景・背景二値化部6は、x方向に+2する(ステップS75)。そして、前景・背景二値化部6は、xの座標位置がx方向の画素数を越えるまで、ステップS72〜ステップS74の処理を繰り返す。
The foreground /
次に、本実施形態におけるドット寄せ部60の出力について図17を参照して説明する。ここでも、例示としてひらがな「あ」を用いる。ドット寄せ部60により、オブジェクト境界のエッジ部で0〜255の値をもつ多値画像であった(a)が、0(白画素)又は255(黒画素)の二値画像に変換される。
Next, the output of the
ドット寄せは、多値画像から二値画像への変換であるため、横線エッジに対しては縦万線スクリーンを適用して二値化し、縦線エッジに対しては横万線スクリーンを適用して二値化する、といった(a)の画像に対して方向別のスクリーン処理を適用する方法で行うことが好ましい。 Since dot alignment is a conversion from a multi-valued image to a binary image, the horizontal line edge is binarized by applying the vertical line screen, and the horizontal line screen is applied to the vertical line edge. It is preferable to carry out by a method of applying screen processing according to direction to the image of (a) such as binarization.
次に、本実施形態における処理画像例について図18を参照して説明する。前景背景二値化処理後の黒線、つまり黒文字の一部は、図17に示したドット寄せ処理結果を使って合成部61で画像を生成する。このため、エッジ部がギザギザした形状の画像になる。オブジェクト情報も、画像に合わせてギザギザの山部分(以下「黒文字部」とする。)は文字オブジェクト、ギザギザの谷部分はグラフィックオブジェクトに変換される。
Next, an example of a processed image in the present embodiment will be described with reference to FIG. For the black line after the foreground / background binarization processing, that is, a part of the black character, an image is generated by the combining
前景背景二値化処理後の画像に対して擬似階調処理を行うと、黒文字部は階調値255のため文字オブジェクト用のスクリーンパターンを適用しても実質そのまま、すなわち無変換となり、色地部分のみグラフィックオブジェクト用のスクリーンパターンに置き換わる。本図のとおり、オブジェクト境界での白抜けは発生しない。 When the pseudo gradation process is performed on the image after the foreground / background binarization process, the black character portion has a gradation value of 255, so that even if the screen pattern for the character object is applied, it is substantially unchanged, that is, is not converted. Only the part is replaced with a screen pattern for graphic objects. As shown in the figure, white spots do not occur at the object boundary.
なお、エッジ部のギザギザは、画素単位のかなり高周波なものであり、昨今のプリンタの出力解像度では目視で確認できるようなものではない。図18の例では、色地背景のスクリーンパターン上にまっすぐな直線が描画されているように見えるという効果を奏する。 Note that the jaggedness of the edge portion is a considerably high frequency in pixel units, and it cannot be visually confirmed with the output resolution of recent printers. In the example of FIG. 18, there is an effect that a straight line appears to be drawn on the screen pattern of the color background.
なお、図18(a)は、黒文字を構成する横線を、下または上に0.5画素分ずらす幾何補正を想定した図になっており、線画の上下でギザギザ形状が50%を占めている。例えば下に0.25画素分ずらす幾何補正をすると、図18(b)のように線画の上部は75%、下部は25%のギザギザ形状になる。 FIG. 18A is a diagram assuming geometric correction in which a horizontal line constituting a black character is shifted downward or upward by 0.5 pixels, and a jagged shape occupies 50% above and below the line drawing. . For example, when geometric correction is performed by shifting by 0.25 pixels downward, the line drawing has a jagged shape with 75% at the top and 25% at the bottom as shown in FIG.
また、必ず一様なギザギザ模様になるわけではない。回転を伴う幾何補正を行う場合や、入力画像の線画が元々傾きをもっている場合、図18(c)のように比率がグラデーション状に変化するギザギザ形状になる。 Also, it is not always a uniform jagged pattern. When geometric correction with rotation is performed, or when the line drawing of the input image originally has an inclination, a jagged shape whose ratio changes in a gradation as shown in FIG.
どのようなギザギザ形状になるかは、図17に示したドット寄せ処理結果で決まる。図17に示したドット寄せ処理結果に基づき、図9に示した表に従って、図15の前景優先画像(b)又は背景優先画像(c)を画素単位で選択することにより、ギザギザ形状、かつ、前景画像、つまり本例では文字と背景画像の階調値に二値化された画像になる。 What kind of jagged shape is determined by the result of dot alignment shown in FIG. Based on the dot shift processing result shown in FIG. 17, by selecting the foreground priority image (b) or the background priority image (c) of FIG. 15 in units of pixels according to the table shown in FIG. This is a foreground image, that is, an image binarized into gradation values of characters and background images in this example.
[第2実施形態]
次に、本発明の第2実施形態における画像処理装置について説明する。なお、第1実施形態と重複する構成についての説明は省略する。
[Second Embodiment]
Next, an image processing apparatus according to the second embodiment of the present invention will be described. In addition, description about the structure which overlaps with 1st Embodiment is abbreviate | omitted.
第1実施形態においては、スクリーン処理後の網掛けで表された2値画像に対し、ドット寄せ処理を施すことにより、網掛けの周期的な模様が崩れてモアレが発生することがある。 In the first embodiment, by performing dot shifting processing on a binary image represented by shading after screen processing, the periodic pattern of shading may be lost and moire may occur.
第2実施形態は、上記のモアレの発生を防止するための構成を、第1実施形態の構成に加えたものである。 In the second embodiment, a configuration for preventing the occurrence of the above moire is added to the configuration of the first embodiment.
すなわち、第2実施形態においては、オブジェクト情報に基づいて、文字と背景の境界部などのオブジェクト境界では、白抜け防止のためのドット抜け処理を施す一方、グラフィックオブジェクトである網掛けを構成する網掛けドットの境界ではモアレ抑制効果のある凹凸パターンをつけることで、網掛けドットの周期性を崩し、モアレの発生を防止する。 That is, in the second embodiment, on the object boundary such as the boundary between the character and the background based on the object information, the dot omission processing for preventing the white omission is performed, while the mesh constituting the shading that is a graphic object. By applying a concavo-convex pattern having a moire suppressing effect at the boundary of the hanging dots, the periodicity of the shaded dots is destroyed and the occurrence of moire is prevented.
この第2実施形態における画像処理装置の画像処理装置の全体構成について図19を参照して説明する。ここでは、図2に示した第1実施形態における構成の幾何補正部5と前景・背景二値化部6の間にオブジェクト境界判定部62とパラメータ選択部63の構成が新たに加わっている。
The overall configuration of the image processing apparatus of the image processing apparatus according to the second embodiment will be described with reference to FIG. Here, a configuration of an object
オブジェクト境界判定部62は、オブジェクト情報に基づき、2×2画素からなる注目画素ブロックが、異なるオブジェクト間の境目を含むオブジェクト境界領域であるか否かを判定する。
Based on the object information, the object
パラメータ選択部63は、画像データにおける注目座標がオブジェクト境界であるか網掛けドットの境界である非オブジェクト境界であるかに基づいて第1の判定部600で判定されるスクリーン用のパラメータを選択するパラメータ選択手段である。パラメータ選択部63は、オブジェクト境界判定部62の結果に基づき、パラメータを選択する。
The
パラメータ選択部63は、注目座標がオブジェクト境界である場合、スクリーン用のパラメータを規則的に配列されたパラメータ群から選択する。また、パラメータ選択部63は、注目座標が非オブジェクト境界である場合、スクリーン用のパラメータを不規則に配列されたパラメータ群から選択する。各パラメータ群の詳細については後述する。
The
前景・背景二値化部6は、前景背景合成比率画像に対して、パラメータ選択部63で選択されたパラメータを使ってドット寄せ処理を行い、前景と背景の階調値で二値化された画像を生成する。
The foreground /
擬似階調処理部7は、前景と背景の階調値で二値化された画像に対してスクリーン処理を行って白画素と黒画素に二値化し、プリンタ出力部8でプリンタ出力する。
The pseudo
次に、オブジェクト情報について図20を参照して説明する。例えばグラフ等の図表を作成する際に使用される網掛けは、網を構成する各ドットも、背景地も、全てグラフィックとなり、グラフィックオブジェクトとして画素ごとに付与される。 Next, the object information will be described with reference to FIG. For example, in the shading used when creating a chart such as a graph, all dots constituting the mesh and the background are all graphics and are assigned to each pixel as a graphic object.
次に、第2実施形態における画像処理装置に加わるエッジ判定部58、前景・背景画素値選択部59と、オブジェクト境界判定部62の判定処理について図21を参照して説明する。
Next, determination processing performed by the
ここでは、補間演算部54は、周囲4点のオブジェクト情報およびエッジ判定結果に基づき補間演算を行う。
Here, the
エッジ判定部58は、注目画素がエッジ部か否かを判定するエッジ判定手段である。結果として、画素ごとに、8bit画像とオブジェクト情報に加えてエッジ判定結果が付与される。注目画素がエッジ部か否かを判定する方法は、注目画素を中心に5×5画素を参照し、最大値と最小値の差が所定値以上であればエッジ、所定値未満であれば非エッジと判定する。
The
オブジェクト境界判定部62は、第一のオブジェクト抽出部52で抽出したオブジェクト情報と第二のオブジェクト抽出部53で抽出したオブジェクト情報が、異なるオブジェクトを指し示している場合は、4点で構成される注目画素ブロックがオブジェクト境界であると判定する。一方、抽出したオブジェクト情報が、同じオブジェクトを指し示している場合、すなわち4点全て同じオブジェクトである場合は、4点で構成される注目画素ブロックが非オブジェクト境界であると判定する。
When the object information extracted by the first
前景・背景画素値選択部59は、注目画素ブロックがオブジェクト境界である場合は、第一のオブジェクト抽出部52で抽出したオブジェクト情報をもつ画素の階調値を4点から抽出し、前景優先画像(b) の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。かつ、第二のオブジェクト抽出部53で抽出したオブジェクト情報をもつ画素の階調値を4点から抽出し、背景優先画像(c) の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。
The foreground / background pixel
一方、注目画素ブロックが非オブジェクト境界である場合は、エッジ判定部58の結果に応じて、エッジ画素の階調値を4点から抽出し、前景優先画像(b) の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。かつ、非エッジ画素の階調値を4点から抽出し、背景優先画像(c) の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。4点全てエッジ画素である場合は、(c)は、(b)と同じ値とする。4点全て非エッジ画素である場合は、(b)は、(c)と同じ値とする。
On the other hand, if the pixel block of interest is a non-object boundary, the gradation value of the edge pixel is extracted from four points according to the result of the
なお、入力解像度よりも出力解像度の方が高い処理フローにおいては、幾何補正前に、出力解像度への解像度変換を行う。例えば、入力解像度が1200dpiであり、0.5dot分のレジストずれを補正すると、エッジ部で中間階調の画素が発生する。そこで、出力解像度が2400dpiの場合、2400dpiに変換してから1dot分、つまり1200dpiで0.5dot分に相当のレジストずれを補正する。これによりエッジ部で中間階調の画素が発生しない。よって、幾何補正による画質劣化を小さくすることができる。 In a processing flow in which the output resolution is higher than the input resolution, resolution conversion to the output resolution is performed before geometric correction. For example, when the input resolution is 1200 dpi and a registration shift of 0.5 dots is corrected, pixels of intermediate gradation are generated at the edge portion. Therefore, when the output resolution is 2400 dpi, the registration deviation corresponding to 1 dot after conversion to 2400 dpi, that is, 0.5 dot at 1200 dpi is corrected. As a result, intermediate gradation pixels are not generated at the edge portion. Therefore, image quality degradation due to geometric correction can be reduced.
なお、解像度変換は、レンダリング部2と幾何補正部5の間において行われることがこのましい。
The resolution conversion is preferably performed between the
第2実施形態における補間演算部54の処理について図7を参照して説明する。第2実施形態における補間演算部54で実施する補間演算は、オブジェクト情報に加えエッジ判定結果に基づいて行う。
The process of the
抽出した4点からなる注目画素ブロックがオブジェクト境界である場合については、第1実施形態において説明した演算式により行う。なお、エッジ判定結果に基づく値は、該当画素がエッジである場合は255、非エッジである場合は0となる。 When the extracted pixel block of interest consisting of four points is an object boundary, the calculation formula described in the first embodiment is used. The value based on the edge determination result is 255 when the corresponding pixel is an edge, and 0 when the pixel is a non-edge.
他方、抽出した4点からなる注目画素ブロックが非オブジェクト境界である場合は、次式により行う。
画像(a)の(x、y)の画素値=(X0、Y0)のエッジ判定結果に基づく値 × (1−wx) × (1−wy)
+ (X0+1、Y0)のエッジ判定結果に基づく値 × wx × (1−wy)+ (X0 、Y0+1)のエッジ判定結果に基づく値 × (1−wx) × wy+ (X0+1、Y0 +1)のエッジ判定結果に基づく値 × wx × wy
On the other hand, when the extracted pixel block of interest consisting of four points is a non-object boundary, the following equation is used.
Pixel value of (x, y) of image (a) = value based on edge determination result of (X0, Y0) × (1-wx) × (1-wy)
+ Value based on edge determination result of (X0 + 1, Y0) × wx × (1-wy) + value based on edge determination result of (X0, Y0 + 1) × edge of (1-wx) × wy + (X0 + 1, Y0 + 1) Value based on determination result × wx × wy
次に、幾何補正部5で生成される(a)〜(c)の画像について図22を参照して説明する。
Next, images (a) to (c) generated by the
前景背景合成比率画像(a)は、文字や線画のオブジェクト境界、あるいは、網掛けの非オブジェクト境界のエッジ部で、0〜255の値をもつ多値画像になる。前景優先画像(b)は、文字(またはライン)、あるいは、網掛けのドットが入力画像に対してやや太めになった画像になる。背景優先画像(c)は、文字(またはライン)、あるいは、網掛けのドットが入力画像に対してやや細めになった画像になる。 The foreground / background composition ratio image (a) is a multivalued image having a value of 0 to 255 at the edge of a character or line drawing object boundary or a shaded non-object boundary. The foreground priority image (b) is an image in which characters (or lines) or shaded dots are slightly thicker than the input image. The background priority image (c) is an image in which characters (or lines) or shaded dots are slightly narrower than the input image.
優先度の高いオブジェクト優先画像(d)は、(b)に対応したオブジェクト情報画像になる。優先度の低いオブジェクト優先画像(e)は、(c)に対応したオブジェクト情報画像になる。 The object priority image (d) having a high priority is an object information image corresponding to (b). The object priority image (e) having a low priority is an object information image corresponding to (c).
次に、図8に示した構成にパラメータ選択部63を加えた構成について図23を参照して説明する。パラメータ選択部63は、オブジェクト境界判定結果に応じて、ドット寄せで適用する縦万線および横万線スクリーン用のパラメータを選択する。ドット寄せ部60は、前景背景合成比率画像(a)に対して、(c)を参照して、選択したパラメータを使ったドット寄せ処理を行い、0(白画素)または255(黒画素)の二値画像であるドット寄せ後の画像(a’)を生成する。
Next, a configuration in which the
次に、第2実施形態におけるドット寄せ部60の出力について図24を参照して説明する。文字や線画などのオブジェクト境界、あるいは、網掛け領域などの非オブジェクト境界のエッジ部で0〜255の値をもつ多値画像であった(a)が、0(白画素)または255(黒画素)の二値画像に変換される。
Next, the output of the
ドット寄せは、多値画像から二値画像への変換であるため、横線エッジに対しては縦万線スクリーンを適用して二値化し、縦線エッジに対しては横万線スクリーンを適用して二値化する、といった(a)の画像に対して方向別のスクリーン処理を適用する方法で行う。 Since dot alignment is a conversion from a multi-valued image to a binary image, the horizontal line edge is binarized by applying the vertical line screen, and the horizontal line screen is applied to the vertical line edge. This is performed by applying a direction-specific screen process to the image (a), such as binarization.
次に、パラメータ選択部63にて選択する、オブジェクト境界用のパラメータについて図25を参照して説明する。注目画素ブロックがオブジェクト境界である場合は、ドット寄せで適用する縦万線および横万線スクリーン用のパラメータを、図25に示したパラメータ配列から選択する。
Next, the object boundary parameters selected by the
図25のパラメータ配列をDit(n)、 n=0、…、63とすると、nが偶数の要素には128未満の数値が、nが奇数の要素には128以上の数値が入るよう、すなわち小さい値と大きい値が交互に並んだ配列になるよう、規則的なパラメータ群として構成されている。例えば画素値128の横線に対してDit(n)をそのまま適用して閾値処理を行うと255、0、255、0、255、0、255、0、….が出力され、高周波な白黒パターンになる。Dit(n)は、高周波な白黒パターン(凹凸パターン)に変換することを狙ったパラメータ配列になっている。
When the parameter array in FIG. 25 is Dit (n), n = 0,..., 63, n is an even element, and a numerical value of less than 128 is entered, and n is an odd element. It is configured as a regular parameter group so that a small value and a large value are arranged alternately. For example, when threshold processing is performed by applying Dit (n) as it is to the horizontal line of the
幾何補正後の座標(x、y)、 (x+1、y)、 (x、y+1)、 (x+1、y+1) (x、yは偶数)の4点に適用する縦万線スクリーンおよび横万線スクリーンを図26に示す。x%64は、xを64で割った余りである。従って、パラメータ選択部63は、Dit(x%64)、 Dit(x%64 +1)、 Dit(y%64)、 Dit(y%64+1)の4つを、図25のパラメータ配列から選択すればよい。
Vertical and horizontal line screens applied to four points of coordinates (x, y), (x + 1, y), (x, y + 1), (x + 1, y + 1) (x and y are even numbers) after geometric correction Is shown in FIG. x% 64 is the remainder of dividing x by 64. Therefore, the
次に、パラメータ選択部63にて選択する、非オブジェクト境界用のパラメータについて図27を参照して説明する。注目画素ブロックが非オブジェクト境界である場合は、ドット寄せで適用する縦万線および横万線スクリーン用のパラメータを、図27に示したパラメータ配列から選択する。
Next, the non-object boundary parameters selected by the
図27では、パラメータ配列をDit_r(m)(n)、m=0、…、7、n=0、…、63とすると、行ごとに、不規則に数値が並ぶよう、不規則なパラメータ群として構成されている。例えば画素値128の横線に対してDit_r(m)(n)をそのまま適用して閾値処理を行うと、1行目のパラメータを使った場合、64画素のうち32画素が白、32画素が黒のパターンが出力される。他の行のパラメータを使った場合も、白黒の割合は同じになるが、1行目を使った場合とは異なるパターンになる。 In FIG. 27, when the parameter array is Dit_r (m) (n), m = 0,..., 7, n = 0,..., 63, an irregular parameter group so that numerical values are irregularly arranged for each row. It is configured as. For example, when threshold processing is performed by applying Dit_r (m) (n) as it is to a horizontal line having a pixel value of 128, when the parameters in the first row are used, 32 pixels out of 64 pixels are white and 32 pixels are black. Pattern is output. When the parameters of other rows are used, the ratio of black and white is the same, but the pattern is different from that when the first row is used.
また、いずれにしても図26のように0、255、0、255、0、255、0、255、….といった規則的な出力にはならない。Dit_r(m)(n)は、不規則で分散性の良い白黒パターン、つまり凹凸パターンに変換することを狙ったパラメータ配列になっている。 In any case, 0, 255, 0, 255, 0, 255, 0, 255,. It is not a regular output. Dit_r (m) (n) is a parameter array that is intended to be converted into an irregular and highly dispersible black and white pattern, that is, a concavo-convex pattern.
幾何補正後の座標(x、y)、(x+1、y)、(x、y+1)、(x+1、y+1)(x、yは偶数) の4点に適用する縦万線スクリーンおよび横万線スクリーンを図28に示す。 Vertical line screen and horizontal line screen applied to four points of coordinates (x, y), (x + 1, y), (x, y + 1), (x + 1, y + 1) (x and y are even numbers) after geometric correction Is shown in FIG.
従って、パラメータ選択部63は、Dit_r((y/2)%8)(x%64)、Dit_r((y/2)%8)(x%64+1)、Dit_r((x/2)%8)(y%64)、Dit_r((x/2)%8)(y%64+ 1)の4つを、図27のパラメータ配列から選択すればよい。
Accordingly, the
例えばx=2、y=4の場合は、縦万線スクリーン用パラメータとしてDit_r(2)(2)とDit_r(2)(3)、横万線スクリーン用パラメータとしてDit_r(1)(4)とDit_r(1)(5)が選択される。 For example, when x = 2 and y = 4, Dit_r (2) (2) and Dit_r (2) (3) as vertical line screen parameters and Dit_r (1) (4) as horizontal line screen parameters. Dit_r (1) (5) is selected.
ここで選択したパラメータを使って閾値処理すると、2dot長単位のぶつ切りの線が形成されることも考えられるが、ここで選択したパラメータはエッジ部の1dot幅の部分に適用されるため、実際に2dot長単位のぶつ切りの線が出力画像上に形成される場合はない。 If threshold processing is performed using the parameter selected here, it may be possible to form a 2-dot long line, but since the parameter selected here is applied to the 1-dot width portion of the edge, There is no case in which a cut line of 2 dot length unit is formed on the output image.
次に、第2実施形態における閾値決定部602について図10を参照して説明する。第一の判定部600にて縦万線スクリーンを適用すると判定された場合は、パラメータ選択部63で選択された縦万線スクリーン用のパラメータを、閾値処理部603で適用する閾値として決定する。
Next, the threshold
他方、第一の判定部600にて横万線スクリーンを適用すると判定された場合は、パラメータ選択部63で選択された横万線スクリーン用のパラメータを、閾値処理部603で適用する閾値として決定する。
On the other hand, if the
第一の判定部600にて斜め万線スクリーンを適用すると判定された場合は、パラメータ選択部63で選択された縦万線スクリーン用のパラメータを、ドット寄せ方向に応じて並べ替えたものを、閾値処理部603で適用する閾値として決定する。
When it is determined by the
次に、第2実施形態における処理画像例について図29を参照して説明する。(1)から(3)の黒線、つまり黒文字の一部は、図24のドット寄せ結果を使って合成部61で画像を生成するため、エッジ部がギザギザした形状の画像になる。オブジェクト情報も、画像に合わせてギザギザの山部分、つまり黒画素は文字オブジェクト、ギザギザの谷部分はグラフィックオブジェクトに変換される。
Next, an example of a processed image in the second embodiment will be described with reference to FIG. The black lines in (1) to (3), that is, some of the black characters, are generated with the combining
(1)は、黒文字を構成する横線を、下(または上)に0.5画素分ずらす幾何補正を想定した図になっており、線画の上下でギザギザ形状が50%を占めている。(2)は下に0.25画素分ずらす幾何補正を想定した図になっており、線画の上部は75%、下部は25%のギザギザ形状になる。 (1) is a diagram assuming a geometric correction in which a horizontal line constituting a black character is shifted downward (or up) by 0.5 pixels, and a jagged shape occupies 50% at the top and bottom of the line drawing. (2) is a diagram that assumes geometric correction by shifting 0.25 pixels downward, and the line drawing has a jagged shape with 75% at the top and 25% at the bottom.
また、必ず一様なギザギザ模様になるわけではなく、(3)のように回転を伴う幾何補正を行う場合や入力画像の線画が元々傾きをもっている場合は、比率がグラデーション状に変化するギザギザ形状になる。このように、エッジ部に凹凸をつけることで、1dot未満の単位で線の重心を変えることを可能にしている。 In addition, it does not always have a uniform jagged pattern. When geometric correction with rotation is performed as in (3) or when the line drawing of the input image has an original inclination, the jagged shape in which the ratio changes in a gradation shape. become. In this way, by making the edge portion uneven, it is possible to change the center of gravity of the line in units of less than 1 dot.
(1)から(3)は、図25で説明したオブジェクト境界用のパラメータを使って処理されているため、エッジ部に比較的高周波な凹凸パターンが付く。昨今のプリンタ出力解像度では目視で確認できないレベルの凹凸であり、まっすぐな直線が描画されているように見えるはずである。従って、画像変形による線のがたつきを防止する効果がある。 Since (1) to (3) are processed using the object boundary parameters described with reference to FIG. 25, a relatively high frequency uneven pattern is attached to the edge portion. It is unevenness at a level that cannot be visually confirmed with the current printer output resolution, and should appear to be a straight line drawn. Therefore, there is an effect of preventing the rattling of the line due to the image deformation.
(4)は、網掛け部の処理画像である。網掛けドットのエッジに凹凸をつけることで1dot未満の単位で重心を変えているのは同じであるが、図27で説明した非オブジェクト境界用のパラメータを使って処理されているため、(1)や(2)のような規則的な凹凸パターンではなく、不規則なパターンの凹凸が付く。従って、モアレの発生を防止する効果がある。 (4) is a processed image of the shaded portion. It is the same that the center of gravity is changed in units of less than 1 dot by making irregularities on the edges of the shaded dots, but since it is processed using the non-object boundary parameters described in FIG. ) And (2) are not regular irregular patterns, but irregular patterns are irregular. Therefore, there is an effect of preventing the occurrence of moire.
モアレは、周期性のあるパターン同士が、それぞれ異なる周期をもつ場合に、干渉によって発生する模様である。本実施形態における周期性のあるパターン同士とは、一方が網掛け、もう一方がここで言っている凹凸パターンである。網掛けには、いろいろな周期の網掛けがあるため、凹凸パターンの周期と異なる周期をもつ網掛けも存在し、モアレが発生するケースが出てくる。 Moire is a pattern that occurs due to interference when patterns with periodicity have different periods. In the present embodiment, the patterns having periodicity are the uneven patterns which one is shaded and the other is here. Since there are various periods of shading, there is also a case where there is a shading having a period different from the period of the concavo-convex pattern, and moire occurs.
そこで、本実施形態では、干渉発生要因の一方である凹凸パターンの方の周期性をくずしてやることで、干渉は発生しなくなる。なお、ここでの「不規則な」とは、周期性をくずした、非周期的な、程度の意味で使用している。また、本実施形態では規則的に配列されたパラメータ群や不規則に配列されたパラメータ群を予め用意しておく例で説明したが、一般的な乱数発生方式を使って逐次発生させたパラメータを使うようにしてもよい。 Therefore, in the present embodiment, interference is not generated by destroying the periodicity of the uneven pattern, which is one of the causes of interference. Here, “irregular” is used in the sense of non-periodicity with a loss of periodicity. Further, in the present embodiment, an example in which a parameter group that is regularly arranged or a parameter group that is irregularly arranged is prepared in advance has been described. However, parameters that are sequentially generated using a general random number generation method are described. You may make it use.
なお、従来の処理画像例について図30を参照して説明する。例えば特許文献1のように、従来は、前景・背景二値化部6が設けられていない。そのため、幾何補正後に前景(黒文字)と背景(色地)の境界部で中間濃度画素が発生する。よって、擬似階調処理後は、その中間濃度画素が文字オブジェクト用のスクリーンパターンに置き換わり、色地部分がグラフィックオブジェクト用のスクリーンパターンに置き換わることになり、線数が異なるスクリーンパターンの境界部で白抜けが発生してしまうことになる。
A conventional processed image example will be described with reference to FIG. For example, as in
なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、上述した本実施形態の画像処理装置における各処理を、ハードウェア、又は、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。 Each of the above-described embodiments is a preferred embodiment of the present invention, and various modifications can be made without departing from the scope of the present invention. For example, each process in the above-described image processing apparatus of the present embodiment can be executed using hardware, software, or a combined configuration of both.
なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリにインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。 In the case of executing processing using software, it is possible to install and execute a program in which a processing sequence is recorded in a memory in a computer incorporated in dedicated hardware. Alternatively, the program can be installed and executed on a general-purpose computer capable of executing various processes.
1 入力画像取得部
2 レンダリング部
3 ずれ量取得部
4 幾何補正パラメータ設定部
5 幾何補正部
6 前景・背景二値化部
7 擬似階調処理部
8 プリンタ出力部
50 対応座標点算出部
51 4点抽出部
52 第1のオブジェクト抽出部
53 第2のオブジェクト抽出部
54 補間演算部
55 前景画素値選択部
56 背景画素値選択部
57 蓄積部
58 エッジ判定部
59 前景・背景画素値選択部
60 ドット寄せ部
61 合成部
62 オブジェクト境界判定部
63 パラメータ選択部
600 第1の判定部
601 第2の判定部
602 閾値決定部
603 閾値処理部
DESCRIPTION OF
Claims (13)
前記画像データのオブジェクト情報に基づいて画素値が異なる複数の画素値補正画像データを生成する幾何補正手段と、
前記幾何補正手段によって生成された前記複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成する合成手段と、
前記合成手段により生成された補正画像合成データに対して疑似階調処理を施す疑似階調処理手段と、
を備えることを特徴とする画像処理装置。 An image processing apparatus that performs geometric correction on input image data,
Geometric correction means for generating a plurality of pixel value corrected image data having different pixel values based on object information of the image data;
A synthesis unit that selects a pixel value to be applied for each pixel from the plurality of pixel value correction image data generated by the geometric correction unit, and generates corrected image synthesis data;
Pseudo gradation processing means for performing pseudo gradation processing on the corrected image composition data generated by the composition means;
An image processing apparatus comprising:
前記幾何補正手段は、前記画像データにおける前記注目座標がオブジェクト境界である場合は注目座標周辺の座標点のオブジェクト情報と前記オブジェクト情報ごとの優先度に基づいて前記注目座標の画素値を決定し、前記画像データにおける注目座標が非オブジェクト境界である場合は前記注目座標周辺の座標点のエッジ情報に基づいて前記注目座標の画素値を決定して画素値補正画像データを生成することを特徴とする請求項2記載の画像処理装置。 Edge determination means for acquiring edge information of the pixel of interest in the image data;
The geometric correction means determines the pixel value of the target coordinate based on the object information of the coordinate point around the target coordinate and the priority for each object information when the target coordinate in the image data is an object boundary, When the target coordinate in the image data is a non-object boundary, pixel value corrected image data is generated by determining a pixel value of the target coordinate based on edge information of coordinate points around the target coordinate. The image processing apparatus according to claim 2.
前記幾何補正手段によって生成された前記多値補正画像データの画素値を二値化処理した二値化画像データを生成するドット寄せ手段を備え、
前記合成手段は、前記ドット寄せ手段によって生成された前記二値化画像データに基づいて、前記複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成することを特徴とする請求項2又は3記載の画像処理装置。 The geometric correction means determines the pixel value of the target coordinate based on the object information of the coordinate point around the target coordinate and the coordinate information of the target coordinate, and generates multi-value corrected image data,
Comprising dot shifting means for generating binarized image data obtained by binarizing the pixel values of the multi-value corrected image data generated by the geometric correcting means;
The synthesizing unit generates corrected image synthesized data by selecting a pixel value to be applied for each pixel from the plurality of pixel value corrected image data based on the binarized image data generated by the dot shifting unit. The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記合成手段は、前記ドット寄せ手段によって二値化された前記二値化画像データに基づいて、前記複数の画素値補正画像データと、前記複数のオブジェクト補正画像データとから、画素ごとに適用する画素値とオブジェクト情報を選択して前記補正画像合成データを生成し、
前記疑似階調処理手段は、前記合成部によって生成された前記補正画像合成データに対して施す疑似階調処理に使用するスクリーンを、前記補正画像合成データのオブジェクト情報に基づいて判定することを特徴とする請求項2から10の何れか1項に記載の画像処理装置。 The geometric correction unit corrects distortion of the image data, generates a plurality of object corrected image data having different object information based on the object information of the image data,
The synthesizing unit applies pixel by pixel from the plurality of pixel value corrected image data and the plurality of object corrected image data based on the binarized image data binarized by the dot shifting unit. Select the pixel value and object information to generate the corrected image composition data,
The pseudo gradation processing means determines a screen to be used for pseudo gradation processing to be performed on the corrected image combined data generated by the combining unit based on object information of the corrected image combined data. The image processing apparatus according to any one of claims 2 to 10.
前記記憶部に記憶された前記複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成して前記記憶部に記憶するステップと、
前記記憶部に記憶された補正画像合成データに対して疑似階調処理を施すステップと、
を備えることを特徴とする画像処理方法。 Generating a plurality of pixel value corrected image data having different pixel values based on the object information of the input image data and storing them in the storage unit;
Selecting a pixel value to be applied for each pixel from the plurality of pixel value corrected image data stored in the storage unit, generating corrected image composite data, and storing the corrected image composite data in the storage unit;
Performing pseudo gradation processing on the corrected image composite data stored in the storage unit;
An image processing method comprising:
前記記憶部に記憶された前記複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成して前記記憶部に記憶する処理と、
前記記憶部に記憶された補正画像合成データに対して疑似階調処理を施す処理と、
をコンピュータに実行させることを特徴とするプログラム。 Processing for correcting distortion of input image data, generating a plurality of pixel value corrected image data having different pixel values based on object information of the image data, and storing the data in a storage unit;
A process of selecting a pixel value to be applied for each pixel from the plurality of pixel value corrected image data stored in the storage unit, generating corrected image composite data, and storing the corrected image composite data in the storage unit;
A process of performing pseudo gradation processing on the corrected image composite data stored in the storage unit;
A program that causes a computer to execute.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/963,310 US9681022B2 (en) | 2014-12-25 | 2015-12-09 | Image processing apparatus, image processing method, and recording medium |
EP15199088.4A EP3038338B1 (en) | 2014-12-25 | 2015-12-10 | Image processing apparatus, image processing method, and carrier means |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014263689 | 2014-12-25 | ||
JP2014263689 | 2014-12-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016123070A true JP2016123070A (en) | 2016-07-07 |
JP6651776B2 JP6651776B2 (en) | 2020-02-19 |
Family
ID=56329222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015198477A Expired - Fee Related JP6651776B2 (en) | 2014-12-25 | 2015-10-06 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6651776B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000013605A (en) * | 1998-06-18 | 2000-01-14 | Minolta Co Ltd | Image processor, method and record medium recording image processing program |
JP2000076432A (en) * | 1999-08-27 | 2000-03-14 | Seiko Epson Corp | Image data interpolation device and method therefor, and medium having recorded image data interpolation program thereon |
JP2009225422A (en) * | 2008-02-19 | 2009-10-01 | Canon Inc | Image encoding apparatus, image processing apparatus, and control method thereof |
JP2013026865A (en) * | 2011-07-22 | 2013-02-04 | Konica Minolta Business Technologies Inc | Image processing apparatus and image processing method |
-
2015
- 2015-10-06 JP JP2015198477A patent/JP6651776B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000013605A (en) * | 1998-06-18 | 2000-01-14 | Minolta Co Ltd | Image processor, method and record medium recording image processing program |
JP2000076432A (en) * | 1999-08-27 | 2000-03-14 | Seiko Epson Corp | Image data interpolation device and method therefor, and medium having recorded image data interpolation program thereon |
JP2009225422A (en) * | 2008-02-19 | 2009-10-01 | Canon Inc | Image encoding apparatus, image processing apparatus, and control method thereof |
JP2013026865A (en) * | 2011-07-22 | 2013-02-04 | Konica Minolta Business Technologies Inc | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP6651776B2 (en) | 2020-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6781406B2 (en) | Image processing equipment and computer programs | |
EP3038338B1 (en) | Image processing apparatus, image processing method, and carrier means | |
JP2011193230A (en) | Image processing program and image processing device | |
JP4111190B2 (en) | Image processing device | |
US10424066B2 (en) | Image analyzing apparatus that corrects isolated pixels in target image data | |
JP5743187B2 (en) | Image area separation method, program for executing the same, and image area separation apparatus | |
JP5458946B2 (en) | Image processing apparatus, program, and recording medium | |
JP5825306B2 (en) | Image scaling apparatus and image scaling method | |
JP6651776B2 (en) | Image processing apparatus, image processing method, and program | |
JP6256747B2 (en) | Image conversion processing method, program for executing the same, and image conversion processing apparatus | |
JP4422128B2 (en) | Method for correcting gradation of binary image | |
JP6880833B2 (en) | Control device for causing the print execution unit to execute printing | |
JP6388337B2 (en) | Image conversion processing method, program for executing the same, and image conversion processing apparatus | |
US10375275B2 (en) | Image processing apparatus specifying first and second pixels, and generating processed image data in which the first and second pixels have first and second colors respectively | |
JP5915410B2 (en) | Image processing apparatus and program | |
JP6108218B2 (en) | Image conversion processing method, program for executing the same, and image conversion processing apparatus | |
JP5679284B2 (en) | Pixel number conversion method, program for executing the same, and pixel number conversion device | |
JP2013526733A (en) | How to restore raster image edges | |
JP2018148378A (en) | Image processing device and computer program | |
JP6108217B2 (en) | Image conversion processing method, program for executing the same, and image conversion processing apparatus | |
JP6732428B2 (en) | Image processing device, halftone dot determination method, and program | |
EP2654283A1 (en) | Method for halftoning | |
JP6548256B2 (en) | Method of generating verification image, program for executing the same, and image processing apparatus | |
JP5601577B2 (en) | Pixel number conversion method, program for executing the same, and pixel number conversion device | |
JP2015207259A (en) | Image processor, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180910 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20181019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200106 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6651776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |