JP2006191458A - Image processor and image-processing method - Google Patents

Image processor and image-processing method Download PDF

Info

Publication number
JP2006191458A
JP2006191458A JP2005002655A JP2005002655A JP2006191458A JP 2006191458 A JP2006191458 A JP 2006191458A JP 2005002655 A JP2005002655 A JP 2005002655A JP 2005002655 A JP2005002655 A JP 2005002655A JP 2006191458 A JP2006191458 A JP 2006191458A
Authority
JP
Japan
Prior art keywords
image data
dot
value
output order
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005002655A
Other languages
Japanese (ja)
Other versions
JP4468826B2 (en
Inventor
Etsuro Morimoto
悦朗 森本
Hiroshi Ishii
石井  博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005002655A priority Critical patent/JP4468826B2/en
Publication of JP2006191458A publication Critical patent/JP2006191458A/en
Application granted granted Critical
Publication of JP4468826B2 publication Critical patent/JP4468826B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor and an image-processing method capable of enhancing the sharpness while establishing the granularity and the resolution of an output image at the same time. <P>SOLUTION: The image processor for determining a ratio of dot-on pixels in accordance with a density value of multi-value image data and outputting the ratio in a form of small-value image data, includes: a shape recognition means 101 for recognizing the shape according to pattern recognition applied to the multi-value image data; an output order determining means 104 for determining dot output order on the basis of the recognized shape and image data around a target pixel; a quantization means 108 for applying quantization to the received multi-value image data into the small-value image data; and a dot output position control means 111 for controlling a dot-ON pixel position in accordance with a density value of the multi-value image data, and the dot output position control means arranges the dot-on pixels on the basis of the determined dot output order. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、レーザープリンタ、デジタル複写機、カラーレーザープリンタ、デジタルカラー複写機などに応用される画像処理装置および画像処理方法に係り、特にラスタライズされたデジタル画像データの出力画像の画質向上処理を行なう画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method applied to a laser printer, a digital copying machine, a color laser printer, a digital color copying machine, and the like, and in particular, performs an image quality improvement process for an output image of rasterized digital image data. The present invention relates to an image processing apparatus and an image processing method.

従来、画像の粒状性と解像性とを同時に両立させた出力画像を得るために、以下のような技術が開示されている。   Conventionally, in order to obtain an output image in which both the graininess and resolution of an image are simultaneously achieved, the following techniques are disclosed.

特許文献1には、原画像の濃度値に応じて、ON、OFF画素の比率を決定して中間調を表現し、中間調画像メッシュ内の濃度値の変化の度合いに応じて、それぞれ異なった画像処理方法を用いて予め決められた数のメッシュ内のON画素を再分配する技術について開示されている。   In Patent Document 1, halftones are expressed by determining the ratio of ON and OFF pixels according to the density value of the original image, and differ according to the degree of change in density value in the halftone image mesh. A technique for redistributing ON pixels in a predetermined number of meshes using an image processing method is disclosed.

具体的には、メッシュ内の濃度勾配が小さい場合にドット集中型パターン順、濃度勾配が中位の場合に各画素の濃度値を考慮したドット集中型パターンを組み合わせた順、濃度勾配が大きい場合に濃度順、にメッシュ内のON画素を再配分する。さらに、濃度勾配が小位、中位の場合には、どこか一画素でも濃度勾配が高いところがないかを調べ、あればメッシュ内のON画素数を変えず、メッシュ内の一番高濃度の画素をONに、一番低濃度の画素をOFFにする配分を行っている。   Specifically, when the density gradient in the mesh is small, the dot concentration pattern order, when the density gradient is medium, when combining the dot concentration pattern considering the density value of each pixel, and when the density gradient is large The ON pixels in the mesh are redistributed in order of density. Furthermore, when the density gradient is small or medium, it is checked whether there is a place where the density gradient is high at any one pixel, and if there is no change in the number of ON pixels in the mesh, the highest density in the mesh The distribution is performed such that the pixels are turned on and the lowest density pixel is turned off.

特許文献2及び3には、高密度書込系の電子写真プリンタにおいて、解像性を保ちながら階調を表現可能な誤差拡散処理を高速に実現し、かつ、画像の粒状性、解像性といった画質の向上を図った画像処理方法に関する技術が本出願人より開示されている。具体的には、入力多値画像データに対し、画像のエッジ度合いに応じたディザ閾値を用いて、低解像度で多値誤差拡散処理を行うことにより、低解像度の入力多値画像データを高速に高解像度の2値画像データに変換している。
特開平3−119861号公報 特開2002−185785号公報 特開2002−344742号公報
Patent Documents 2 and 3 provide high-speed error diffusion processing capable of expressing gradation while maintaining resolution in a high-density writing type electrophotographic printer, and image graininess and resolution. A technique relating to an image processing method for improving the image quality is disclosed by the present applicant. Specifically, low-resolution input multivalued image data can be processed at high speed by performing multivalued error diffusion processing at low resolution using a dither threshold value corresponding to the edge degree of the image. It is converted into high resolution binary image data.
Japanese Patent Laid-Open No. 3-119861 JP 2002-185785 A JP 2002-344742 A

特許文献1の画像処理装置では、濃度勾配が小位、中位の場合も局所的な解像性を向上させる狙いで、どこか一画素でも濃度勾配が飛び抜けた所があったときに、そのメッシュを濃度順のON画素配分の方法に換えてしまうのではなく、上記のようにメッシュ内のON画素数は変えず、メッシュ内の一番高濃度の画素をONに、一番低濃度の画素をOFFにする方法により粒状性を損なわずに解像性の向上を図っている。   In the image processing apparatus of Patent Document 1, when there is a place where the density gradient has jumped out of any one pixel in order to improve local resolution even when the density gradient is small or medium, Rather than changing the mesh to the ON pixel allocation method in order of density, the number of ON pixels in the mesh is not changed as described above, the highest density pixel in the mesh is turned ON, and the lowest density is set. The resolution is improved without deteriorating the graininess by the method of turning off the pixels.

しかしながら、特許文献1の方法ではメッシュ内の各画素のON/OFF、すなわち2値出力で中間調を表現することになるため、得られる階調数が制限されてしまい、階調数を増やすべくメッシュを大きくすると鮮鋭性が悪くなってしまうため、画質的に満足できないという問題がある。   However, in the method of Patent Document 1, since halftones are expressed by ON / OFF of each pixel in the mesh, that is, binary output, the number of gradations to be obtained is limited, and the number of gradations should be increased. When the mesh is enlarged, the sharpness deteriorates, so that there is a problem that the image quality is not satisfactory.

そこで、特許文献2及び3では、解像性を保ちながら階調を表現することが可能な誤差拡散法を用い、さらに入力多値画像データに対し、画像のエッジ度合いに応じたディザ閾値を用いて誤差拡散処理を行うことにより、十分な階調数で粒状性と解像性の画質を向上させている。また、特許文献2及び3では、低解像度の入力多値画像データに対し、低解像度で多値誤差拡散を行い高解像度の2値画像データに変換するため、高速処理を可能としている。   Therefore, in Patent Documents 2 and 3, an error diffusion method capable of expressing gradation while maintaining resolution is used, and a dither threshold corresponding to the degree of edge of the image is used for input multilevel image data. By performing error diffusion processing, the image quality of graininess and resolution is improved with a sufficient number of gradations. In Patent Documents 2 and 3, high-speed processing is possible because low-resolution input multilevel image data is converted into high-resolution binary image data by performing multilevel error diffusion at low resolution.

しかしながら、特許文献2及び3では、エッジ度合いが大きい場合、ディザ閾値を固定閾値とした上、高解像度画素へのドット出力位置が予め決められた配置順であるため、十分に高解像度から期待される解像性を得られていないという問題がある。   However, in Patent Documents 2 and 3, when the edge degree is large, the dither threshold value is set as a fixed threshold value, and the dot output position to the high resolution pixel is in a predetermined arrangement order. There is a problem that the resolution is not obtained.

本発明は、上記の点に鑑みなされたもので、出力画像の粒状性と解像性を同時に両立させながら、鮮鋭性を向上させることができる画像処理装置および画像処理方法を提供することを目的とする。   The present invention has been made in view of the above points, and it is an object of the present invention to provide an image processing apparatus and an image processing method capable of improving sharpness while simultaneously achieving both the granularity and resolution of an output image. And

上記課題を解決するため、本発明は、入力された多値画像データの濃度値に応じてドットオン画素の比率を決定し、前記多値画像データよりも少ない多値数の少値画像データで出力する画像処理装置であって、入力された多値画像データに対してパターン認識による形状の認識を行なう形状認識手段と、前記形状認識手段で認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定するドット出力順序決定手段と、入力された多値画像データを少値画像データに量子化する量子化手段と、前記入力された多値画像データの濃度値に応じてドットオン画素位置を制御するドット出力位置制御手段とを有し、前記ドット出力位置制御手段は、前記ドット出力順序決定手段により決定されたドット出力順序に基づいて、前記ドットオン画素を配置することを特徴とする。   In order to solve the above-described problem, the present invention determines the dot-on pixel ratio according to the density value of the input multi-value image data, and uses the low-value image data having a multi-value number smaller than the multi-value image data. An image processing apparatus that outputs a shape recognition unit that recognizes a shape by pattern recognition on input multi-valued image data, and a shape recognized by the shape recognition unit and image data around a target pixel. Based on the dot output order determining means for determining the dot output order, the quantizing means for quantizing the input multi-value image data into the low-value image data, and the density value of the input multi-value image data Dot output position control means for controlling the dot-on pixel position, the dot output position control means based on the dot output order determined by the dot output order determination means. And wherein placing the Toon pixel.

また、本発明は、入力された低解像度の多値画像データを、前記多値画像データよりも少ない多値数の高解像度の少値画像データで出力する画像処理装置であって、入力された多値画像データに対してパターン認識による形状の認識を行なう形状認識手段と、前記形状認識手段で認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定するドット出力順序決定手段と、入力された多値画像データを低解像度の画素単位で少値画像データに量子化する量子化手段と、前記量子化手段により量子化された前記低解像度の少値画像データを、高解像度の少値画像データのドットオン画素数に変換し、ドットオン画素位置を制御するドット出力位置制御手段とを有し、前記ドット出力位置制御手段は、前記ドット出力順序決定手段により決定されたドット出力順序に基づいて、前記高解像度の少値画像データのドットオン画素を配置することを特徴とする。   The present invention is also an image processing apparatus for outputting input low-resolution multilevel image data as high-resolution low-value image data having a multi-value number smaller than that of the multi-value image data. Shape recognition means for recognizing shape by pattern recognition for multi-valued image data, and dot output order determination for determining dot output order based on the shape recognized by the shape recognition means and image data around the target pixel Means, quantization means for quantizing the inputted multi-value image data into low-value image data in units of low resolution, and the low-resolution low-value image data quantized by the quantization means Dot output position control means for controlling the dot-on pixel position by converting it into the number of dot-on pixels of resolution low-value image data, the dot output position control means determining the dot output order Based on the dot output sequence determined by stage, characterized by arranging the dot-on pixels of the small value image data of the high resolution.

また、本発明は、入力された低解像度の多値画像データを、前記多値画像データよりも少ない多値数の高解像度の少値画像データで出力する画像処理装置であって、入力された多値画像データに対してパターン認識による形状の認識を行なう形状認識手段と、前記形状認識手段で認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定するドット出力順序決定手段と、入力された多値画像データを低解像度の画素単位で多値誤差拡散により少値画像データに量子化する量子化手段と、前記量子化手段により量子化された前記低解像度の少値画像データを、高解像度の少値画像データのドットオン画素数に変換し、ドットオン画素位置を制御するドット出力位置制御手段とを有し、前記ドット出力位置制御手段は、前記ドット出力順序決定手段により決定されたドット出力順序に基づいて、前記高解像度の少値画像データのドットオン画素を配置することを特徴とする。   The present invention is also an image processing apparatus for outputting input low-resolution multilevel image data as high-resolution low-value image data having a multi-value number smaller than that of the multi-value image data. Shape recognition means for recognizing shape by pattern recognition for multi-valued image data, and dot output order determination for determining dot output order based on the shape recognized by the shape recognition means and image data around the target pixel Means, quantization means for quantizing the inputted multi-value image data into low-value image data by multi-value error diffusion in units of low resolution, and the low-resolution low value quantized by the quantization means Dot output position control means for converting the image data into the number of dot-on pixels of high-resolution low-value image data and controlling the dot-on pixel position, the dot output position control means, Based on the dot output order determined by Tsu preparative output order determining means, characterized by arranging the dot-on pixels of the small value image data of the high resolution.

また、本発明は、入力された多値画像データの濃度値に応じてドットオン画素の比率を決定し、前記多値画像データよりも少ない多値数の少値画像データで出力する画像処理方法であって、入力された多値画像データに対してパターン認識により形状を認識し、認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定し、入力された多値画像データを少値画像データに量子化し、入力された多値画像データの濃度値に応じてドットオン画素位置を制御し、決定されたドット出力順序に基づいて、前記ドットオン画素を配置することを特徴とする。   In addition, the present invention provides an image processing method for determining a dot-on pixel ratio according to a density value of input multi-valued image data, and outputting with less value image data having a smaller number of multi-values than the multi-value image data. The shape of the input multi-value image data is recognized by pattern recognition, the dot output order is determined based on the recognized shape and the image data around the target pixel, and the input multi-value image Quantizing the data into low-value image data, controlling the dot-on pixel position according to the density value of the input multi-value image data, and arranging the dot-on pixel based on the determined dot output order Features.

また、本発明は、入力された低解像度の多値画像データを、前記多値画像データよりも少ない多値数の高解像度の少値画像データで出力する画像処理方法であって、入力された多値画像データに対してパターン認識により形状を認識し、認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定し、入力された多値画像データを低解像度の画素単位で少値画像データに量子化し、量子化された前記低解像度の少値画像データを、高解像度の少値画像データのドットオン画素数に変換してドットオン画素位置を制御し、決定されたドット出力順序に基づいて、前記高解像度の少値画像データのドットオン画素を配置することを特徴とする。   The present invention is also an image processing method for outputting input low-resolution multi-value image data as high-resolution low-value image data having a multi-value number smaller than that of the multi-value image data. Recognize the shape of the multi-valued image data by pattern recognition, determine the dot output order based on the recognized shape and the image data around the pixel of interest, and input multi-valued image data in low-resolution pixel units Quantized into low-value image data in the above, and the quantized low-resolution low-value image data is converted into the number of dot-on pixels in the high-resolution low-value image data, and the dot-on pixel position is controlled and determined. The dot-on pixels of the high-resolution low-value image data are arranged based on the dot output order.

また、本発明は、入力された低解像度の多値画像データを、前記多値画像データよりも少ない多値数の高解像度の少値画像データで出力する画像処理方法であって、入力された多値画像データに対してパターン認識により形状を認識し、認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定し、入力された多値画像データを低解像度の画素単位で多値誤差拡散により少値画像データに量子化し、量子化された前記低解像度の少値画像データを、高解像度の少値画像データのドットオン画素数に変換してドットオン画素位置を制御し、決定されたドット出力順序に基づいて、前記高解像度の少値画像データのドットオン画素を配置することを特徴とする。   The present invention is also an image processing method for outputting input low-resolution multi-value image data as high-resolution low-value image data having a multi-value number smaller than that of the multi-value image data. Recognize the shape of the multi-valued image data by pattern recognition, determine the dot output order based on the recognized shape and the image data around the pixel of interest, and input multi-valued image data in low-resolution pixel units Quantize to low-value image data by multi-value error diffusion and convert the quantized low-resolution low-value image data to the number of dots-on pixels in high-resolution low-value image data to control the dot-on pixel position. The dot-on pixels of the high-resolution low-value image data are arranged based on the determined dot output order.

本発明では、入力された多値画像データに対してパターン認識により形状を認識し、その認識結果と注目画素周辺の画像データとに基づいて、ドットオン画素の配置を決定することにより、特に画像のエッジ部において、入力された多値画像データの形状に忠実なドットオン画像の配置とすることが可能となる。   In the present invention, the shape of the input multi-valued image data is recognized by pattern recognition, and the arrangement of dot-on pixels is determined based on the recognition result and the image data around the target pixel. In this edge portion, it is possible to arrange a dot-on image faithful to the shape of the input multi-value image data.

本発明によれば、出力画像の粒状性と解像性を同時に両立させながら、鮮鋭性を向上させることができる画像処理装置および画像処理方法を提供可能である。   According to the present invention, it is possible to provide an image processing apparatus and an image processing method capable of improving sharpness while simultaneously satisfying both the graininess and resolution of an output image.

次に、本発明を実施するための最良の形態を、以下の実施例に基づき図面を参照しつつ説明していく。なお、本実施例では入力階調値および出力階調値が0以上255以下の整数値を取る例を説明する。入力階調値および出力階調値「0」は、最も濃度が低いことを表す。入力階調値および出力階調値「255」は、最も濃度が高いことを表す。   Next, the best mode for carrying out the present invention will be described based on the following embodiments with reference to the drawings. In the present embodiment, an example will be described in which the input gradation value and the output gradation value take integer values of 0 or more and 255 or less. The input gradation value and the output gradation value “0” represent the lowest density. The input gradation value and the output gradation value “255” represent the highest density.

本発明の実施例1では、600dpi、256階調多値の入力画像データに対してパターンマッチングを用いたジャギー低減処理を行い、そのジャギー低減処理の出力結果に対して5値誤差拡散処理を行い、その5値誤差拡散処理の量子化結果に対し、画像の形状認識結果とエッジレベルに基づいて1200dpiの2値画像を生成する例を示す。   In the first embodiment of the present invention, jaggy reduction processing using pattern matching is performed on 600 dpi, 256-gradation multilevel input image data, and quinary error diffusion processing is performed on the output result of the jaggy reduction processing. An example of generating a 1200 dpi binary image based on the result of image shape recognition and the edge level is shown for the quantization result of the quinary error diffusion processing.

図1は、本発明による画像処理装置の第1実施例を示す構成図である。図1の画像処理装置は、ジャギー低減処理部と中間調処理部とを有する構成である。ジャギー低減処理部は、形状認識部101,補正値読み出し部102,データ補正部103,テンプレートROM1011及び補正値ROM1021を有する構成である。   FIG. 1 is a block diagram showing a first embodiment of an image processing apparatus according to the present invention. The image processing apparatus of FIG. 1 has a configuration having a jaggy reduction processing unit and a halftone processing unit. The jaggy reduction processing unit includes a shape recognition unit 101, a correction value reading unit 102, a data correction unit 103, a template ROM 1011 and a correction value ROM 1021.

また、中間調処理部はドット出力順序決定部104,エッジレベル算出部105,γ補正部106,加算器107,量子化部108,減算器109,誤差演算部110,ドット出力位置制御部111を有する構成である。   The halftone processing unit includes a dot output order determination unit 104, an edge level calculation unit 105, a γ correction unit 106, an adder 107, a quantization unit 108, a subtractor 109, an error calculation unit 110, and a dot output position control unit 111. It is the composition which has.

まず、形状認識部101は、600dpi、256階調多値の入力画像データに対してパターン認識による形状の認識を行う。パターン認識を行なう場合は、予め図2(a),図2(b)に示すようなテンプレートを複数種類用意し、テンプレートROM1011に記憶させておく。図2は、テンプレートの一例を表したイメージ図である。   First, the shape recognizing unit 101 recognizes a shape by pattern recognition on input image data having 600 dpi and 256 gradation multilevel. When pattern recognition is performed, a plurality of types of templates as shown in FIGS. 2A and 2B are prepared in advance and stored in the template ROM 1011. FIG. 2 is an image diagram showing an example of a template.

形状認識部101は、処理を行う注目画素を中心とした周辺データウィンドウとテンプレートとを小片毎に突き合わせ、両者の一致を検出することによって画像が特定の形状であるかどうかの判断を行う。テンプレートとの一致が検出され、画像の形状が特定された場合、形状認識部101は一致したテンプレートのテンプレート情報を補正値読み出し部102に渡す。   The shape recognizing unit 101 determines whether or not the image has a specific shape by matching the peripheral data window centering on the target pixel to be processed with the template for each small piece and detecting a match between the two. When a match with the template is detected and the shape of the image is specified, the shape recognition unit 101 passes the template information of the matched template to the correction value reading unit 102.

補正値読み出し部102は、形状認識部101から受けたテンプレート情報に基づき次のデータ補正部103にて注目画素を補正ドットに置き換えるために用いる補正値データを補正値ROM1021から読み出す。図3は、補正値データがテンプレート情報に対応付けられて記憶されている例を表したイメージ図である。例えば、形状認識部101から受けたテンプレート情報が「Template No.1」であった場合、補正値読み出し部102は補正値ROM1021から対応する補正値データ「160」を読み出し、データ補正部103に渡す。データ補正部103は、入力画像の注目画素を補正値読み出し部102で読み出された補正値データに置き換える。   Based on the template information received from the shape recognition unit 101, the correction value reading unit 102 reads correction value data used to replace the pixel of interest with correction dots in the next data correction unit 103 from the correction value ROM 1021. FIG. 3 is an image diagram illustrating an example in which correction value data is stored in association with template information. For example, when the template information received from the shape recognition unit 101 is “Template No. 1”, the correction value reading unit 102 reads the corresponding correction value data “160” from the correction value ROM 1021 and passes it to the data correction unit 103. . The data correction unit 103 replaces the target pixel of the input image with the correction value data read by the correction value reading unit 102.

以上の処理により、例えば入力画像が図4のようなジャギーを発生しやすい水平線に近い画像であった場合でも、図1のジャギー低減処理部は、形状認識部101により画像形状を判別し、段差付近の各画素毎に、一致したテンプレート情報から得られる補正値データを用いてデータ補正部103で補正を行うことにより、図5の様な画像がデータ補正部103の出力として得られる。   With the above processing, for example, even when the input image is an image close to a horizontal line that easily generates jaggy as shown in FIG. 4, the jaggy reduction processing unit in FIG. An image as shown in FIG. 5 is obtained as an output of the data correction unit 103 by performing correction by the data correction unit 103 using correction value data obtained from the matched template information for each neighboring pixel.

図5の様な画像であれば、中間調処理部において1200dpi2値のデータへ変換を行うことにより、図6に示すように1200dpi2値画像に変換したときにジャギーの低減が可能である。   If the image shown in FIG. 5 is used, the halftone processing unit converts the data into 1200 dpi binary data, so that jaggy can be reduced when the image is converted into a 1200 dpi binary image as shown in FIG.

一方、図4のような入力画像に対し、上述した形状認識部101,補正値読み出し部102,データ補正部103によるジャギー低減処理を行わずに、1200dpi2値のデータに変換した場合には、中間調処理部において1200dpi2値のデータへ変換を行った場合でも図7の様な画像となり、ジャギーが目立った出力画像となってしまう。図6の画像と図7の画像とを実際の1200dpiレーザープリンタを用いて出力し、両者を比較すると、その画質は歴然である。   On the other hand, when the input image as shown in FIG. 4 is converted into 1200 dpi binary data without performing the jaggy reduction processing by the shape recognition unit 101, the correction value reading unit 102, and the data correction unit 103 described above, intermediate Even when the tone processing unit converts the data into 1200 dpi binary data, an image as shown in FIG. 7 is obtained, and an output image with noticeable jaggy is obtained. When the image of FIG. 6 and the image of FIG. 7 are output using an actual 1200 dpi laser printer and compared with each other, the image quality is obvious.

なお、形状認識部101は用意していた何れのテンプレートとも周辺データウインドウが一致しなかった場合、データ補正部103において注目画素の補正を行わず、入力画像データをスルーで出力する。形状認識部101で検出されたテンプレート情報は、中間調処理部のドット出力順序決定部104にも渡され、高解像度の画素のドット配置を行う際のドット出力順序の決定にも利用される。ドット出力順序決定部104は、形状認識部101で検出されたテンプレート情報とデータ補正部103にてデータ補正済みの注目画素を含む注目画素周辺の画像データとを用いて、次のドット出力位置制御部111にて利用するためのドット出力順序の決定を行う。ドット出力順序決定部104及びドット出力位置制御部111の詳細については後述する。   If the peripheral data window does not match any of the prepared templates, the shape recognition unit 101 does not correct the target pixel in the data correction unit 103 and outputs the input image data through. The template information detected by the shape recognizing unit 101 is also passed to the dot output order determining unit 104 of the halftone processing unit, and is also used for determining the dot output order when performing high-resolution pixel dot arrangement. The dot output order determination unit 104 uses the template information detected by the shape recognition unit 101 and the image data around the target pixel including the target pixel whose data has been corrected by the data correction unit 103 to perform next dot output position control. The dot output order for use in the unit 111 is determined. Details of the dot output order determination unit 104 and the dot output position control unit 111 will be described later.

エッジレベル算出部105は、データ補正部103にてデータ補正済みの画像に対して複数レベルのエッジレベルを算出する。本実施例では、エッジレベル0またはエッジレベル1の2段階とする。ただし、エッジレベル1はエッジレベル0と比較して画像のエッジ度合いが高いものとする。   The edge level calculation unit 105 calculates a plurality of edge levels for the image whose data has been corrected by the data correction unit 103. In this embodiment, there are two stages of edge level 0 or edge level 1. However, it is assumed that edge level 1 has a higher degree of image edge than edge level 0.

図8は、エッジレベル算出部の処理を表すフローチャートである。まず、ステップS1に進み、エッジレベル算出部105は図9に示したエッジ抽出フィルタによって600dpiの各画素のエッジ量を算出する。   FIG. 8 is a flowchart showing the processing of the edge level calculation unit. First, in step S1, the edge level calculation unit 105 calculates the edge amount of each pixel of 600 dpi using the edge extraction filter shown in FIG.

図9のエッジ抽出フィルタは、図9(a)が縦線、図9(b)が横線、図9(c)及び図9(d)が斜線のエッジ量を抽出するものである。具体的に、エッジレベル算出部105は図9(a)〜図9(d)で算出された4つのエッジ量に、それぞれ対応する係数をかける。例えば図9(a)及び図9(b)の係数は2である。図9(c)及び図9(d)の係数は、1である。エッジレベル算出部105は、係数をかけた各エッジ抽出フィルタのエッジ量の最大値を、その画素のエッジ量とする。   The edge extraction filter of FIG. 9 extracts edge amounts of FIG. 9 (a) as vertical lines, FIG. 9 (b) as horizontal lines, and FIGS. 9 (c) and 9 (d) as diagonal lines. Specifically, the edge level calculation unit 105 multiplies the four edge amounts calculated in FIGS. 9A to 9D by corresponding coefficients. For example, the coefficient in FIGS. 9A and 9B is 2. The coefficient in FIGS. 9C and 9D is 1. The edge level calculation unit 105 sets the maximum value of the edge amount of each edge extraction filter multiplied by the coefficient as the edge amount of the pixel.

次に、ステップS2に進み、エッジレベル算出部105は注目画素が白地領域に属するか否かの判定を行なう。注目画素を中心とした所定領域(例えば5×5領域)内に白画素が所定個数(例えば6画素)以上存在する場合、エッジレベル算出部105は注目画素が白地領域に属すると判定する。ここで、白画素とは例えばデータ(濃度)が5以下の値である画素というように、ノイズを考慮したものが良い。   Next, in step S2, the edge level calculation unit 105 determines whether or not the target pixel belongs to a white background area. When there are a predetermined number (for example, 6 pixels) or more of white pixels in a predetermined area (for example, 5 × 5 area) centered on the target pixel, the edge level calculation unit 105 determines that the target pixel belongs to the white background area. Here, the white pixel is preferably a pixel taking noise into consideration, for example, a pixel whose data (density) is 5 or less.

次に、エッジレベル算出部105は白地判定の結果によりエッジ量閾値を切り替え、算出したエッジ量を複数レベルに量子化する。注目画素が白地領域に属する場合(S2においてYES)、エッジレベル算出部105はステップS3に進み、白地領域に属さない場合に比べてエッジ量(量子化)閾値を低い値とする。注目画素が白地領域に属さない場合(S2においてNO)、エッジレベル算出部105はステップS4に進み、白地領域に属する場合に比べてエッジ量(量子化)閾値を高い値とする。   Next, the edge level calculation unit 105 switches the edge amount threshold based on the result of the white background determination, and quantizes the calculated edge amount into a plurality of levels. If the pixel of interest belongs to the white background area (YES in S2), the edge level calculation unit 105 proceeds to step S3, and sets the edge amount (quantization) threshold value to a lower value compared to the case where it does not belong to the white background area. If the pixel of interest does not belong to the white background area (NO in S2), the edge level calculation unit 105 proceeds to step S4, and sets the edge amount (quantization) threshold value to a higher value than when it belongs to the white background area.

このような切り替えを行なう理由は、低濃度の文字のように比較的エッジ量が低い文字でもエッジとして判定され易くするためである(文字領域周辺は白画素が多いので、低い閾値が選択されやすい)。そして、エッジレベル算出部105はステップS3又はS4に続いてステップS5に進み、ステップS3又はS4で必要に応じて切り替えられたエッジ量閾値に応じて、算出したエッジ量を複数レベルに量子化する。   The reason for such switching is to make it easy to determine even a character with a relatively low edge amount such as a low-density character as an edge (since there are many white pixels around the character region, a low threshold is easily selected. ). Then, the edge level calculation unit 105 proceeds to step S5 following step S3 or S4, and quantizes the calculated edge amount to a plurality of levels according to the edge amount threshold value switched as necessary in step S3 or S4. .

次に、ステップS6に進み、エッジレベル算出部105は注目画素が黒画素か否かの判定を行なう。エッジレベル算出部105は、注目画素のデータが所定値以上であれば黒画素と判定し(S6においてYES)、ステップS7に進み、その注目画素のエッジレベルを最大レベル(本実施例ではエッジレベル=1)とする。これは、比較的エッジ量が小さい高濃度網点部においてもエッジとして判定されやすくするためである。なお、エッジレベル算出部105は注目画素のデータが所定値以上でなければ黒画素でないと判定し(S6においてNO)、そのまま処理を終了する。なお、エッジ抽出フィルタは図9に示した例以外のものであっても良いことは言うまでもない。   In step S6, the edge level calculation unit 105 determines whether the target pixel is a black pixel. The edge level calculation unit 105 determines that the pixel of interest is a black pixel if the data of the pixel of interest is equal to or greater than a predetermined value (YES in S6), and proceeds to step S7 to set the edge level of the pixel of interest to the maximum level (in this embodiment, = 1). This is to make it easy to determine an edge even in a high density halftone dot portion having a relatively small edge amount. Note that the edge level calculation unit 105 determines that the pixel of interest is not a black pixel if the data of the pixel of interest is not equal to or greater than a predetermined value (NO in S6), and ends the process. Needless to say, the edge extraction filter may be other than the example shown in FIG.

γ補正部106は、γテーブルを用いてγ補正処理を行う。なお、本実施例では図示していないが、上述のエッジレベル算出部105により算出されたエッジレベルに応じて2つのγテーブルを切り替える構成にしても良い。   The γ correction unit 106 performs γ correction processing using the γ table. Although not shown in the present embodiment, the two γ tables may be switched according to the edge level calculated by the edge level calculation unit 105 described above.

量子化部108は、γ補正部106からの出力データに対し600dpiで多値誤差拡散処理を行ない5値に量子化する。誤差拡散処理は、加算器107、量子化部108、減算器109、誤差演算部110により実現される。   The quantization unit 108 performs multilevel error diffusion processing at 600 dpi on the output data from the γ correction unit 106 and quantizes the data to five values. The error diffusion process is realized by the adder 107, the quantization unit 108, the subtractor 109, and the error calculation unit 110.

加算器107は、多値画像データに処理済み画素の量子化誤差を加算する。量子化部108は、加算器107の出力データを4つの量子化閾値Thr1,Thr2,Thr3及びThr4(本実施例では、Thr1=32、Thr2=96、Thr3=160、Thr4=224とする)によって5値量子化する。減算器109は、量子化部108の入力と出力から量子化誤差を算出する。誤差演算部110は、減算器109により算出された量子化誤差から所定の誤差マトリクスに従って、次に処理される画素に加算される誤差量を算出して加算器107に与える。   The adder 107 adds the quantization error of the processed pixel to the multi-value image data. The quantization unit 108 outputs the output data of the adder 107 by four quantization thresholds Thr1, Thr2, Thr3, and Thr4 (in this embodiment, Thr1 = 32, Thr2 = 96, Thr3 = 160, Thr4 = 224). Perform five-value quantization. The subtractor 109 calculates a quantization error from the input and output of the quantization unit 108. The error calculation unit 110 calculates an error amount to be added to the pixel to be processed next from the quantization error calculated by the subtractor 109 according to a predetermined error matrix, and supplies the error amount to the adder 107.

量子化部108の入力値と出力値の関係は、入力値<32のとき出力値=0、32≦入力値<96のとき出力値=64、96≦入力値<160のとき出力値=128、160≦入力値<224のとき出力値=192、224≦入力値のとき出力値=255である。   The relationship between the input value and the output value of the quantizing unit 108 is as follows: output value = 0 when the input value <32, output value = 64 when 32 ≦ input value <96, and output value = 128 when 96 ≦ input value <160. , 160 ≦ input value <224, output value = 192, and 224 ≦ input value, output value = 255.

なお、本実施例では量子化閾値Thr1〜Thr4の値を等間隔に設定した例を示しているが、特にこの限りではなく、不均等に設定しても何ら問題ない。また、本実施例では量子化に多値誤差拡散を採用しているが特にこの限りでなく、量子化誤差のフィードバックを行わない単純5値化でも問題ない。   Although the present embodiment shows an example in which the values of the quantization thresholds Thr1 to Thr4 are set at equal intervals, this is not particularly limited, and there is no problem even if they are set unevenly. In this embodiment, multilevel error diffusion is adopted for quantization. However, this is not particularly limited, and there is no problem even with simple quinary processing that does not feed back quantization error.

ドット出力順序決定部104の詳細について説明する。図10は、ドット出力順序決定部の処理を表すフローチャートである。まず、ステップS11に進み、ドット出力順序決定部104は形状認識部101で検出されたテンプレート情報が存在するか否かの判定を行う。ドット出力順序決定部104は、テンプレート情報がある場合とない場合とで、それぞれ別の方法を用いて、600dpi画素での注目画素に対応する図6のような1200dpiの2×2画素でのドット出力順序を決定する。   Details of the dot output order determination unit 104 will be described. FIG. 10 is a flowchart showing the process of the dot output order determination unit. First, in step S11, the dot output order determination unit 104 determines whether or not the template information detected by the shape recognition unit 101 exists. The dot output order determination unit 104 uses different methods depending on whether the template information is present or not, and the dot at 1200 dpi 2 × 2 pixels as shown in FIG. 6 corresponding to the target pixel at 600 dpi pixels. Determine the output order.

まず、形状認識部101からのテンプレート情報が存在した場合(S11においてYES)、ドット出力順序決定部104はステップS12に進み、予めテンプレートROM1011等に記憶されている、テンプレート情報に対応したドット出力順序を読み出す。   First, when there is template information from the shape recognition unit 101 (YES in S11), the dot output order determination unit 104 proceeds to step S12, and the dot output order corresponding to the template information stored in advance in the template ROM 1011 or the like. Is read.

図12は、ドット出力順序がテンプレート情報に対応付けて記憶されている例を表した一例のイメージ図である。図11の1200dpiの2×2画素の左上画素を画素番号「A」、右上画素を画素番号「B」、左下画素を画素番号「C」、右下画素を画素番号「D」として、図12のイメージ図は左からドットを打つ順番に画素番号が並べられている。   FIG. 12 is an image diagram illustrating an example in which the dot output order is stored in association with the template information. The pixel number “A” is the upper left pixel of 2 × 2 pixels of 1200 dpi in FIG. 11, the pixel number “B” is the upper right pixel, the pixel number “C” is the lower left pixel, and the pixel number “D” is the lower right pixel. In this image diagram, pixel numbers are arranged in the order in which dots are placed from the left.

例えば、形状認識部101から受けたテンプレート情報が「Template No.1」であった場合、出力順序欄にABCDと記述されているので、対応するドット出力順序は、図11の左上画素、右上画素、左下画素、右下画素となる。また、形状認識部101から受けたテンプレート情報が「Template No.2」であった場合、出力順序欄にDCBAと記述されているので、対応するドット出力順序は、図11の右下画素、左下画素、右上画素、左上画素となる。   For example, when the template information received from the shape recognizing unit 101 is “Template No. 1”, ABCD is described in the output order column, so the corresponding dot output order is the upper left pixel and upper right pixel in FIG. , Lower left pixel, lower right pixel. When the template information received from the shape recognition unit 101 is “Template No. 2”, since DCBA is described in the output order column, the corresponding dot output order is the lower right pixel in FIG. Pixel, upper right pixel, upper left pixel.

一方、形状認識部101からのテンプレート情報が存在しなかった場合には(S11においてNO)、ドット出力順序決定部104はステップS13に進み、注目画素周辺データの濃度分布に基づいてドット発生順序を決定する。具体的に、ドット出力順序決定部104は図13(a)〜図13(d)に示すような注目画素周辺の左上、右上、左下、右下の4箇所の領域について、それぞれ領域内の3画素の加算を行う。次に、ステップS14に進み、ドット出力順序決定部104は図13(a)〜図13(d)の加算結果をそれぞれ比較し、大きい順に並べる。   On the other hand, when the template information from the shape recognition unit 101 does not exist (NO in S11), the dot output order determination unit 104 proceeds to step S13 and sets the dot generation order based on the density distribution of the pixel-of-interest peripheral data. decide. Specifically, the dot output order determination unit 104 has three areas in the upper left, upper right, lower left, and lower right areas around the target pixel as shown in FIGS. 13A to 13D. Add pixels. In step S14, the dot output order determination unit 104 compares the addition results shown in FIGS. 13A to 13D and arranges them in descending order.

ステップS15に進み、ドット出力順序決定部104はこれら左上、右上、左下、右下の4箇所の領域についての比較結果を図11の1200dpi画素内での左上、右上、左下、右下画素における比較結果とみなす。図13(a)の左上の領域は、1200dpiの2×2画素の図11の左上画素Aに置き換えられる。図13(b)の右上の領域は、図11の右上画素Bに置き換えられる。図13(c)の左下の領域は、図11の左下画素Cに置き換えられる。図13(d)の右下の領域は、図11の右下画素Dに置き換えられる。そして、ドット出力順序決定部104は大きい順に並べた各画素A,B,C,Dをそのままドット出力順序とする。   In step S15, the dot output order determination unit 104 compares the comparison results for the four regions of the upper left, upper right, lower left, and lower right with respect to the upper left, upper right, lower left, and lower right pixels in the 1200 dpi pixel of FIG. Consider it a result. The upper left area in FIG. 13A is replaced with an upper left pixel A in FIG. 11 having 2 × 2 pixels of 1200 dpi. The upper right area in FIG. 13B is replaced with the upper right pixel B in FIG. The lower left area in FIG. 13C is replaced with the lower left pixel C in FIG. The lower right region in FIG. 13D is replaced with the lower right pixel D in FIG. The dot output order determination unit 104 sets the pixels A, B, C, and D arranged in descending order as the dot output order as they are.

例えば、図13(a)〜図13(d)の加算結果が、図13(c),図13(a),図13(d),図13(b)の順であれば、ドット出力順序はCADBとなる。この場合、図11の1200dpiの2×2画素のドット出力順序は、左下画素C、左上画素A、右下画素D、右上画素Bという具合である。   For example, if the addition results in FIGS. 13A to 13D are in the order of FIG. 13C, FIG. 13A, FIG. 13D, and FIG. Becomes CADB. In this case, the dot output order of 2 × 2 pixels of 1200 dpi in FIG. 11 is the lower left pixel C, the upper left pixel A, the lower right pixel D, and the upper right pixel B.

このようにテンプレート情報がある場合には、そのテンプレート情報に基づいてドット出力順序を決めることで、周辺画素の状態に拘わらず、確実に入力画像の形状に忠実なドットの配置が可能となり、鮮鋭性の向上につながる。   When there is template information in this way, by determining the dot output order based on the template information, it is possible to reliably place dots that are faithful to the shape of the input image regardless of the state of the surrounding pixels. It leads to improvement of sex.

例えば、図4のような入力画像に対し、データ補正部103にてデータ補正を行い、その結果が図5の様な画像であった場合、画素「S」に関してのドット出力順序はDCBAが理想的である。ところがテンプレート情報を用いない上記の方法でドット出力順序を決定した場合は、決定されるドット出力順序はCDBAとなり、異なる結果となってしまう。入力画像が中間諧調の線画であった場合にはこの順序差は鮮鋭性に大きく影響を及ぼす。なお、本実施例ではテンプレート情報がない場合のドット出力順序を上記のような方法により決定しているが、むろんこの方法に限定されるわけではない。   For example, when the data correction unit 103 performs data correction on the input image as shown in FIG. 4 and the result is an image as shown in FIG. 5, the ideal dot output order for the pixel “S” is DCBA. Is. However, when the dot output order is determined by the above method that does not use template information, the determined dot output order is CDBA, resulting in different results. If the input image is a halftone line drawing, this order difference greatly affects the sharpness. In this embodiment, the dot output order when there is no template information is determined by the above method, but it is not limited to this method.

こうして得られるドット出力順序は、全部で2×2の4画素の組合せ通りである。ステップS12又はS15に続いてステップS16に進み、ドット出力順序決定部104は決定した出力順序結果をコード化してドット出力位置制御部111に渡す。   The dot output order thus obtained is a combination of 4 pixels of 2 × 2 in total. Progressing to step S16 following step S12 or S15, the dot output order determination unit 104 encodes the determined output order result and passes the result to the dot output position control unit 111.

次に、ドット出力位置制御部111について説明する。ドット出力位置制御部111は誤差拡散処理による600dpi5値のデータを1200dpiの2×2画素のドットオン・オフ(2値画像データ)に変換する。   Next, the dot output position control unit 111 will be described. The dot output position control unit 111 converts 600 dpi 5-value data obtained by error diffusion processing into 1200 dpi 2 × 2 pixel dot on / off (binary image data).

ドット出力位置制御部111では、まず出力ドット数を算出する。すなわち、ドット出力位置制御部111は600dpiの多値画像データ上の各画素に対応する1200dpiの2×2画素(図11)内におけるドットオン画素の個数(ドット数)を決定する。   The dot output position control unit 111 first calculates the number of output dots. That is, the dot output position control unit 111 determines the number of dots-on pixels (number of dots) in a 1200 dpi 2 × 2 pixel (FIG. 11) corresponding to each pixel on 600 dpi multi-valued image data.

具体的に、ドット出力位置制御部111は、量子化部108からの量子化済みデータの量子化データ値(5値)が0のときに0を、量子化データ値が64のときに1を、量子化データ値が128のときに2を、量子化データ値が192のときに3を、量子化データ値が255のときに4を、それぞれドット数として算出する。   Specifically, the dot output position control unit 111 sets 0 when the quantized data value (5 values) of the quantized data from the quantizing unit 108 is 0, and sets 1 when the quantized data value is 64. The number of dots is calculated as 2 when the quantized data value is 128, 3 when the quantized data value is 192, and 4 when the quantized data value is 255.

次に、ドット出力位置制御部111は算出されたドット数に基づいて各画素に対応する1200dpiの2×2画素内におけるドットの配置を決める。本実施例では、ドットの配置方法としてエッジレベル算出部105からのエッジレベル情報に基づいて異なる方法を採用することにする。   Next, based on the calculated number of dots, the dot output position control unit 111 determines the arrangement of dots in a 1200 × 2 2 × 2 pixel corresponding to each pixel. In this embodiment, a different method is adopted as the dot arrangement method based on the edge level information from the edge level calculation unit 105.

エッジレベル=1(エッジ度合い大)の場合は、ドット出力順序決定部104からの出力順序に基づいたドット配置を行う。一方、エッジレベル=0(エッジ度合い小)の場合は、ドット出力順序決定部104からの出力順序に基づいたドット配置を行わず、図14に示すように、常に各画素に対応する1200dpiの2×2画素内を一定の順序で配置する。   When the edge level = 1 (the edge degree is large), the dot arrangement based on the output order from the dot output order determination unit 104 is performed. On the other hand, when the edge level = 0 (the edge degree is small), the dot arrangement based on the output order from the dot output order determination unit 104 is not performed, and as shown in FIG. × 2 pixels are arranged in a fixed order.

図14は、ドット出力順序決定部からの出力順序に基づいたドット配置を行わない例を表した一例のイメージ図である。図14のイメージ図では、1200dpiの2×2画素の左上画素を画素番号「1」、右上画素を画素番号「2」、左下画素を画素番号「3」、右下画素を画素番号「4」としている。   FIG. 14 is an image diagram illustrating an example in which dot arrangement based on the output order from the dot output order determination unit is not performed. In the image diagram of FIG. 14, the upper left pixel of 2 × 2 pixels of 1200 dpi is the pixel number “1”, the upper right pixel is the pixel number “2”, the lower left pixel is the pixel number “3”, and the lower right pixel is the pixel number “4”. Yes.

すなわち、ドット数が1である場合には、図14の画素番号「1」の画素にドットを配置する。ドット数が2である場合には、画素番号「1」の画素に加え、画素番号「2」の画素にもドットを配置する。ドット数が3である場合には、画素番号「1」,「2」の画素に加えて、画素番号「3」の画素にもドットを配置する。また、ドット数が4である場合には全ての画素にドットを配置する。   That is, when the number of dots is 1, a dot is arranged at the pixel with the pixel number “1” in FIG. When the number of dots is 2, in addition to the pixel with the pixel number “1”, dots are also arranged on the pixel with the pixel number “2”. When the number of dots is 3, in addition to the pixels with the pixel numbers “1” and “2”, dots are also arranged on the pixel with the pixel number “3”. When the number of dots is 4, dots are arranged on all pixels.

このように、エッジ度合いが大きい部分では、形状認識結果に基づいて、1200dpi画素でのドット配置を最適にすることで、より小さいドットを細かく制御する効果が得られることになり、鮮鋭性の向上が期待できる。一方、エッジ度合いが小さい部分ではエッジ度合いが大きい場合と同様の方法を採用した場合に、ややノイジーな画像となってしまうため、1200dpi画素単位で一定順のドット配置とすることにより、600dpi多値誤差拡散相当の画質としている。ただし、600dpi多値で孤立のドットとなる画像パターンの場合でも1200dpiでは2値画素を2ドット隣接して配置することが多くなるため、孤立ドット再現性の悪いレーザープリンタ等の出力装置において粒状性の面で有利となることがある。   In this way, in the portion where the degree of edge is large, the effect of finely controlling smaller dots can be obtained by optimizing the dot arrangement with 1200 dpi pixels based on the shape recognition result, and the sharpness is improved. Can be expected. On the other hand, when a method similar to the case where the edge degree is large is adopted in a portion where the edge degree is small, a slightly noisy image is obtained. Therefore, by arranging the dots in a fixed order in units of 1200 dpi, a multi-value of 600 dpi is obtained. The image quality is equivalent to error diffusion. However, even in the case of an image pattern that becomes an isolated dot with 600 dpi multi-value, binary pixels are often arranged adjacent to two dots at 1200 dpi, so that the granularity in an output device such as a laser printer with poor isolated dot reproducibility. This may be advantageous.

なお、本実施例では、エッジ度合いが大きい場合と小さい場合とでドットの配置方法を切り替えているが、必ずしも切替を実施する必要はなく、いずれの場合もドット出力順序決定部104からの出力順序に基づいたドット配置を行っても鮮鋭性向上の効果は失われない。   In this embodiment, the dot arrangement method is switched between the case where the edge degree is large and the case where the edge degree is small, but it is not always necessary to perform the switching, and in any case, the output order from the dot output order determination unit 104 The effect of improving the sharpness is not lost even if the dot arrangement based on the above is performed.

また、本実施例では、2値画像データで出力する例を示したが、出力ドットを2値画像データに限定するものではなく、3値、4値等、入力多値画像データよりも少ない階調値の少値データであれば、同様に実施可能である。例えば出力が3値データである場合には、量子化数を例えば9値化に増やし、その結果を高解像度の画素のドットオンの画素数に変換する際、量子化結果が0でドットオン数=0、量子化結果が1or2でドットオン数=1、量子化結果が3or4でドットオン数=2、量子化結果が5or6でドットオン数=3、量子化結果が7or8でドットオン数=4と言う具合に、3値データの中間ドットを含めてドットオンの数を決定し、ドットオンとなる画素位置の制御を行えばよい。   Further, in this embodiment, an example in which binary image data is output has been shown. However, output dots are not limited to binary image data, and there are fewer levels than input multivalued image data such as ternary and quaternary values. If it is small value data of the key value, it can be similarly implemented. For example, when the output is ternary data, the quantization number is increased to, for example, 9-valued, and when the result is converted into the number of dot-on pixels of high-resolution pixels, the quantization result is 0 and the number of dot-ons = 0, quantization result is 1 or 2, dot on number = 1, quantization result is 3 or 4, dot on number = 2, quantization result is 5 or 6, dot on number = 3, quantization result is 7 or 8, dot on number = 4 In other words, the number of dot-ons including the intermediate dots of the ternary data may be determined to control the pixel position where the dots are turned on.

本発明の実施例2では、600dpi、256階調多値の入力画像データに対してパターンマッチングを用いたジャギー低減処理を行い、そのジャギー低減処理の出力結果に対してディザ閾値を用いた5値誤差拡散処理を行い、その5値誤差拡散処理の量子化結果に対し、画像の形状認識結果とエッジレベルに基づいて1200dpiの2値画像を生成する例を示す。ここでは、ディザ閾値もエッジレベルに基づいて切替を行う。   In the second embodiment of the present invention, jaggy reduction processing using pattern matching is performed on 600 dpi, 256-gradation multi-valued input image data, and a 5-value using a dither threshold is used for the output result of the jaggy reduction processing. An example will be shown in which error diffusion processing is performed and a 1200 dpi binary image is generated based on the result of image shape recognition and the edge level for the quantization result of the quinary error diffusion processing. Here, the dither threshold is also switched based on the edge level.

図15は、本発明による画像処理装置の第2実施例を示す構成図である。図15の画像処理装置は、実施例1の説明に用いた図1の画像処理装置と同一の処理を行うものについて図1の画像処理装置と同じ番号を付与してある。   FIG. 15 is a block diagram showing a second embodiment of the image processing apparatus according to the present invention. The image processing apparatus in FIG. 15 is assigned the same number as the image processing apparatus in FIG. 1 for performing the same processing as the image processing apparatus in FIG. 1 used in the description of the first embodiment.

まず、形状認識部101は、600dpi、256階調多値の入力画像データに対して、実施例1と同様に、パターン認識による形状の認識を行い、一致したテンプレート情報を補正値読み出し部102に渡す。補正値読み出し部102は、形状認識部101から受けたテンプレート情報に基づき補正値データを補正値ROM1021から読み出し、データ補正部103に渡す。データ補正部103は、入力画像の注目画素を補正値読み出し部102で読み出された補正値データに置き換える。   First, the shape recognizing unit 101 recognizes a shape by pattern recognition for 600 dpi, 256-gradation multi-valued input image data in the same manner as in the first embodiment, and sends the matched template information to the correction value reading unit 102. hand over. The correction value reading unit 102 reads correction value data from the correction value ROM 1021 based on the template information received from the shape recognition unit 101 and passes the correction value data to the data correction unit 103. The data correction unit 103 replaces the target pixel of the input image with the correction value data read by the correction value reading unit 102.

また、形状認識部101で検出されたテンプレート情報は、実施例1同様にドット出力順序決定部104にも渡される。ドット出力順序決定部104では、テンプレート情報とデータ補正部103からの画像データを用いて、ドット出力順序の決定を行う。ここでのドット出力順序決定方法は、実施例1と同様であるので説明を省略する。また、エッジレベル算出部105、γ補正部106の動作についても実施例1と同様であるので、説明を省略する。   The template information detected by the shape recognition unit 101 is also passed to the dot output order determination unit 104 as in the first embodiment. The dot output order determination unit 104 determines the dot output order using the template information and the image data from the data correction unit 103. Since the dot output order determination method here is the same as that of the first embodiment, the description thereof is omitted. Further, the operations of the edge level calculation unit 105 and the γ correction unit 106 are the same as those in the first embodiment, and thus description thereof is omitted.

ここから、実施例1と動作が異なる処理内容の部分について説明する。まず、ディザ閾値選択部212は、エッジレベル算出部105から出力されるエッジレベル=0の場合に図16に示す4つのディザ閾値マトリクス(a)〜(d)を選択し、各ディザ閾値マトリクスの注目画素位置に対応する位置の値を閾値(thr1〜thr4)とする。一方、エッジレベル=1の場合、ディザ閾値選択部212は画素位置によらず閾値(thr1〜thr4)を固定とし、例えば実施例1で用いたものと同様の閾値(Thr1=32、Thr2=96、Thr3=160、Thr4=224)とする。   From here, the part of the processing content in which operation | movement differs from Example 1 is demonstrated. First, when the edge level = 0 output from the edge level calculation unit 105, the dither threshold selection unit 212 selects four dither threshold matrices (a) to (d) shown in FIG. A position value corresponding to the target pixel position is set as a threshold value (thr1 to thr4). On the other hand, when the edge level = 1, the dither threshold selection unit 212 fixes the thresholds (thr1 to thr4) regardless of the pixel position, and for example, thresholds similar to those used in the first embodiment (Thr1 = 32, Thr2 = 96). , Thr3 = 160, Thr4 = 224).

次に、量子化部208は、γ補正部106からの出力データに対し、ディザ閾値選択部212において決定された閾値を用いて、600dpiで多値誤差拡散処理を行ない5値に量子化する。誤差拡散処理は、加算器107、量子化部208、減算器109、誤差演算部110により実現される。   Next, the quantization unit 208 performs multilevel error diffusion processing at 600 dpi on the output data from the γ correction unit 106 using the threshold value determined by the dither threshold value selection unit 212, and quantizes it to five values. The error diffusion process is realized by the adder 107, the quantization unit 208, the subtractor 109, and the error calculation unit 110.

加算器107は、多値画像データに処理済み画素の量子化誤差を加算する。量子化部208は、加算器107の出力データを4つの量子化閾値Thr1,Thr2,Thr3,Thr4(Thr1<Thr2<Thr3<Thr4)によって5値量子化する。減算器109は、量子化部208の入力と出力から量子化誤差を算出する。誤差演算部110は減算器109により算出された量子化誤差から所定の誤差マトリクスに従って、次に処理される画素に加算される誤差量を算出して加算器107に与える。   The adder 107 adds the quantization error of the processed pixel to the multi-value image data. The quantization unit 208 performs five-value quantization on the output data of the adder 107 by four quantization thresholds Thr1, Thr2, Thr3, Thr4 (Thr1 <Thr2 <Thr3 <Thr4). The subtractor 109 calculates a quantization error from the input and output of the quantization unit 208. The error calculation unit 110 calculates an error amount to be added to the pixel to be processed next from the quantization error calculated by the subtractor 109 according to a predetermined error matrix, and supplies the error amount to the adder 107.

量子化部208の入力値と出力値の関係は、入力値<Thr1のとき出力値=0、Thr1≦入力値<Thr2のとき出力値=64、Thr2≦入力値<Thr3のとき出力値=128、Thr3≦入力値<Thr4のとき出力値=192、Thr4≦入力値のとき出力値=255である。   The relationship between the input value and the output value of the quantization unit 208 is as follows: output value = 0 when the input value <Thr1, output value = 64 when Thr1 ≦ input value <Thr2, and output value = 128 when Thr2 ≦ input value <Thr3. When Thr3 ≦ input value <Thr4, output value = 192, and when Thr4 ≦ input value, output value = 255.

図17に示す6×6(600dpiで3×3)のディザ閾値マトリクスは、74から179までのステップ幅3で増加する閾値を、値の小さいものから順に渦巻き状に並べてなり、1200dpiにおいて200線の網点を形成するドット集中型のものである。図17において、実線の格子の内部にある4つの閾値は、600dpiの1画素に対応している。図17に示すように、このディザ閾値マトリクス中の小さいほうから4番目までの閾値(74、77、80、83)は、600dpiの異なった画素位置に配置されている。   The 6 × 6 (3 × 3 at 600 dpi) dither threshold matrix shown in FIG. 17 is a spiral array of thresholds that increase in step width 3 from 74 to 179 in ascending order of value, and 200 lines at 1200 dpi. This is a dot concentration type that forms halftone dots. In FIG. 17, four threshold values inside the solid grid correspond to one pixel of 600 dpi. As shown in FIG. 17, the threshold values (74, 77, 80, 83) from the smallest to the fourth in this dither threshold matrix are arranged at different pixel positions of 600 dpi.

つまり、図17の左上の2×2画素(110、107、113、80の画素)であれば、最も低い80が図16(a)の左上の画素に割り当てられ、次に低い107が図16(b)、次に低い110が図16(c)、最も高い113が図16(d)に割り当てられる。   That is, if the upper left 2 × 2 pixels (110, 107, 113, and 80 pixels) in FIG. 17 are assigned, the lowest 80 is assigned to the upper left pixel in FIG. (B) The next lowest 110 is assigned to FIG. 16C, and the highest 113 is assigned to FIG. 16D.

ディザ閾値選択部212は、このディザ閾値マトリクスの600dpiの1画素に対応する4つの閾値を、その画素に対応した量子化閾値として出力する。例えば左上の画素位置では、その位置の4つの閾値(80、107、110、113)の中で最小の80を量子化閾値Thr1、次に小さな107を子化閾値Thr2、次に小さな110を量子化閾値Thr3、最も大きな113を量子化閾値Thr4として出力する。   The dither threshold selection unit 212 outputs four thresholds corresponding to one pixel of 600 dpi in the dither threshold matrix as quantization thresholds corresponding to the pixel. For example, in the upper left pixel position, the minimum 80 of the four threshold values (80, 107, 110, 113) at that position is the quantization threshold Thr1, the next smaller 107 is the childization threshold Thr2, and the next smaller 110 is the quantum. The quantization threshold Thr3 and the largest 113 are output as the quantization threshold Thr4.

図17に示すディザ閾値マトリクス内の閾値を、個々の量子化閾値ごとに600dpiの画素位置に並べ直したものが、図16に示す3×3のディザ閾値マトリクスである。なお、図16(a)は量子化閾値Thr1に対応する。図16(b)は量子化閾値Thr2に対応する。図16(c)は、量子化閾値Thr3に対応する。また、図16(d)は量子化閾値Thr4に対応する。実際には、図16に示す3×3のディザ閾値マトリクス4枚をディザ閾値ROM2121にあらかじめ記憶させておき、エッジレベル=0の時の閾値マトリクスとして呼び出されるようにしておく。   The 3 × 3 dither threshold matrix shown in FIG. 16 is obtained by rearranging the thresholds in the dither threshold matrix shown in FIG. 17 at a pixel position of 600 dpi for each quantization threshold. FIG. 16A corresponds to the quantization threshold Thr1. FIG. 16B corresponds to the quantization threshold Thr2. FIG. 16C corresponds to the quantization threshold Thr3. FIG. 16D corresponds to the quantization threshold Thr4. Actually, four 3 × 3 dither threshold matrixes shown in FIG. 16 are stored in advance in the dither threshold ROM 2121 so as to be called as the threshold matrix when the edge level = 0.

次に、ドット出力位置制御部211について説明する。ドット出力位置制御部211は実施例1同様、誤差拡散処理による600dpi5値のデータを1200dpiの2×2画素のドットオン・オフ(2値画像データ)に変換する。   Next, the dot output position control unit 211 will be described. As in the first embodiment, the dot output position control unit 211 converts 600 dpi 5-value data obtained by error diffusion processing into 1200 dpi 2 × 2 pixel dot on / off (binary image data).

ドット出力位置制御部211では、まず実施例1と同様な方法で出力ドット数を算出する。次に、ドット出力位置制御部211は算出されたドット数に基づいて各画素に対応する1200dpiの2×2画素内におけるドットの出力位置を決定する。本実施例では、ドットの配置方法としてエッジレベル算出部105からのエッジレベル情報に基づいて異なる方法を採用することにする。   The dot output position control unit 211 first calculates the number of output dots by the same method as in the first embodiment. Next, the dot output position control unit 211 determines the dot output position within the 1200 dpi 2 × 2 pixel corresponding to each pixel based on the calculated number of dots. In this embodiment, a different method is adopted as the dot arrangement method based on the edge level information from the edge level calculation unit 105.

エッジレベル=1(エッジ度合い大)の場合は、実施例1同様の方法で、ドット出力順序決定部104からの出力順序に基づいたドット配置を行う。一方、エッジレベル=0(エッジ度合い小)の場合は、処理対象画素のディザ閾値マトリクス(図16)上の対応位置に応じて、決定された数のドットを、200dpiの2×2画素内にどのように配置するか決定する。   When the edge level = 1 (the edge degree is large), dot placement based on the output order from the dot output order determination unit 104 is performed in the same manner as in the first embodiment. On the other hand, when the edge level = 0 (the edge degree is small), the number of dots determined in accordance with the corresponding position on the dither threshold matrix (FIG. 16) of the processing target pixel is within 2 × 2 pixels of 200 dpi. Decide how to place them.

エッジレベル=0の場合について詳細に説明する。図17に示すディザ閾値マトリクスの例えば左上の画素位置の画素が処理対象となった時には、その左上の2×2の閾値の中で値が最も小さい位置に最初にドットを配置し、その次に大きな閾値の位置に2つ目のドットを配置し、その次に大きな閾値の位置に3つ目のドットを配置し、最も大きな閾値の位置に最後のドットを配置する。この場合、ドット数が2ならば、図18(a)に示すように2×2画素中の右側の2画素位置(閾値が80と107)にドットが出力される(その2画素がドットオン画素である)。もし、ドット数が1ならば右下の画素位置にドットが出力される。ドット数が3ならば右側の2画素位置に加えて、左上の画素位置にもドットが出力される。   The case where the edge level = 0 is described in detail. For example, when the pixel at the upper left pixel position in the dither threshold matrix shown in FIG. 17 is to be processed, a dot is first arranged at the position having the smallest value among the 2 × 2 threshold values at the upper left, and then The second dot is arranged at the position of the large threshold, the third dot is arranged at the position of the next largest threshold, and the last dot is arranged at the position of the largest threshold. In this case, if the number of dots is 2, as shown in FIG. 18 (a), dots are output at the right two pixel positions (thresholds 80 and 107) in 2 × 2 pixels (the two pixels are dot-on). Pixel). If the number of dots is 1, a dot is output at the lower right pixel position. If the number of dots is 3, dots are output to the upper left pixel position in addition to the right two pixel positions.

同様に、1つ右の画素が処理対象となった時には、ドット数が2ならば図18(b)に示すように下の2画素位置(閾値が77と98)にドットが出力されることになる。本実施例では、処理対象画素のディザ閾値マトリクス上の対応位置に応じてドットの出力順(配置順)を変えることにより、網点が形成しやすくなる。   Similarly, when the pixel on the right is to be processed, if the number of dots is 2, dots are output to the lower two pixel positions (threshold values 77 and 98) as shown in FIG. become. In this embodiment, halftone dots are easily formed by changing the dot output order (arrangement order) according to the corresponding position of the pixel to be processed on the dither threshold matrix.

このように、エッジレベル=0の画像の比較的平坦な部分では、ディザ閾値を用いて網点化を行なうため、粒状性・安定性に優れた画像を形成することができる。一方、エッジレベル=1のエッジ度合いの大きな領域では、実施例1と同様に、形状認識結果に基づいて、1200dpi画素でのドット配置を最適にすることで、より小さいドットを細かく制御する効果が得られることになり、鮮鋭性の向上が期待できる。   In this manner, halftone dots are formed using a dither threshold in a relatively flat portion of an image with an edge level = 0, so that an image with excellent graininess and stability can be formed. On the other hand, in a region with a large edge degree of edge level = 1, the effect of finely controlling smaller dots can be obtained by optimizing the dot arrangement with 1200 dpi pixels based on the shape recognition result, as in the first embodiment. As a result, improvement in sharpness can be expected.

本発明の実施例3では、ジャギー低減処理を行なわず、入力画像データ対してディザ閾値を用いた5値誤差拡散処理を行い、その5値誤差拡散処理の量子化結果に対し、画像の形状認識結果とエッジレベルに基づいて1200dpiの2値画像を生成する例を示す。ここでは、ディザ閾値もエッジレベルに基づいて切替を行う。   In the third embodiment of the present invention, the jaggy reduction process is not performed, the quinary error diffusion process using the dither threshold is performed on the input image data, and the shape recognition of the image is performed on the quantization result of the quinary error diffusion process. An example of generating a 1200 dpi binary image based on the result and the edge level is shown. Here, the dither threshold is also switched based on the edge level.

図19は、本発明による画像処理装置の第3実施例を示す構成図である。図19の画像処理装置は、実施例2の説明に用いた図15の画像処理装置と同一の処理を行うものについて図15の画像処理装置と同じ番号を付与してある。   FIG. 19 is a block diagram showing a third embodiment of the image processing apparatus according to the present invention. The image processing apparatus in FIG. 19 is assigned the same number as the image processing apparatus in FIG. 15 for performing the same processing as the image processing apparatus in FIG. 15 used in the description of the second embodiment.

図19の画像処理装置は、ジャギー低減処理部が削除されている点で図15の画像処理装置と異なっている。具体的に、図19の画像処理装置は、ジャギー低減処理部を構成していた補正値読み出し部102及びデータ補正部103が削除され、ジャギー低減処理部を構成していた形状認識部101が中間調処理部のエッジレベル算出部105と並列な位置関係となっている点で図15の画像処理装置と異なっている。   The image processing apparatus in FIG. 19 is different from the image processing apparatus in FIG. 15 in that the jaggy reduction processing unit is deleted. Specifically, in the image processing apparatus of FIG. 19, the correction value reading unit 102 and the data correction unit 103 that constitute the jaggy reduction processing unit are deleted, and the shape recognition unit 101 that constitutes the jaggy reduction processing unit is intermediate. It differs from the image processing apparatus of FIG. 15 in that the positional relationship is in parallel with the edge level calculation unit 105 of the tone processing unit.

図19のような構成とした場合でも、画像処理装置は実施例1、2同様、エッジ度合いの大きなエリアにおいてパターン認識による形状認識結果を反映させたドット出力順序決定部104からの出力順序に基づいたドット配置を行えるため、鮮鋭性向上の効果は持続される。   Even in the case of the configuration as shown in FIG. 19, the image processing apparatus is based on the output order from the dot output order determination unit 104 reflecting the shape recognition result by pattern recognition in the area with a large edge degree, as in the first and second embodiments. Therefore, the effect of improving the sharpness is maintained.

本発明の実施例4では、600dpi、多値の入力画像データに対して、出力が600dpiの2値画像を生成する場合の例を示す。ここでも、エッジレベルに応じてドット出力位置制御方法を切替える。本実施例では、入出力共に600dpiであるので、所定のエリア内の画素について一度加算し、その加算結果に基づいて所定のエリア内のドット配置を決定するドット位置制御処理を行なう。   The fourth embodiment of the present invention shows an example in which a binary image having an output of 600 dpi is generated for 600 dpi multi-value input image data. Again, the dot output position control method is switched according to the edge level. In this embodiment, since both input and output are 600 dpi, a dot position control process is performed in which pixels in a predetermined area are added once and a dot arrangement in the predetermined area is determined based on the addition result.

図20は、本発明による画像処理装置の第4実施例を示す構成図である。図20の画像処理装置は、実施例3の説明に用いた図19と同一の処理を行うものについて図19の画像処理装置と同じ番号を付与してある。図20の画像処理装置は、ドット出力順序決定部304、エリア内画素加算部313、量子化部308、ドット出力位置制御部311が図19の画像処理装置と異なっている。   FIG. 20 is a block diagram showing a fourth embodiment of the image processing apparatus according to the present invention. In the image processing apparatus of FIG. 20, the same number as that of the image processing apparatus of FIG. 19 is assigned to the same processing as that of FIG. 19 used in the description of the third embodiment. The image processing apparatus in FIG. 20 is different from the image processing apparatus in FIG. 19 in a dot output order determination unit 304, an in-area pixel addition unit 313, a quantization unit 308, and a dot output position control unit 311.

所定エリアを3×3画素とした場合、まずエリア内画素加算部313は、エリア内に含まれる9画素のデータ値を加算する。そして次の量子化部308は、10値データへと量子化する。ここでの量子化閾値は、均等間隔のものを9つ用意すればよい。一方、ドット出力順序決定部304では、形状認識部101にて実施例3同様のパターン認識を行った結果、所定エリア内でマッチしたテンプレートが存在した場合に予めテンプレートROM1011等に記憶されている、テンプレート情報に対応したドット出力順序を読み出し、テンプレート情報が存在しない場合に実施例3同様、周辺領域の濃度分布により所定エリア内の順序を決定する。そして、ドット出力位置制御部311は、量子化部308にて600dpi10値化されたデータを所定エリア内3×3画素に配置する。   When the predetermined area is 3 × 3 pixels, the in-area pixel addition unit 313 first adds the data values of 9 pixels included in the area. Then, the next quantization unit 308 quantizes the data into 10-value data. Here, nine quantization thresholds may be prepared at equal intervals. On the other hand, the dot output order determination unit 304 stores the template ROM 1011 or the like in advance when there is a matched template within a predetermined area as a result of pattern recognition similar to that in the third embodiment performed by the shape recognition unit 101. The dot output order corresponding to the template information is read, and when the template information does not exist, the order in the predetermined area is determined by the density distribution of the peripheral region as in the third embodiment. Then, the dot output position control unit 311 arranges the data that has been digitized by 600 dpi by the quantization unit 308 into 3 × 3 pixels within a predetermined area.

まずドット出力位置制御部311は実施例1同様の方法で出力ドット数を算出する。次に、ドット出力位置制御部311はドットの出力位置を決定する。本実施例でも、ドットの配置方法はエッジレベル算出部105からのエッジレベル情報に基づいて異なる方法を採用することにする。   First, the dot output position control unit 311 calculates the number of output dots by the same method as in the first embodiment. Next, the dot output position control unit 311 determines the dot output position. Also in this embodiment, a different dot arrangement method is adopted based on the edge level information from the edge level calculation unit 105.

エッジレベル=1(エッジ度合い大)の場合は、実施例3同様に、ドット出力順序決定部304からの出力順序に基づいたドット配置を行う。一方、エッジレベル=0(エッジ度合い小)の場合は、あらかじめ濃度パターンROM3111に記憶されている、濃度パターンに従ったドット配置を行う。   When edge level = 1 (high edge degree), dot placement based on the output order from the dot output order determination unit 304 is performed as in the third embodiment. On the other hand, when the edge level = 0 (edge degree is small), dot placement is performed according to the density pattern stored in the density pattern ROM 3111 in advance.

このように、エッジレベル=0の画像の比較的平坦な部分では、濃度パターンに従ったドットの配置を行なうため、粒状性・安定性に優れた画像を形成できる。一方、エッジレベル=1のエッジ度合いの大きな領域では、他の実施例同様に、形状認識結果に基づいてドット配置を最適にすることで、鮮鋭性の向上が期待できる。   As described above, in the relatively flat portion of the image with the edge level = 0, the dots are arranged according to the density pattern, so that an image having excellent graininess and stability can be formed. On the other hand, in a region with a large edge degree of edge level = 1, improvement of sharpness can be expected by optimizing the dot arrangement based on the shape recognition result as in the other embodiments.

なお、本発明の実施例においてエッジレベルの算出は、γ補正部106によるγ補正処理直前の画像データから算出しているが、必ずしもこの位置の画像データを用いる必要はない。   In the embodiment of the present invention, the edge level is calculated from the image data immediately before the γ correction processing by the γ correction unit 106, but it is not always necessary to use the image data at this position.

以上、説明したように、本発明によれば、入力画像データに対し、パターン認識による形状認識を行い、その認識結果に基づいて、出力ドットの配置を決定することにより、特に画像のエッジ部において、入力画像データの形状に忠実なドット配置とすることが可能となり、鮮鋭性を向上させることが可能となる。   As described above, according to the present invention, shape recognition by pattern recognition is performed on input image data, and the arrangement of output dots is determined based on the recognition result, so that particularly at the edge portion of an image. Therefore, it is possible to make the dot arrangement faithful to the shape of the input image data, and it is possible to improve the sharpness.

また、高解像度出力可能な画像処理装置において、エッジ部では形状認識結果に基づいて、処理時間の大幅な増大なしに小ドットの細かい制御を行い、入力画像データの形状に忠実なドット配置を行うことにより鮮鋭性を向上をさせることができる。さらに、高解像度出力可能な画像処理装置において、平坦部ではディザ閾値を用いて網点化を行うことにより、粒状性・安定性に優れた画像の形成が可能となる。したがって、本発明によれば画像の粒状性と解像性を高品位に両立させた出力画像を得ることが可能となる。   In addition, in an image processing apparatus capable of high-resolution output, fine control of small dots is performed at the edge portion based on the shape recognition result without significant increase in processing time, and dot placement faithful to the shape of input image data is performed. Therefore, sharpness can be improved. Furthermore, in an image processing apparatus capable of high-resolution output, by forming halftone dots using a dither threshold value in a flat portion, an image having excellent graininess and stability can be formed. Therefore, according to the present invention, it is possible to obtain an output image in which the granularity and resolution of the image are compatible with each other with high quality.

本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。   The present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims.

本発明による画像処理装置の第1実施例を示す構成図である。1 is a configuration diagram illustrating a first embodiment of an image processing apparatus according to the present invention. テンプレートの一例を表したイメージ図である。It is an image figure showing an example of a template. 補正値データがテンプレート情報に対応付けられて記憶されている例を表したイメージ図である。It is an image figure showing the example by which correction value data is matched and stored with template information. ジャギーを発生しやすい画像の一例を表したイメージ図である。It is an image figure showing an example of an image which is easy to generate jaggy. ジャギー低減処理を行った画像の一例を表したイメージ図である。It is an image figure showing an example of the image which performed the jaggy reduction process. ジャギー低減処理を行った画像を変換した1200dpi2値のデータの一例のイメージ図である。It is an image figure of an example of 1200 dpi binary data which converted the image which performed the jaggy reduction process. ジャギーを発生しやすい画像を変換した1200dpi2値のデータの一例のイメージ図である。It is an image figure of an example of the data of 1200 dpi binary which converted the image which is easy to generate | occur | produce jaggies. エッジレベル算出部の処理を表すフローチャートである。It is a flowchart showing the process of an edge level calculation part. エッジ抽出フィルタの一例のイメージ図である。It is an image figure of an example of an edge extraction filter. ドット出力順序決定部の処理を表すフローチャートである。It is a flowchart showing the process of a dot output order determination part. 1200dpiの2×2画素を表す一例のイメージ図である。It is an image figure of an example showing a 2 * 2 pixel of 1200 dpi. ドット出力順序がテンプレート情報に対応付けて記憶されている例を表した一例のイメージ図である。It is an image figure of an example showing the example in which the dot output order is stored in association with the template information. 注目画素周辺の左上、右上、左下、右下の4箇所の領域を表す一例のイメージ図である。It is an image figure of an example showing the four area | regions of the upper left of the attention pixel periphery, an upper right, lower left, and lower right. ドット出力順序決定部からの出力順序に基づいたドット配置を行わない例を表した一例のイメージ図である。It is an image figure of an example showing the example which does not perform dot arrangement based on the output order from a dot output order determination part. 本発明による画像処理装置の第2実施例を示す構成図である。It is a block diagram which shows 2nd Example of the image processing apparatus by this invention. 3×3のディザ閾値マトリクスの一例のイメージ図である。It is an image figure of an example of a 3x3 dither threshold value matrix. 6×6のディザ閾値マトリクスの一例のイメージ図である。FIG. 6 is an image diagram of an example of a 6 × 6 dither threshold matrix. ディザ閾値マトリクスの2×2の閾値の中で値が小さい位置から順番にドットを配置する処理を表したイメージ図である。It is an image figure showing the process which arrange | positions a dot in an order from a position with a small value within the 2 * 2 threshold value of a dither threshold value matrix. 本発明による画像処理装置の第3実施例を示す構成図である。It is a block diagram which shows 3rd Example of the image processing apparatus by this invention. 本発明による画像処理装置の第4実施例を示す構成図である。It is a block diagram which shows 4th Example of the image processing apparatus by this invention.

符号の説明Explanation of symbols

101 形状認識部
102 補正値読み出し部
103 データ補正部
104,304 ドット出力順序決定部
105 エッジレベル算出部
106 γ補正部
107 加算器
108,208,308 量子化部
109 減算器
110 誤差算出部
111,211,311 ドット出力位置制御部
212 ディザ閾値選択部
313 エリア内画素加算部
1011 テンプレートROM
1021 補正値ROM
2121 ディザ閾値ROM
3111 濃度パターンROM
DESCRIPTION OF SYMBOLS 101 Shape recognition part 102 Correction value reading part 103 Data correction part 104,304 Dot output order determination part 105 Edge level calculation part 106 γ correction part 107 Adder 108,208,308 Quantization part 109 Subtractor 110 Error calculation part 111, 211,311 dot output position control unit 212 dither threshold value selection unit 313 intra-area pixel addition unit 1011 template ROM
1021 Correction value ROM
2121 Dither threshold ROM
3111 Density pattern ROM

Claims (18)

入力された多値画像データの濃度値に応じてドットオン画素の比率を決定し、前記多値画像データよりも少ない多値数の少値画像データで出力する画像処理装置であって、
入力された多値画像データに対してパターン認識による形状の認識を行なう形状認識手段と、
前記形状認識手段で認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定するドット出力順序決定手段と、
入力された多値画像データを少値画像データに量子化する量子化手段と、
前記入力された多値画像データの濃度値に応じてドットオン画素位置を制御するドット出力位置制御手段とを有し、
前記ドット出力位置制御手段は、前記ドット出力順序決定手段により決定されたドット出力順序に基づいて、前記ドットオン画素を配置することを特徴とする画像処理装置。
An image processing apparatus that determines a dot-on pixel ratio according to a density value of input multi-valued image data, and outputs as a low-value image data having a smaller number of multi-values than the multi-valued image data,
Shape recognition means for recognizing the shape by pattern recognition for the input multi-value image data;
Dot output order determination means for determining the dot output order based on the shape recognized by the shape recognition means and the image data around the target pixel;
Quantization means for quantizing the input multi-value image data into low-value image data;
Dot output position control means for controlling the dot-on pixel position according to the density value of the input multi-value image data,
The dot output position control means arranges the dot-on pixels based on the dot output order determined by the dot output order determination means.
前記入力された多値画像データからエッジレベルを算出するエッジレベル算出手段を更に有し、
前記ドット出力位置制御手段は、前記ドット出力順序決定手段により決定されたドット出力順序及び前記エッジレベル算出手段により算出されたエッジレベルに基づいて、前記ドットオン画素を配置することを特徴とする請求項1記載の画像処理装置。
Edge level calculating means for calculating an edge level from the input multi-valued image data;
The dot output position control means arranges the dot-on pixels based on the dot output order determined by the dot output order determination means and the edge level calculated by the edge level calculation means. Item 6. The image processing apparatus according to Item 1.
前記形状認識手段は、前記入力された多値画像データの線画の形状を認識し、
前記ドット出力順序決定手段は、前記形状認識手段により認識された前記線画の形状に基づいて、ドット出力順序を決定することを特徴とする請求項1又は2記載の画像処理装置。
The shape recognition means recognizes the shape of a line drawing of the input multi-value image data,
The image processing apparatus according to claim 1, wherein the dot output order determination unit determines a dot output order based on the shape of the line drawing recognized by the shape recognition unit.
入力された低解像度の多値画像データを、前記多値画像データよりも少ない多値数の高解像度の少値画像データで出力する画像処理装置であって、
入力された多値画像データに対してパターン認識による形状の認識を行なう形状認識手段と、
前記形状認識手段で認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定するドット出力順序決定手段と、
入力された多値画像データを低解像度の画素単位で少値画像データに量子化する量子化手段と、
前記量子化手段により量子化された前記低解像度の少値画像データを、高解像度の少値画像データのドットオン画素数に変換し、ドットオン画素位置を制御するドット出力位置制御手段とを有し、
前記ドット出力位置制御手段は、前記ドット出力順序決定手段により決定されたドット出力順序に基づいて、前記高解像度の少値画像データのドットオン画素を配置することを特徴とする画像処理装置。
An image processing apparatus for outputting input low-resolution multi-value image data as high-resolution low-value image data having a multi-value number smaller than that of the multi-value image data,
Shape recognition means for recognizing the shape by pattern recognition for the input multi-value image data;
Dot output order determination means for determining the dot output order based on the shape recognized by the shape recognition means and the image data around the target pixel;
Quantization means for quantizing the input multi-value image data into low-value image data in units of low resolution;
Dot output position control means for converting the low-resolution low-value image data quantized by the quantization means into the number of dot-on pixels of the high-resolution low-value image data and controlling the dot-on pixel position. And
The dot output position control means arranges dot-on pixels of the high-resolution low-value image data based on the dot output order determined by the dot output order determination means.
前記入力された多値画像データからエッジレベルを算出するエッジレベル算出手段を更に有し、
前記ドット出力位置制御手段は、前記ドット出力順序決定手段により決定されたドット出力順序及び前記エッジレベル算出手段により算出されたエッジレベルに基づいて、前記ドットオン画素を配置することを特徴とする請求項4記載の画像処理装置。
Edge level calculating means for calculating an edge level from the input multi-valued image data;
The dot output position control means arranges the dot-on pixels based on the dot output order determined by the dot output order determination means and the edge level calculated by the edge level calculation means. Item 5. The image processing apparatus according to Item 4.
前記形状認識手段は、前記入力された多値画像データの線画の形状を認識し、
前記ドット出力順序決定手段は、前記形状認識手段により認識された前記線画の形状に基づいて、ドット出力順序を決定することを特徴とする請求項4又は5記載の画像処理装置。
The shape recognition means recognizes the shape of the line drawing of the input multi-value image data,
The image processing apparatus according to claim 4, wherein the dot output order determination unit determines a dot output order based on the shape of the line drawing recognized by the shape recognition unit.
入力された低解像度の多値画像データを、前記多値画像データよりも少ない多値数の高解像度の少値画像データで出力する画像処理装置であって、
入力された多値画像データに対してパターン認識による形状の認識を行なう形状認識手段と、
前記形状認識手段で認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定するドット出力順序決定手段と、
入力された多値画像データを低解像度の画素単位で多値誤差拡散により少値画像データに量子化する量子化手段と、
前記量子化手段により量子化された前記低解像度の少値画像データを、高解像度の少値画像データのドットオン画素数に変換し、ドットオン画素位置を制御するドット出力位置制御手段とを有し、
前記ドット出力位置制御手段は、前記ドット出力順序決定手段により決定されたドット出力順序に基づいて、前記高解像度の少値画像データのドットオン画素を配置することを特徴とする画像処理装置。
An image processing apparatus for outputting input low-resolution multi-value image data as high-resolution low-value image data having a multi-value number smaller than that of the multi-value image data,
Shape recognition means for recognizing the shape by pattern recognition for the input multi-value image data;
Dot output order determination means for determining the dot output order based on the shape recognized by the shape recognition means and the image data around the target pixel;
Quantization means for quantizing the input multi-value image data into low-value image data by multi-value error diffusion in units of low resolution pixels;
Dot output position control means for converting the low-resolution low-value image data quantized by the quantization means into the number of dot-on pixels of the high-resolution low-value image data and controlling the dot-on pixel position. And
The dot output position control means arranges dot-on pixels of the high-resolution low-value image data based on the dot output order determined by the dot output order determination means.
前記入力された多値画像データからエッジレベルを算出するエッジレベル算出手段を更に有し、
前記量子化手段は、前記エッジレベル算出手段により算出されたエッジレベルに応じて選択されるディザ閾値マトリクスを用いて、前記入力された多値画像データを低解像度の画素単位で多値誤差拡散により少値画像データに量子化することを特徴とする請求項7記載の画像処理装置。
Edge level calculating means for calculating an edge level from the input multi-valued image data;
The quantization unit uses the dither threshold value matrix selected according to the edge level calculated by the edge level calculation unit, and multi-level error diffusion of the input multi-level image data in units of low resolution pixels. The image processing apparatus according to claim 7, wherein the image processing apparatus quantizes the low-value image data.
前記ドット出力位置制御手段は、前記ドット出力順序決定手段により決定されたドット出力順序及び前記エッジレベル算出手段により算出されたエッジレベルに基づいて、前記ドットオン画素を配置することを特徴とする請求項8記載の画像処理装置。   The dot output position control means arranges the dot-on pixels based on the dot output order determined by the dot output order determination means and the edge level calculated by the edge level calculation means. Item 9. The image processing apparatus according to Item 8. 前記形状認識手段は、前記入力された多値画像データの線画の形状を認識し、
前記ドット出力順序決定手段は、前記形状認識手段により認識された前記線画の形状に基づいて、ドット出力順序を決定することを特徴とする請求項8又は9記載の画像処理装置。
The shape recognition means recognizes the shape of the line drawing of the input multi-value image data,
The image processing apparatus according to claim 8, wherein the dot output order determination unit determines a dot output order based on the shape of the line drawing recognized by the shape recognition unit.
前記ディザ閾値マトリクスは、マトリクス内全領域で同一の値を取る固定閾値マトリクスを少なくとも1つ含むことを特徴とする請求項8乃至10何れか一項記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the dither threshold value matrix includes at least one fixed threshold value matrix that takes the same value in all regions in the matrix. 前記ドット出力位置制御手段は、前記エッジレベル算出手段により算出されたエッジレベルが規定値より大きい場合、前記ドット出力順序決定手段により決定されたドット出力順序に基づいて、前記高解像度の少値画像データのドットオン画素を配置し、
前記エッジレベル算出手段により算出されたエッジレベルが規定値より小さい場合、前記ドット出力順序決定手段により決定されたドット出力順序に基づいて、前記高解像度の少値画像データのドットオン画素を配置しないことを特徴とする請求項2,5,8乃至11何れか一項記載の画像処理装置。
The dot output position control means, when the edge level calculated by the edge level calculation means is larger than a prescribed value, based on the dot output order determined by the dot output order determination means, the high-resolution low-value image Place dot-on pixels of data,
When the edge level calculated by the edge level calculation means is smaller than a prescribed value, the dot-on pixels of the high-resolution low-value image data are not arranged based on the dot output order determined by the dot output order determination means The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記ドット出力位置制御手段は、前記エッジレベル算出手段により算出されたエッジレベルが規定値より小さい場合、他のディザ閾値マトリクスに基づいて、前記高解像度の少値画像データのドットオン画素を配置することを特徴とする請求項12記載の画像処理装置。   The dot output position control means arranges the dot-on pixels of the high-resolution low-value image data based on another dither threshold matrix when the edge level calculated by the edge level calculation means is smaller than a prescribed value. The image processing apparatus according to claim 12. 前記形状認識手段は、予めメモリに記憶されているテンプレートと前記多値画像データの一部との比較を行なうテンプレートマッチングを用いたパターン認識を行い、
前記ドット出力順序決定手段は、マッチしたテンプレートと注目画素周辺の画像データとに基づき、ドット出力順序を決定することを特徴とする請求項1乃至13何れか一項記載の画像処理装置。
The shape recognition means performs pattern recognition using template matching for comparing a template stored in advance in memory with a part of the multi-valued image data,
The image processing apparatus according to claim 1, wherein the dot output order determination unit determines a dot output order based on a matched template and image data around a target pixel.
前記形状認識手段によるパターン認識結果を用いて、前記入力された多値画像データのジャギー低減処理を行い、ジャギー低減処理後の前記多値画像データに対してエッジレベルの算出処理および少値画像データへの量子化処理を行うことを特徴とする請求項1乃至14何れか一項記載の画像処理装置。   Using the pattern recognition result by the shape recognition means, the input multivalued image data is subjected to jaggy reduction processing, and the multilevel image data after the jaggy reduction processing is subjected to edge level calculation processing and low value image data. The image processing apparatus according to claim 1, wherein a quantization process is performed on the image processing apparatus. 入力された多値画像データの濃度値に応じてドットオン画素の比率を決定し、前記多値画像データよりも少ない多値数の少値画像データで出力する画像処理方法であって、
入力された多値画像データに対してパターン認識により形状を認識し、
認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定し、
入力された多値画像データを少値画像データに量子化し、
入力された多値画像データの濃度値に応じてドットオン画素位置を制御し、
決定されたドット出力順序に基づいて、前記ドットオン画素を配置することを特徴とする画像処理方法。
An image processing method for determining a dot-on-pixel ratio according to a density value of input multi-valued image data, and outputting with a small value image data having a smaller number of multi-values than the multi-valued image data,
Recognize the shape by pattern recognition for the input multi-value image data,
Based on the recognized shape and the image data around the pixel of interest, determine the dot output order,
Quantize input multi-value image data into low-value image data,
Control the dot-on pixel position according to the density value of the input multi-value image data,
An image processing method comprising arranging the dot-on pixels based on a determined dot output order.
入力された低解像度の多値画像データを、前記多値画像データよりも少ない多値数の高解像度の少値画像データで出力する画像処理方法であって、
入力された多値画像データに対してパターン認識により形状を認識し、
認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定し、
入力された多値画像データを低解像度の画素単位で少値画像データに量子化し、
量子化された前記低解像度の少値画像データを、高解像度の少値画像データのドットオン画素数に変換してドットオン画素位置を制御し、
決定されたドット出力順序に基づいて、前記高解像度の少値画像データのドットオン画素を配置することを特徴とする画像処理方法。
An image processing method for outputting input low-resolution multi-value image data as high-resolution low-value image data having a multi-value number smaller than that of the multi-value image data,
Recognize the shape by pattern recognition for the input multi-value image data,
Based on the recognized shape and the image data around the pixel of interest, determine the dot output order,
Quantize the input multi-value image data into low-value image data in units of low resolution pixels,
The quantized low-resolution low-value image data is converted into the number of dot-on pixels of the high-resolution low-value image data to control the dot-on pixel position,
An image processing method, comprising: arranging dot-on pixels of the high-resolution low-value image data based on the determined dot output order.
入力された低解像度の多値画像データを、前記多値画像データよりも少ない多値数の高解像度の少値画像データで出力する画像処理方法であって、
入力された多値画像データに対してパターン認識により形状を認識し、
認識された形状と注目画素周辺の画像データとに基づき、ドット出力順序を決定し、
入力された多値画像データを低解像度の画素単位で多値誤差拡散により少値画像データに量子化し、
量子化された前記低解像度の少値画像データを、高解像度の少値画像データのドットオン画素数に変換してドットオン画素位置を制御し、
決定されたドット出力順序に基づいて、前記高解像度の少値画像データのドットオン画素を配置することを特徴とする画像処理方法。
An image processing method for outputting input low-resolution multi-value image data as high-resolution low-value image data having a multi-value number smaller than that of the multi-value image data,
Recognize the shape by pattern recognition for the input multi-value image data,
Based on the recognized shape and the image data around the pixel of interest, determine the dot output order,
Quantize input multi-value image data into low-value image data by multi-value error diffusion in low resolution pixel units,
The quantized low-resolution low-value image data is converted into the number of dot-on pixels of the high-resolution low-value image data to control the dot-on pixel position,
An image processing method, comprising: arranging dot-on pixels of the high-resolution low-value image data based on the determined dot output order.
JP2005002655A 2005-01-07 2005-01-07 Image processing apparatus and image processing method Expired - Fee Related JP4468826B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005002655A JP4468826B2 (en) 2005-01-07 2005-01-07 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005002655A JP4468826B2 (en) 2005-01-07 2005-01-07 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2006191458A true JP2006191458A (en) 2006-07-20
JP4468826B2 JP4468826B2 (en) 2010-05-26

Family

ID=36798149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005002655A Expired - Fee Related JP4468826B2 (en) 2005-01-07 2005-01-07 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4468826B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008078789A (en) * 2006-09-19 2008-04-03 Ricoh Co Ltd Image processor, image forming apparatus equipped with the same, image processing method, and image forming method using the same method
JP2015012545A (en) * 2013-07-01 2015-01-19 富士ゼロックス株式会社 Image processing apparatus, image processing program, and image forming apparatus
JP2017046242A (en) * 2015-08-27 2017-03-02 キヤノン株式会社 Image processing system, image processing method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008078789A (en) * 2006-09-19 2008-04-03 Ricoh Co Ltd Image processor, image forming apparatus equipped with the same, image processing method, and image forming method using the same method
JP2015012545A (en) * 2013-07-01 2015-01-19 富士ゼロックス株式会社 Image processing apparatus, image processing program, and image forming apparatus
JP2017046242A (en) * 2015-08-27 2017-03-02 キヤノン株式会社 Image processing system, image processing method and program

Also Published As

Publication number Publication date
JP4468826B2 (en) 2010-05-26

Similar Documents

Publication Publication Date Title
EP0715451B1 (en) Error diffusion pattern shifting reduction through programmable threshold perturbation
JP3437226B2 (en) Image processing method and apparatus
JP3247737B2 (en) Pixel value quantization method in image
JPH0696198A (en) Conversion of nonquantized resolution of bit map image utilizing error diffusion
JP4121631B2 (en) Image data processing system and image data processing method
US6373990B1 (en) Image processing utilizing luminance-density conversion
JP4243854B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP4468826B2 (en) Image processing apparatus and image processing method
JP2007306513A (en) Method and device for image data compression
JP5312158B2 (en) Image processing apparatus and image processing method
JP4148443B2 (en) Image forming apparatus
JP4589887B2 (en) Image processing device
US7492482B2 (en) Image processing apparatus, image processing method and image processing program
JP3679522B2 (en) Image processing method and apparatus
JP4549306B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP4027300B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4152337B2 (en) Image processing device
JP4412213B2 (en) Image processing apparatus, image processing method, and program
JP2008306427A (en) Device and method for processing image
JP3950871B2 (en) Image processing method and apparatus
JP2006261764A (en) Image processing method and apparatus, and image forming apparatus
JP4158652B2 (en) Image processing apparatus, image processing method, and image processing program
JP4496765B2 (en) Image processing apparatus, image processing method, and image processing program
JP2008078733A (en) Image processing apparatus, image processing method, program, and information recording medium
JP2005064769A (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100225

R150 Certificate of patent or registration of utility model

Ref document number: 4468826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees