JP7123752B2 - Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium - Google Patents

Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium Download PDF

Info

Publication number
JP7123752B2
JP7123752B2 JP2018205146A JP2018205146A JP7123752B2 JP 7123752 B2 JP7123752 B2 JP 7123752B2 JP 2018205146 A JP2018205146 A JP 2018205146A JP 2018205146 A JP2018205146 A JP 2018205146A JP 7123752 B2 JP7123752 B2 JP 7123752B2
Authority
JP
Japan
Prior art keywords
image data
image processing
image
feature amount
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018205146A
Other languages
Japanese (ja)
Other versions
JP2020069717A (en
Inventor
義則 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018205146A priority Critical patent/JP7123752B2/en
Publication of JP2020069717A publication Critical patent/JP2020069717A/en
Application granted granted Critical
Publication of JP7123752B2 publication Critical patent/JP7123752B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関し、画像データに適切な画像処理を行うために、画像データに基づき網点の線数を判定する方法に関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program, and more particularly to a method of determining halftone frequency based on image data in order to perform appropriate image processing on the image data.

電子複写機などの画像形成装置は、従来のアナログ式のほかにデジタル式のものが普及しており、またデジタル画像処理技術の進展によって、カラー画像を高画質に再現するフルカラーのデジタル複写機が製品化されている。 In addition to conventional analog image forming devices such as electronic copiers, digital types are becoming more popular, and with the advancement of digital image processing technology, full-color digital copiers that reproduce color images with high image quality are becoming popular. It has been commercialized.

デジタル複写機では、画像読み取り部のスキャナから読み込まれた原稿の画像データから、原稿の網点の線数(網点線数)を判定し、判定結果に応じた画像処理が行われている。 2. Description of the Related Art In a digital copier, the number of halftone dots of a document (halftone dot ruling) is determined from the image data of the document read by the scanner of the image reading unit, and image processing is performed according to the determination result.

特許文献1では、RGBデータのうちG画像データを入力し、所定サイズ(例えば3×3画素)のマトリクスにて中心画素がピーク画素で有るかを検出し、所定領域(例えば20×9画素)内にピーク画素の数が多ければ高線数、少なければ低線数として判定している。 In Patent Document 1, G image data among RGB data is input, and whether or not the central pixel is a peak pixel in a matrix of a predetermined size (eg, 3×3 pixels) is detected, and a predetermined area (eg, 20×9 pixels) is detected. If the number of peak pixels is large in the range, it is judged as a high halftone frequency, and if it is small, it is judged as a low halftone frequency.

特開2008-078830号公報(2008年4月3日公開)Japanese Patent Application Laid-Open No. 2008-078830 (published on April 3, 2008) 特開2002-232708号公報(2002年8月16日公開)Japanese Patent Application Laid-Open No. 2002-232708 (published on August 16, 2002) 特開2000-354167号公報(2000年12月19日公開)Japanese Patent Application Laid-Open No. 2000-354167 (published on December 19, 2000)

しかし、上記ピーク画素数のような隣接画素間の濃淡変化の頻度を示す特徴量だけで線数判定をすると、紙質、紙の濃度、印刷品質、裏写りの有無、などが、反転回数に影響する。例えば、同じ線数の原稿でも、紙質が悪かったり、その紙質により印刷品質が悪かったり、紙が真っ白ではなく少し濃かったり、裏写りが有ったり、などすると、原稿の網点一つ一つがぼやけて読み取られ、反転回数が少なくなりがちである。その場合、原稿が低線数の原稿であると判定されやすくなってしまう。 However, if the number of lines is determined only by the feature value that indicates the frequency of density change between adjacent pixels, such as the peak pixel number, paper quality, paper density, print quality, presence or absence of show-through, etc. will affect the number of inversions. do. For example, even if the number of lines is the same, if the paper quality is poor, the print quality is poor due to the paper quality, the paper is not pure white but a little dark, or there is show-through, etc., each halftone dot of the document will be different. It tends to be read blurry and the number of inversions is small. In this case, the document is likely to be determined to be a document with a low number of lines.

また、同じ線数の原稿であっても、単色網点と混色網点とでは、上記の画素値の反転回数の傾向は異なる。例えば、読取装置から読み取られる原稿の画像データがRGBデータの場合、G画像データは、理論的にはその補色関係にあるマゼンタのみで構成されるが、読取装置における原稿の読取特性により、不要なシアン、イエロー、ブラックの網点の成分も混入される。したがって、原稿の網点の混色の構成次第で判定結果が変わってしまう。 Further, even if the number of screen lines is the same, the tendencies of the number of pixel value inversions differ between a single-color halftone dot and a mixed-color halftone dot. For example, when the image data of a document read by a reading device is RGB data, the G image data is theoretically composed only of magenta, which is complementary to magenta. Cyan, yellow, and black halftone dot components are also mixed. Therefore, the determination result changes depending on the configuration of mixed colors of the halftone dots of the document.

本発明は斯かる事情に鑑みてなされたものであり、隣接画素間の濃淡変化の頻度を示す特徴量だけでなく濃淡変化の大小の程度を示す特徴量や濃度分布を特徴量に追加することにより、線数の判定精度を高め、その判定結果に応じた画像処理を行い、鮮鋭度を保ちながらモアレが知覚されにくい画像を出力することが可能な画像処理装置等を提供することを目的とする。 The present invention has been made in view of such a situation, and it is possible to add not only a feature quantity indicating the frequency of grayscale change between adjacent pixels but also a feature quantity indicating the degree of grayscale change and a density distribution to the feature quantity. It is an object of the present invention to provide an image processing apparatus or the like capable of increasing the accuracy of line number determination, performing image processing according to the determination result, and outputting an image in which moiré is difficult to perceive while maintaining sharpness. do.

上述した課題を解決するために、本発明の画像処理装置は、
原稿を走査して、画像データとして入力する画像データ入力部と、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定部と、
前記判定部の判定結果に応じて、前記画像データに画像処理を行う画像処理部 と、
を備えることを特徴とする。
In order to solve the above-described problems, the image processing device of the present invention includes:
an image data input unit for scanning an original and inputting it as image data;
The document based on the image data feature amount including a first feature amount indicating frequency of grayscale change between adjacent pixels of the image data and a second feature amount indicating the degree of grayscale change of the image data. a determination unit that determines the screen frequency of halftone dots of
an image processing unit that performs image processing on the image data according to the determination result of the determination unit;
characterized by comprising

本発明の画像処理方法は、
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を含むことを特徴とする。
The image processing method of the present invention is
an image data input step of scanning a document and inputting it as image data;
The document based on the image data feature amount including a first feature amount indicating frequency of grayscale change between adjacent pixels of the image data and a second feature amount indicating the degree of grayscale change of the image data. a judgment step for judging the number of halftone dots of
an image processing step of performing image processing on the image data according to the determination result of the determination step;
characterized by comprising

本発明の画像処理プログラムは、
画像処理装置のプロセッサに、
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を実行させることを特徴とする。
The image processing program of the present invention is
In the processor of the image processing device,
an image data input step of scanning a document and inputting it as image data;
The document based on the image data feature amount including a first feature amount indicating frequency of grayscale change between adjacent pixels of the image data and a second feature amount indicating the degree of grayscale change of the image data. a judgment step for judging the number of halftone dots of
an image processing step of performing image processing on the image data according to the determination result of the determination step;
is characterized by executing

本発明のコンピュータ読み取り可能な記録媒体は、
画像処理装置のプロセッサに、
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を実行させる画像処理プログラムが記録されることを特徴とする。
The computer-readable recording medium of the present invention is
In the processor of the image processing device,
an image data input step of scanning a document and inputting it as image data;
The document based on the image data feature amount including a first feature amount indicating frequency of grayscale change between adjacent pixels of the image data and a second feature amount indicating the degree of grayscale change of the image data. a judgment step for judging the number of halftone dots of
an image processing step of performing image processing on the image data according to the determination result of the determination step;
An image processing program for executing is recorded.

本発明の画像処理装置等によれば、濃淡変化の大小の程度を示す特徴量を線数判定のパラメータに追加することで、紙質、紙の濃度、印刷品質、裏写りの有無、などに線数判定の結果が左右されにくくなる。したがって、隣接画素間の濃淡変化の頻度を示す特徴量だけで線数判定をすることにより、紙質、紙の濃度、印刷品質、裏写りの有無、網点の混色の構成、などに線数判定の結果が左右されてしまうことを防ぐことが可能となる。 According to the image processing apparatus and the like of the present invention, by adding a feature amount indicating the degree of shading change to the parameters for determining the number of lines, it is possible to determine whether the paper quality, paper density, print quality, presence or absence of show-through, etc. The result of number judgment is less likely to be influenced. Therefore, by determining the number of rulings based only on the feature value that indicates the frequency of grayscale changes between adjacent pixels, it is possible to determine the number of rulings based on factors such as paper quality, paper density, print quality, the presence or absence of show-through, and the composition of mixed colors in halftone dots. It is possible to prevent the result of

本実施形態における画像形成装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an image forming apparatus according to an embodiment; FIG. 本実施形態における原稿特徴判定部の構成を示すブロック図である。3 is a block diagram showing the configuration of a document feature determination section in the embodiment; FIG. 本実施形態の原稿特徴判定部における処理の流れを示すフローチャートである。4 is a flow chart showing the flow of processing in a document feature determination unit of the embodiment; 原稿の画像データのうちヒストグラム生成の対象から除外する除外領域の設定方法を示す説明図である。FIG. 10 is an explanatory diagram showing a method of setting an exclusion area excluded from histogram generation targets in document image data; 領域画素判定処理における網点線数を分類する判定処理の動作例を示す図である。FIG. 10 is a diagram showing an operation example of determination processing for classifying halftone dot rulings in area pixel determination processing; 網点領域に適用するフィルタの例である。It is an example of a filter applied to a halftone dot area. 本実施形態における画像形成装置のスキャン出力機能に関わる部分の概略構成を示すブロック図である。2 is a block diagram showing a schematic configuration of a portion related to a scan output function of the image forming apparatus according to the embodiment; FIG. 線数判定の閾値を設定する操作パネルの例を示す図である。FIG. 10 is a diagram showing an example of an operation panel for setting thresholds for line number determination;

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be specifically described based on the drawings showing the embodiments thereof.

図1は、本実施形態にかかる画像形成装置1の概略構成を示すブロック図である。なお、本実施形態では、画像形成装置1が電子写真方式のデジタルカラー複写機である場合について説明するが、画像形成装置1の構成はこれに限るものではなく、原稿の画像データに対して画像処理を施す機能を有する装置であればよい。 FIG. 1 is a block diagram showing a schematic configuration of an image forming apparatus 1 according to this embodiment. In this embodiment, a case where the image forming apparatus 1 is an electrophotographic digital color copying machine will be described, but the configuration of the image forming apparatus 1 is not limited to this. Any device may be used as long as it has a function of performing processing.

画像形成装置1は、図1に示すように、カラー画像入力装置110、カラー画像処理装置120、カラー画像出力装置130、操作パネル140、および制御部100を備えている。また、カラー画像処理装置120は、A/D(アナログ/デジタル)変換部11、シェーディング補正部12、原稿特徴判定部13、入力階調補正部14、領域分離処理部15、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、階調再現処理部20を備えている。 The image forming apparatus 1 includes a color image input device 110, a color image processing device 120, a color image output device 130, an operation panel 140, and a control section 100, as shown in FIG. Further, the color image processing apparatus 120 includes an A/D (analog/digital) conversion unit 11, a shading correction unit 12, a document feature determination unit 13, an input tone correction unit 14, an area separation processing unit 15, a color correction unit 16, A black generation undercolor removal unit 17 , a spatial filter processing unit 18 , an output gradation correction unit 19 , and a gradation reproduction processing unit 20 are provided.

カラー画像入力装置110は、原稿を読み取って原稿の画像データを生成することにより、原稿の画像データを入力する。そして、生成した(入力した)画像データをカラー画像処理装置120に出力する。なお、カラー画像入力装置110の構成は、原稿の画像データを生成することができる構成であれば特に限定されるものではなく、従来から公知の種々の画像入力装置を用いることができる。例えば、CCD(Charge Coupled Device)を備えたスキャナ部(図示せず)を有し、原稿からの反射光像をCCDで読み取ってRGB(R:赤、G:緑、B:青)のアナログ信号から成る画像データを生成する構成のものを用いてもよい。 The color image input device 110 inputs image data of a document by reading the document and generating image data of the document. Then, the generated (input) image data is output to the color image processing device 120 . The configuration of the color image input device 110 is not particularly limited as long as it can generate image data of a document, and various conventionally known image input devices can be used. For example, it has a scanner unit (not shown) equipped with a CCD (Charge Coupled Device), reads the reflected light image from the original with the CCD, and converts it into RGB (R: red, G: green, B: blue) analog signals. You may use the thing of the structure which produces|generates the image data which consists of.

カラー画像処理装置120は、カラー画像入力装置110から入力される画像データを、A/D変換部11、シェーディング補正部12、原稿特徴判定部13、入力階調補正部14、領域分離処理部15、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、および階調再現処理部20の順に送り、最終的にCMYK(C:シアン、M:マゼンタ、Y:イエロー、K:ブラック)のそれぞれに対応するデジタルカラー信号で表される画像データをカラー画像出力装置130へ出力する。 Color image processing device 120 converts image data input from color image input device 110 into A/D conversion unit 11, shading correction unit 12, document feature determination unit 13, input gradation correction unit 14, and area separation processing unit 15. , color correction unit 16, black generation undercolor removal unit 17, spatial filter processing unit 18, output gradation correction unit 19, and gradation reproduction processing unit 20, and finally CMYK (C: cyan, M: magenta , Y: yellow, and K: black) is output to the color image output device 130 .

A/D変換部11は、RGBのそれぞれに対応するアナログ信号の画像データをデジタル信号の画像データに変換する。 The A/D converter 11 converts image data of analog signals corresponding to RGB to image data of digital signals.

シェーディング補正部12は、A/D変換部11から送られてきたRGBに対応するデジタル信号の画像データに対して、カラー画像入力装置110の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施す。また、シェーディング補正部12は、カラーバランスの調整を行う。 The shading correction unit 12 corrects various distortions occurring in the illumination system, imaging system, and imaging system of the color image input device 110 with respect to the image data of digital signals corresponding to RGB sent from the A/D conversion unit 11. process to remove the Also, the shading correction unit 12 adjusts the color balance.

原稿特徴判定部13は、シェーディング補正部12にて各種の歪みが取り除かれ、カラーバランスの調整がなされたRGB信号(RGBの反射率信号)を濃度信号に変換する。また、原稿特徴判定部13は、(i)原稿が文字原稿、印刷写真原稿、あるいは文字と印刷写真が混在した文字印刷写真原稿、などのいずれであるかを判定する原稿種別判定処理、および(ii)下地除去処理を行うべき原稿である否かを判定する下地判定処理を行う。また、原稿種別判定処理は、原稿に印刷されている網点の線数を判定する線数判定処理を行う。そして、原稿特徴判定部13は、原稿種別判定処理の結果を示す原稿特徴判定信号を生成し、入力階調補正部14、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、および階調再現処理部20に出力する。入力階調補正部14、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、および階調再現処理部20は、原稿特徴判定信号に応じて、画像データに対する画像処理を行う。なお、原稿特徴判定部13の詳細については後述する。 The document feature determination unit 13 converts the RGB signals (RGB reflectance signals) from which various distortions have been removed and the color balance has been adjusted by the shading correction unit 12 into density signals. Further, the document feature determination unit 13 performs (i) document type determination processing for determining whether the document is a text document, a printed photo document, or a text printed photo document in which text and printed photos are mixed, and ( ii) Background determination processing is performed to determine whether or not the document should be subjected to background removal processing. In the document type determination process, screen frequency determination processing is performed to determine the frequency of halftone dots printed on the document. Then, the document characteristic determination section 13 generates a document characteristic determination signal indicating the result of the document type determination processing, and the input gradation correction section 14, the color correction section 16, the black generation undercolor removal section 17, and the spatial filter processing section 18. , and to the tone reproduction processing unit 20 . The input gradation correction unit 14, the color correction unit 16, the black generation undercolor removal unit 17, the spatial filter processing unit 18, and the gradation reproduction processing unit 20 perform image processing on the image data according to the document feature determination signal. . The details of the document feature determination unit 13 will be described later.

入力階調補正部14は、下地濃度の除去、およびコントラストなどの画質調整処理を行う。 The input gradation correction unit 14 removes background density and performs image quality adjustment processing such as contrast.

すなわち、原稿の下地(文字などが印刷された用紙)の色はさまざまであり、下地の色によっては白地部分(下地部分)を白(あるいは無色)として扱わないと、記録材(トナーあるいはインク)が余分に使用されてしまう場合がある。例えば、わら半紙のように黄色っぽいものや、下地に色がついている原稿をモノクロモードで画像形成する場合、下地の色を白として扱わないと、画像出力時に白地部分(下地部分)にも記録材が使われてしまう。このため、余分な記録材が使用されることを抑制するために、入力階調補正部14は、下地濃度の除去処理(すなわち下地の濃度を白色の濃度にする処理)を行うとともに、コントラストの調整処理を行う。 In other words, the background of the document (the paper on which characters are printed) has various colors. may be used excessively. For example, when forming an image in monochrome mode on a document with a yellowish background such as straw paper or a document with a colored background, if the background color is not treated as white, the white background (underground) will not be printed on the recording material when the image is output. is used. For this reason, in order to suppress the use of excess recording material, the input tone correction unit 14 performs background density removal processing (that is, processing to change the density of the background to white), and reduces the contrast. Perform adjustment processing.

また、入力階調補正部14は、RGBの濃度信号(以下、特に断らない限り、RGB信号は濃度信号(画素値を表す信号)を表すものとする。)から成る画像データを領域分離処理部15に出力する。 Further, the input gradation correction unit 14 converts image data composed of RGB density signals (hereinafter, unless otherwise specified, RGB signals represent density signals (signals representing pixel values)) to a region separation processing unit. Output to 15.

領域分離処理部15は、入力階調補正部14から出力された画像データにおける各画素を、RGB濃度信号に基づいて、下地領域、写真領域(連続階調領域)、文字領域、および網点領域のいずれに属するのか判定する領域分離処理を行う。また、領域分離処理部15は、領域分離処理の結果に基づいて、各画素がどの領域に属しているかを示す領域識別信号を生成し、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、および階調再現処理部20へと出力するとともに、入力階調補正部14から入力されたRGB信号をそのまま後段の色補正部16に出力する。 The area separation processing unit 15 divides each pixel in the image data output from the input tone correction unit 14 into a background area, a photograph area (continuous tone area), a character area, and a halftone dot area based on the RGB density signals. Performs region separation processing to determine which of the regions belongs to. Based on the results of the segmentation processing, the segmentation processing unit 15 generates a segmentation identification signal indicating which region each pixel belongs to, and the color correction unit 16, the black generation undercolor removal unit 17, the space Along with outputting to the filter processing unit 18 and the gradation reproduction processing unit 20, the RGB signals input from the input gradation correction unit 14 are directly output to the subsequent color correction unit 16. FIG.

色補正部16は、領域分離処理部15から入力されるRGB信号を、領域分離処理部15から入力される領域識別信号に応じて、CMY信号に変換する。また、色補正部16では、色再現の忠実化実現のために、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りを取り除く処理を行う。 The color correction unit 16 converts the RGB signals input from the segmentation processing unit 15 into CMY signals according to the segmentation signal input from the segmentation processing unit 15 . In addition, the color correction unit 16 performs processing for removing color turbidity based on spectral characteristics of CMY color materials including unnecessary absorption components in order to achieve faithful color reproduction.

黒生成下色除去部17は、色補正部16による色補正後のCMY信号から黒(K)信号を生成する黒生成処理と、元のCMY信号から黒生成処理で得たK信号を差し引いて新たなCMY信号を生成する下色除去処理とを行う。これによって、CMY信号はCMYKの4色の信号(以下、CMYK信号という)に変換される。 The black generation undercolor removal unit 17 performs black generation processing to generate a black (K) signal from the CMY signals after color correction by the color correction unit 16, and subtracts the K signal obtained by the black generation processing from the original CMY signals. and undercolor removal processing for generating new CMY signals. As a result, the CMY signals are converted into CMYK four-color signals (hereinafter referred to as CMYK signals).

例えば、黒生成下色除去部17では、黒生成処理として、スケルトンブラックによる黒生成を行う。このスケルトンブラックによる黒生成処理では、スケルトンカーブの入出力特性をy=f(x)とし、入力されるCMY信号のC信号、M信号、Y信号のそれぞれに対応する濃度をそれぞれC、M、Yとし、出力されるCMYK信号のC信号、M信号、Y信号、K信号のそれぞれに対応する濃度をそれぞれC’、M’、Y’、K’とし、UCR(Under Color Removal)率をα(0<α<1)とすると、
K’=f{min(C,M,Y)}
C’=C-αK’
M’=M-αK’
Y’=Y-αK’
によってCMYの3色の濃度信号をCMYKの4色の濃度信号に変換する。
For example, the black generation and undercolor removal unit 17 performs black generation using skeleton black as black generation processing. In the black generation process using this skeleton black, the input/output characteristic of the skeleton curve is y=f(x), and the densities corresponding to the C signal, M signal, and Y signal of the input CMY signals are C, M, and Y, respectively. Y, C', M', Y', and K' respectively correspond to the C signal, M signal, Y signal, and K signal of the output CMYK signals, and α is the UCR (Under Color Removal) rate. Assuming (0<α<1),
K′=f{min(C,M,Y)}
C'=C-αK'
M′=M−αK′
Y′=Y−αK′
converts CMY three-color density signals into CMYK four-color density signals.

空間フィルタ処理部18は、黒生成下色除去部17から入力されるCMYK信号の画像データに対して、空間周波数特性を補正することにより、画像データのぼやけ、および粒状性劣化を防ぐために、領域分離処理部15から入力される領域識別信号に応じて、領域の種別毎に予め設定されるデジタルフィルタによる空間フィルタ処理を行う。なお、空間フィルタ処理部18の詳細については後述する。 The spatial filter processing unit 18 corrects the spatial frequency characteristics of the image data of the CMYK signals input from the black generation and undercolor removal unit 17 to prevent blurring and graininess deterioration of the image data. Spatial filtering is performed using a digital filter preset for each type of region according to the region identification signal input from the separation processing unit 15 . Details of the spatial filtering unit 18 will be described later.

出力階調補正部19は、空間フィルタ処理部18から入力されるCMYK信号の画像データに対して、カラー画像出力装置130の出力特性に基づく出力階調補正処理を行う。 The output gradation correction unit 19 performs output gradation correction processing based on the output characteristics of the color image output device 130 on the image data of the CMYK signals input from the spatial filter processing unit 18 .

階調再現処理部20は、出力階調補正部19から入力されるCMYK信号の画像データに対して、領域分離処理部15から入力される領域識別信号に応じて、領域の種別毎に予め定められた処理を施す。 The gradation reproduction processing unit 20 predetermines the image data of the CMYK signals input from the output gradation correction unit 19 for each region type in accordance with the region identification signal input from the region separation processing unit 15. the specified processing.

例えば、領域分離処理部15によって文字領域に分離された領域に関しては、特に黒文字あるいは色文字の再現性を高めるために、空間フィルタ処理部18は鮮鋭強調処理により高周波数の強調量を大きくし、階調再現処理部20は高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理を行う。 For example, regarding the regions separated into character regions by the region separation processing unit 15, in order to improve the reproducibility of black characters or color characters in particular, the spatial filter processing unit 18 increases the amount of high-frequency enhancement by sharpness enhancement processing. A tone reproduction processing unit 20 performs binarization or multi-value processing on a high-resolution screen suitable for reproduction of high frequencies.

また、領域分離処理部15によって網点領域に分離された領域に関しては、空間フィルタ処理部18は入力網点成分を除去するためのローパス・フィルタ処理を施し、階調再現処理部20はそれぞれの画素の階調を再現できるように処理する階調再現処理(中間調生成)を施す。 In addition, for the regions separated into halftone dot regions by the region separation processor 15, the spatial filter processor 18 performs low-pass filter processing for removing input halftone dot components, and the gradation reproduction processor 20 performs the respective Gradation reproduction processing (halftone generation) is performed so that the gradation of pixels can be reproduced.

また、領域分離処理部15によって写真領域(連続階調領域)に分離された領域に関しては、階調再現処理部20は階調再現性を重視したスクリーンでの二値化または多値化処理を行う。 In addition, regarding the area separated into a photographic area (continuous tone area) by the area separation processing unit 15, the tone reproduction processing unit 20 performs binarization or multi-value processing on a screen that emphasizes tone reproduction. conduct.

階調再現処理部20から出力される画像データ、すなわち前述した各処理が施された画像データは、記憶部(図示せず)に一旦記憶され、所定のタイミングで読み出されてカラー画像出力装置130に出力される。 The image data output from the gradation reproduction processing section 20, that is, the image data that has undergone each of the processes described above, is temporarily stored in a storage section (not shown), read out at a predetermined timing, and supplied to the color image output apparatus. 130.

カラー画像出力装置130は、画像データに応じた画像を記録媒体(例えば紙などのシート体)に出力する。カラー画像出力装置130は、2色以上(本実施形態ではC、M、Y、Kの4色)の記録材を用いて記録媒体に画像を形成する。なお、本実施形態では、カラー画像出力装置130として、電子写真方式のプリンタ装置を用いている。ただし、カラー画像出力装置130の構成はこれに限るものではなく、例えばインクジェット方式などの他の方式のプリンタ装置を用いてもよい。 The color image output device 130 outputs an image corresponding to image data to a recording medium (for example, a sheet such as paper). The color image output device 130 forms an image on a recording medium using recording materials of two or more colors (four colors of C, M, Y, and K in this embodiment). In this embodiment, an electrophotographic printer is used as the color image output device 130 . However, the configuration of the color image output device 130 is not limited to this, and a printer device of another system such as an inkjet system may be used.

操作パネル140は、ユーザからの指示入力を受け付けて制御部100に伝達する。操作パネル140は、例えば、液晶ディスプレイなどの表示部とユーザの操作入力を受け付ける操作キーとを含んで構成される。あるいは、操作パネル140はタッチパネルであってもよい。 Operation panel 140 receives an instruction input from the user and transmits it to control unit 100 . The operation panel 140 includes, for example, a display unit such as a liquid crystal display and operation keys for accepting user's operation input. Alternatively, operation panel 140 may be a touch panel.

制御部100は、CPU(Central Processing Unit)や専用プロセッサなどの演算処理部、および、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)などの記憶部(いずれも図示せず)などにより構成されるコンピュータ装置である。制御部100は、上記記憶部に記憶されている各種情報および各種制御を実施するためのプログラム、操作パネル140を介して入力されるユーザからの指示入力、および画像形成装置1に備えられる各種センサの検知結果などに応じて、カラー画像入力装置110、カラー画像処理装置120、カラー画像出力装置130、および操作パネル140の動作を制御する。 The control unit 100 includes an arithmetic processing unit such as a CPU (Central Processing Unit) and a dedicated processor, and a storage unit such as a RAM (Random Access Memory), a ROM (Read Only Memory), and an HDD (Hard Disk Drive) (all shown in the figure). not shown). The control unit 100 receives various information stored in the storage unit, programs for executing various controls, instructions input from the user through the operation panel 140, and various sensors provided in the image forming apparatus 1. The operations of the color image input device 110, the color image processing device 120, the color image output device 130, and the operation panel 140 are controlled according to the detection result of the color image.

(原稿特徴判定部の詳細)
原稿特徴判定部13の詳細について説明する。図2は原稿特徴判定部13の構成を示すブロック図であり、図3は原稿特徴判定部13における処理の流れを示すフローチャートである。
(Details of document feature determination unit)
The details of the document feature determination unit 13 will be described. FIG. 2 is a block diagram showing the configuration of the document feature determination section 13, and FIG. 3 is a flowchart showing the flow of processing in the document feature determination section 13. As shown in FIG.

図2に示すように、原稿特徴判定部13は、画素判定部1301、領域画素カウント部1302、データ選択部1303、ヒストグラム生成部1304、下地判定部1305、原稿種別判定部1306、および下地除去部1307を備えている。 As shown in FIG. 2, the document feature determination unit 13 includes a pixel determination unit 1301, an area pixel count unit 1302, a data selection unit 1303, a histogram generation unit 1304, a background determination unit 1305, a document type determination unit 1306, and a background removal unit. 1307 is provided.

原稿特徴判定部13では、図3に示すように、まず、画素判定部1301が、シェーディング補正部12から入力されるRGB信号(画像データ)の各画素を下地画素、写真画素(連続階調画素)、文字画素、網点画素の何れかに分類する領域画素判定処理を行う(S1)。なお、以降の説明では、下地画素、写真画素(連続階調画素)、文字画素、および網点画素に分類された画素を領域画素と称する。 As shown in FIG. 3, in the document feature determination unit 13, first, the pixel determination unit 1301 converts each pixel of the RGB signal (image data) input from the shading correction unit 12 into a base pixel, a photograph pixel (continuous tone pixel). ), and performs area pixel determination processing for classifying the pixels into either character pixels or halftone pixels (S1). In the following description, pixels classified into background pixels, photo pixels (continuous tone pixels), text pixels, and halftone pixels are referred to as area pixels.

領域画素に分類するためのアルゴリズムは、特に限定されるものではなく、既存の領域分離方法を用いることができる。例えば、特許文献2に記載の方法を用いてもよい。この方法では、以下の(1)~(8)の処理により領域画素判定処理を行う。 Algorithms for classifying into area pixels are not particularly limited, and existing area separation methods can be used. For example, the method described in Patent Document 2 may be used. In this method, area pixel determination processing is performed by the following processing (1) to (8).

(1)注目画素を含むn×m(たとえば、7画素×7画素)の画素ブロックにおける最小濃度値および、最大濃度値を算出する。
(2)算出された最小濃度値及び最大濃度値を用いて最大濃度差を算出する。
(3)注目画素に隣接する画素の濃度差の絶対値の総和である総和濃度繁雑度(たとえば、主走査方向と副走査方向について算出した値の和)を算出する。
(4)算出された最大濃度差と最大濃度差閾値との比較及び算出された総和濃度繁雑度と総和濃度繁雑度閾値との比較を行う。
(5)最大濃度差<最大濃度差閾値および総和濃度繁雑度<総和濃度繁雑度閾値のとき、注目画素は下地・写真領域(連続階調領域)に属すると判定する。
(6)上記条件を満たさないときは、注目画素は文字・網点領域に属すると判定する。
(7)下地・写真領域(連続階調領域)に属すると判定された画素について、注目画素が、最大濃度差<下地・印画紙判定閾値を充たすとき、下地画素であると判定し、この条件を充たさないときは、写真画素(連続階調画素)であると判定する。
(8)文字・網点領域に属すると判定された画素について、注目画素が、総和濃度繁雑度<(最大濃度差に文字・網点判定閾値を掛けた値)の条件を満たすとき、文字画素であると判定し、この条件を満たさないときは、網点画素であると判定する。
また、領域画素判定処理では、原稿の網点線数判定のための画素の分類処理も行う。詳細は後述する。
(1) Calculate the minimum density value and the maximum density value in a pixel block of n×m (for example, 7 pixels×7 pixels) including the pixel of interest.
(2) Calculate the maximum density difference using the calculated minimum density value and maximum density value.
(3) A total density complexity (for example, a sum of values calculated in the main scanning direction and the sub-scanning direction), which is the sum of the absolute values of the density differences of pixels adjacent to the target pixel, is calculated.
(4) Comparison between the calculated maximum density difference and the maximum density difference threshold and comparison between the calculated total density complexity and the total density complexity threshold are performed.
(5) When maximum density difference<maximum density difference threshold and total density complexity <sum density complexity threshold, it is determined that the pixel of interest belongs to the background/photograph area (continuous tone area).
(6) If the above conditions are not met, it is determined that the pixel of interest belongs to the character/halftone dot area.
(7) A pixel determined to belong to a background/photographic area (continuous tone area) is determined to be a background pixel when the pixel of interest satisfies the following condition: maximum density difference<background/photographic paper determination threshold. is not satisfied, it is determined to be a photographic pixel (continuous tone pixel).
(8) For pixels determined to belong to a character/halftone dot area, if the pixel of interest satisfies the condition: total density complexity < (maximum density difference multiplied by character/halftone determination threshold value), character pixel If this condition is not satisfied, it is determined to be a halftone dot pixel.
Also, in the area pixel determination process, a pixel classification process for determining the halftone ruling of the document is also performed. Details will be described later.

なお、領域画素判定処理は、例えば、プレスキャンされた画像データを用いて行ってもよく、ハードディスク等の記憶手段に一旦格納された画像データを用いて行ってもよい。 Note that the area pixel determination process may be performed using, for example, pre-scanned image data, or may be performed using image data temporarily stored in a storage means such as a hard disk.

次に、領域画素カウント部1302が、画素判定部1301での領域画素判定処理の結果に基づいて、領域画素の種別毎に(下地画素、写真画素(連続階調画素)、文字画素、および網点画素の各領域画素毎に)、分類された画素(領域画素)の数をカウントする領域画素カウント処理を行う。網点線数の分類結果の数のカウントも行う(S2)。 Next, based on the result of the area pixel determination processing in the pixel determination unit 1301, the area pixel count unit 1302 counts the area pixels for each type (background pixel, photo pixel (continuous tone pixel), character pixel, and halftone pixel). For each area pixel of point pixels, an area pixel count process is performed to count the number of classified pixels (area pixels). The number of halftone dot ruling classification results is also counted (S2).

次に、データ選択部1303が、シェーディング補正部12から入力されたRGB信号に基づく画像領域を、後述するヒストグラム生成処理の対象とする対象領域とヒストグラム生成処理の対象から除外する除外領域とに分離する領域選択処理を行う(S3)。すなわち、本実施形態では、ヒストグラム生成を入力画像の全画素を対象として行うのではなく、一部の画素を除外して行う。 Next, the data selection unit 1303 separates the image area based on the RGB signals input from the shading correction unit 12 into a target area to be subjected to histogram generation processing (to be described later) and an exclusion area to be excluded from histogram generation processing. area selection processing is performed (S3). That is, in the present embodiment, histogram generation is not performed for all pixels of the input image, but is performed by excluding some pixels.

図4は、原稿の画像データのうちヒストグラム生成の対象から除外する除外領域の設定方法を示す説明図である。 FIG. 4 is an explanatory diagram showing a method of setting an exclusion area excluded from histogram generation targets in document image data.

カラー画像入力装置110によって読み取られた原稿の画像データは、シェーディング補正部12においてカラー画像入力装置110の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施すが、必ずしも画像データの全領域に対して適切な補正が行われるわけではない。例えば、カラー画像入力装置110での原稿読取時に、原稿における原稿台の端部に配置された領域(原稿の端部領域)は比較的暗めの信号となってしまう場合がある。 The image data of the document read by the color image input device 110 is processed in the shading correction unit 12 to remove various distortions caused by the illumination system, imaging system, and imaging system of the color image input device 110. Appropriate correction is not performed for the entire area of . For example, when the color image input device 110 reads a document, an area (edge area of the document) located at the edge of the document platen of the document may result in a relatively dark signal.

そこで、本実施形態では、図4に示したように、データ選択部1303が、原稿の画像データのうち、画像読取時にカラー画像入力装置110における原稿台のガラス面の端部に位置していた所定範囲の領域の画像データをヒストグラム生成の対象領域から除外し、その他の領域をヒストグラム生成の対象領域とする。 Therefore, in the present embodiment, as shown in FIG. 4, the data selection unit 1303 is located at the edge of the glass surface of the document platen of the color image input device 110 when reading the image data of the document. Image data within a predetermined range is excluded from the target area for histogram generation, and other areas are set as target areas for histogram generation.

上記所定範囲は特に限定されるものではなく、適宜設定すればよいが、例えば、原稿のボイド領域のうち、原稿読取時に原稿台のガラス面の端部に隣接していた箇所をヒストグラム生成の対象から除外するようにしてもよい。ボイド領域とは、プリンタで印刷あるいはコピーされた原稿における端部(周縁部)から数mm程度(例えば4mm程度)の幅で存在する、何も印刷されない領域である。 The predetermined range is not particularly limited and may be set as appropriate. may be excluded from A void area is a blank area that exists with a width of about several millimeters (for example, about 4 mm) from the edge (periphery) of a document printed or copied by a printer.

次に、ヒストグラム生成部1304が、シェーディング補正部12から入力されたRGB信号のうち、領域画素判定処理において下地画素と判定され、かつ領域選択処理においてヒストグラム生成の対象領域と判定された領域に属する画素を注目画素として抽出し、ヒストグラム生成処理(最小値ヒストグラム生成処理)を行う(S4)。 Next, the histogram generation unit 1304 determines that the RGB signals input from the shading correction unit 12 belong to an area determined to be a background pixel in the area pixel determination process and to be a target area for histogram generation in the area selection process. A pixel is extracted as a pixel of interest, and histogram generation processing (minimum value histogram generation processing) is performed (S4).

具体的には、ヒストグラム生成部1304は、注目画素についてプレーン毎(色成分毎)の比較を行い、当該注目画素の各色成分間での最小値を算出し、予め設定した複数の濃度区分のうち、算出した上記最小値が属する濃度区分の度数に1を加算する。なお、本実施形態では、ヒストグラムの濃度区分の数を、画素値(濃度値)の小さい方から順に第1濃度区分、第2濃度区分とし、画素値の最も大きい区分を第32濃度区分として32区分に設定している。本実施形態では、RGB信号を用いているので、画素値(濃度値)が「0」に近い方が(濃度値が小さい方が)実際の濃度は濃くなり、画素値(濃度値)が「255」に近い方が(濃度値が大きい方が)濃度は薄く(淡く)なる。 Specifically, the histogram generation unit 1304 compares the pixel of interest for each plane (each color component), calculates the minimum value between each color component of the pixel of interest, , 1 is added to the frequency of the density division to which the calculated minimum value belongs. Note that in this embodiment, the number of density divisions in the histogram is defined as the first density division and the second density division in descending order of the pixel value (density value), and the division with the largest pixel value is designated as the 32nd density division, which is 32. It is set to division. In this embodiment, since RGB signals are used, the closer the pixel value (density value) is to "0" (the smaller the density value), the higher the actual density. 255” (the higher the density value), the lower the density (lighter).

なお、色成分間の最小値を用いてヒストグラムを作成するのは、下地の最も濃い色成分(濃度値が最小値である色成分)の濃度値を下地濃度とし、その濃度値に対応する補正量テーブルを全色成分に対して適用して下地除去処理を行うことにより、最も濃い色成分以外の色成分についても下地除去を行うことができるからである。 Note that the histogram is created using the minimum values between the color components by taking the density value of the darkest color component of the background (the color component with the minimum density value) as the background density, and performing the correction corresponding to that density value. This is because background removal can be performed for color components other than the darkest color component by applying the amount table to all color components and performing background removal processing.

その後、原稿特徴判定部13は、S1~S4の処理を全ての画素について行ったか否かを判断し(S5)、未処理の画素が残っている場合にはS1の処理に戻って未処理の画素に対してS1~S4の処理を行う。 After that, the document feature determination section 13 determines whether or not the processes of S1 to S4 have been performed for all pixels (S5). The processing of S1 to S4 is performed on the pixels.

一方、S5において全ての画素に対してS1~S4の処理が完了したと判断した場合、下地判定部1305が下地除去を行うべきか否かを判定する下地判定処理を行う(S6)。 On the other hand, if it is determined in S5 that the processing of S1 to S4 has been completed for all pixels, the background determination unit 1305 performs background determination processing to determine whether background removal should be performed (S6).

S6で下地判定処理を行った後、原稿種別判定部1306は、原稿種別判定処理を行う(S7)。 After performing background determination processing in S6, the document type determination unit 1306 performs document type determination processing (S7).

具体的には、原稿種別判定部1306は、領域画素カウント部1302でカウントされた領域画素数と、予め定められている下地領域、写真領域(連続階調領域)、網点領域および文字領域にそれぞれ対応する閾値とを比較することにより、原稿全体の種別を判定する。 Specifically, the document type determination unit 1306 determines the number of area pixels counted by the area pixel count unit 1302 and the predetermined background area, photo area (continuous tone area), halftone dot area, and character area. The type of the entire document is determined by comparing each corresponding threshold value.

例えば、文字、網点、写真(連続階調)の順に検出精度が高い場合、文字領域の画素の比率が全画素数の30%以上の場合には文字原稿であると判定し、網点領域の画素の比率が全画素数の20%以上の場合には網点原稿(印刷写真原稿)であると判定し、写真領域(連続階調領域)の画素の比率が全画素数の10%以上の場合には印画紙写真原稿であると判定する。また、文字領域の比率と網点領域の比率とが、それぞれ閾値以上であるときは、文字/網点原稿(文字印刷写真原稿)であると判定する。文字領域の比率と写真領域(連続階調領域)の比率とが、それぞれ閾値以上であるときは、文字/写真原稿(文字印画紙写真原稿)であると判定する。 For example, if the detection accuracy is higher in the order of text, halftone dots, and photographs (continuous gradation), if the ratio of pixels in the text area is 30% or more of the total number of pixels, it is determined to be a text document, and the halftone dot area is determined. If the ratio of pixels in is 20% or more of the total number of pixels, it is judged to be a halftone dot original (printed photo original), and the ratio of pixels in the photographic area (continuous tone area) is 10% or more of the total number of pixels. In the case of , it is determined that the document is a photographic paper photo document. Also, when the ratio of the text area and the ratio of the halftone dot area are equal to or greater than the respective threshold values, it is determined that the document is a text/halftone dot document (character printed photo document). When the ratio of the character area and the ratio of the photographic area (continuous gradation area) are equal to or greater than the respective threshold values, it is determined that the document is a character/photo document (character photographic paper photo document).

また、原稿に印刷されている網点の線数を判定する。その詳細については後述する。 Also, the number of halftone dots printed on the document is determined. The details will be described later.

なお、原稿種別判定部1306は、原稿種別の判定結果を示す原稿特徴判定信号を、下地除去部1307、入力階調補正部14、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、および階調再現処理部20に出力する。 Note that the document type determination unit 1306 applies the document feature determination signal indicating the document type determination result to the background removal unit 1307, the input gradation correction unit 14, the color correction unit 16, the black generation under color removal unit 17, and the spatial filter processing. 18 and the gradation reproduction processing unit 20. FIG.

次に、下地除去部1307は、原稿種別判定部1306による原稿種別の判定結果に基づいて、下地除去を行うべき原稿であるか否かを判定する(S8)。すなわち、下地除去部1307は、原稿種別判定部1306によって判定された原稿種別が、下地除去を行うべき原稿種別として予め設定された種別であるか否かを判断する。 Next, the background removal unit 1307 determines whether or not the document should be subjected to background removal based on the result of the document type determination by the document type determination unit 1306 (S8). That is, the background removal unit 1307 determines whether or not the document type determined by the document type determination unit 1306 is a type preset as a document type for which background removal is to be performed.

例えば、下地除去を行う原稿として、文字原稿、写真領域(連続階調領域)を含まない原稿、文字/網点原稿(文字印刷写真原稿)で網点領域の比率が小さい原稿(例えば網点領域の比率が原稿全体に対して40%以下の原稿)などを設定してもよい。 For example, as a document for background removal, a text document, a document that does not include a photo area (continuous tone area), a text/halftone dot document (character printed photo document) with a small halftone dot area ratio (for example, a halftone dot area) ratio of 40% or less of the entire document) may be set.

S8において下地除去すべき原稿ではないと判断した場合、原稿特徴判定部13は、下地除去を行わずに処理を終了する。 If it is determined in S8 that the original does not require the background removal, the original document characteristics determining section 13 terminates the process without removing the background.

一方、S8において下地除去すべき原稿であると判断した場合、下地除去部1307は、下地除去処理を行い(S9)、処理を終了する。 On the other hand, if it is determined in S8 that the document should be background-removed, the background-removing unit 1307 performs the background-removing process (S9), and ends the process.

下地除去処理の方法は特に限定されるものではなく、既存の下地除去方法を用いることができる。 The method of background removal processing is not particularly limited, and an existing background removal method can be used.

例えば、特許文献3に記載されている方法を用いて下地除去を行ってもよい。この方法では、下地であると判定された場合、下地濃度値に対応する補正量テーブルを選択し、下地除去処理を行う。下地画素のプレーン毎(色成分毎)の最小値を用いてヒストグラムを作成した場合、全色成分について上記最小値に対応する補正量テーブルを選択して下地除去処理を行えばよい。 For example, the method described in Patent Document 3 may be used to remove the background. In this method, when the background is determined, the correction amount table corresponding to the background density value is selected, and the background removal process is performed. When a histogram is created using the minimum values of background pixels for each plane (each color component), the background removal process can be performed by selecting a correction amount table corresponding to the minimum values for all color components.

(領域画素判定処理における原稿の網点線数判定のための画素の分類処理)
画素判定部1301によって実行される領域画素判定処理(S1)における、原稿の網点線数判定のための画素の分類処理について説明する。RGB画像の各色成分に対して、注目画素(図5においてハッチングを施した中央の画素)を含むn×m(たとえば、7画素×7画素)の画素ブロック内の図5に示される二方向に対して隣接画素の濃度差が隣接画素濃度差閾値を越える場合に立上り画素または立下り画素と判定して、判定された画素数を反転回数としてカウントする。ただし、連続する立上り画素、立下り画素はカウントしないようにする。隣接画素濃度差閾値は、注目画素を含むn×m(例えば、5画素×5画素)の画素ブロック内の平均値などをもとに決定する。平均値が第1所定値(例えば、100)以上であれば隣接画素濃度差閾値をTH1(例えば、50)、平均値が第1所定値未満かつ第2所定値(例えば、70)以上であれば隣接画素濃度差閾値をTH2(例えば、33)、平均値が第2所定値未満であれば隣接画素濃度差閾値をTH3(例えば、15)としておく。画素ブロック内の平均値に応じて立上り画素または立下り画素をカウントする隣接画素濃度差閾値を異ならせるのは、平均して濃い部分か淡い部分かによって濃い方の画素と淡い方の画素との濃淡差が異なるからである。平均して濃い部分の方が淡い部分より、濃い方の画素と淡い方の画素との濃淡差が小さい傾向にあるため、平均値を3分割して、それぞれでの隣接画素濃度差閾値を定めている。なお、ここでは、平均値を3分割しているが、必ずしも3分割に限定されるものではなく、分割数は4以上でも構わない。
(Pixel Classification Process for Determination of Halftone Frequency of Document in Area Pixel Determination Process)
A pixel classification process for determining the halftone ruling of the document in the area pixel determination process (S1) executed by the pixel determining unit 1301 will be described. For each color component of the RGB image, in the two directions shown in FIG. On the other hand, when the density difference between adjacent pixels exceeds the adjacent pixel density difference threshold, it is determined as a rising pixel or falling pixel, and the number of determined pixels is counted as the number of inversions. However, consecutive rising pixels and falling pixels are not counted. The adjacent pixel density difference threshold is determined based on an average value in a pixel block of n×m (for example, 5 pixels×5 pixels) including the pixel of interest. If the average value is greater than or equal to a first predetermined value (eg, 100), the adjacent pixel density difference threshold is set to TH1 (eg, 50). For example, the adjacent pixel density difference threshold is set to TH2 (eg, 33), and if the average value is less than the second predetermined value, the adjacent pixel density difference threshold is set to TH3 (eg, 15). The reason why the adjacent pixel density difference threshold for counting rising pixels or falling pixels according to the average value in the pixel block is to be different is that dark pixels and light pixels are averaged depending on whether the portion is dark or light. This is because the gradation difference is different. Since there is a tendency that the density difference between dark pixels and light pixels is smaller in darker areas than in lighter areas on average, the average value is divided into three, and adjacent pixel density difference thresholds are determined for each. ing. Although the average value is divided into three here, the number of divisions is not necessarily limited to three, and the number of divisions may be four or more.

RGBの各成分の反転回数カウント値の最大値を求め、その最大値が第1反転回数閾値以上(例えば、30)であれば第1線数画素、第1反転回数閾値未満かつ第2反転回数閾値以上(例えば、15)であれば第2線数画素、第2反転回数閾値未満であれば第3線数画素で有ると判定する。ここでは、反転回数カウントを3分割して判定しているが、必ずしも3分割に限定されるものではなく、分割数は4以上でも構わない、また、この反転回数の分類は、網点領域の線数を判定するために行うものなので、網点領域に判定された画素に限定して行っても良い。 The maximum value of the inversion number count value of each component of RGB is obtained, and if the maximum value is equal to or greater than the first inversion number threshold (for example, 30), it is the first line number pixel, less than the first inversion number threshold and the second inversion number. If it is equal to or greater than the threshold value (for example, 15), it is determined to be the second line number pixel, and if it is less than the second inversion count threshold value, it is determined to be the third line number pixel. Here, the count of the number of inversions is divided into three for determination, but the number of divisions is not necessarily limited to three, and the number of divisions may be four or more. Since this is performed to determine the number of lines, it may be performed only for pixels determined to be halftone dots.

(原稿種別判定処理における線数判定の詳細)
原稿種別判定部1306によって実行される領域画素判定処理(S7)における、原稿の線数を判定する線数判定について説明する。原稿に印刷されている網点の線数の判定には、次のカウント値やヒストグラム度数を用いる。領域画素カウント部1302において網点画素と判定された画素をカウントした結果である網点領域画素数(scr0)、第1線数画素数(scr1)、第2線数画素数(scr2)、第3線数画素数(scr3)、ヒストグラム生成部1304におけるヒストグラム対象画素数(bgcnt)、ヒストグラム第16区分度数(hst16)、ヒストグラム第17区分度数(hst17)、…、ヒストグラム第31区分度数(hst31)を用いる。
(Details of frequency determination in document type determination processing)
Screen frequency determination for determining the screen frequency of the document in the area pixel determination processing (S7) executed by the document type determination unit 1306 will be described. The following count values and histogram frequencies are used to determine the number of halftone dots printed on the document. The number of halftone dot area pixels (scr0), the number of first line number pixels (scr1), the number of second line number pixels (scr2), and the 3-line pixel number (scr3), histogram target pixel number (bgcnt) in histogram generation unit 1304, histogram 16th segment frequency (hst16), histogram 17th segment frequency (hst17), ..., histogram 31st segment frequency (hst31) Use

上記のカウント値やヒストグラム度数から、画像データに関する特徴量(画像データ特徴量)を算出する(S71)。例えば、第1線数画素数(scr1)の網点領域画素数(scr0)に対する比、第2線数画素数(scr2)の網点領域画素数(scr0)に対する比、第3線数画素数(scr3)の網点領域画素数(scr0)に対する比に基づき、隣接画素における濃淡変化の頻度を示す特徴量(第1の特徴量)を算出する。また、ヒストグラム第16区分度数(hst16)のヒストグラム対象画素数(bgcnt)に対する比、ヒストグラム第17区分度数(hst17)のヒストグラム対象画素数(bgcnt)に対する比、…、ヒストグラム第31区分度数(hst31)のヒストグラム対象画素数(bgcnt)に対する比に基づき、下地画素における画素の濃淡変化の大小の程度を示す特徴量(第2の特徴量)を算出する。これらの特徴量に基づき、原稿が高線数か低線数かを判定する網点線数判定処理を行う(S72)。 A feature amount (image data feature amount) relating to the image data is calculated from the above count value and histogram frequency (S71). For example, the ratio of the number of pixels of the first line number (scr1) to the number of pixels of the halftone dot area (scr0), the ratio of the number of pixels of the second line number (scr2) to the number of pixels of the halftone area (scr0), the number of pixels of the third line number Based on the ratio of (scr3) to the number of halftone dot area pixels (scr0), a feature amount (first feature amount) indicating the frequency of grayscale change in adjacent pixels is calculated. Also, the ratio of the histogram 16th segment frequency (hst16) to the number of histogram target pixels (bgcnt), the ratio of the histogram 17th segment frequency (hst17) to the histogram target pixel count (bgcnt), . . . , the histogram 31st segment frequency (hst31) to the number of pixels to be histogrammed (bgcnt), a feature quantity (second feature quantity) indicating the degree of change in pixel density in the background pixels is calculated. Based on these feature values, halftone frequency determination processing is performed to determine whether the document has a high screen frequency or a low frequency screen (S72).

網点の線数が一枚の原稿の中で一定であっても、マスク内の濃淡の反転回数が一定になるわけではない。また、紙質、紙の濃度、印刷品質、裏写りの有無、などが、濃淡の反転回数に影響する。そのため、濃淡の反転回数の頻度の特徴量を増やし、濃度分布を特徴量に追加している。 Even if the number of lines of halftone dots is constant in one sheet of document, the number of inversions of densities in the mask is not constant. In addition, paper quality, density of paper, print quality, presence or absence of show-through, etc., affect the number of times of density reversal. For this reason, the feature amount of the frequency of the number of shade inversions is increased, and the density distribution is added to the feature amount.

これらの特徴量に基づき、機械学習によって、高線数・低線数の判定を行ってもよい。例えば、これらの特徴量を、予めサポートベクターマシンの学習結果に基づいた数式に入力する。サポートベクターマシンは、これらの特徴量の組に、高線数あるいは低線数を示す2値のいずれかの教師信号をセットにして学習させておく。例えば、高線数に判定してほしい原稿500枚の特徴量の組を用意し、それらの組の教師信号を1とする。低線数に判定してほしい原稿500枚の特徴量の組を用意し、それらの組の教師信号を0とする。これら1000枚の原稿の特徴量の組と教師信号をセットにして学習させておく。なお、高線数か低線数かは、必ずしも所定線数以上か否かで分けずに、空間フィルタ処理部18の網点領域のフィルタに高線数用のものを適用すると画質問題なるモアレが現れるか否かで分けても良い。 High screen frequency/low screen frequency may be determined by machine learning based on these feature values. For example, these feature quantities are input in advance into a mathematical formula based on the learning results of the support vector machine. The support vector machine learns a pair of these feature quantities with either a binary teacher signal indicating a high frequency or a low frequency as a set. For example, sets of feature amounts for 500 sheets of originals desired to be judged as high frequency screens are prepared, and the teacher signal of these sets is set to 1. FIG. Sets of feature amounts of 500 sheets of the manuscript to be judged as having a low screen frequency are prepared, and the teacher signals of these sets are set to 0. A set of these 1,000 manuscript features and a teacher signal are set for learning. It should be noted that whether the frequency is high or low is not necessarily determined by whether the frequency is greater than or equal to a predetermined frequency. Appears or not.

学習結果に基づいて、特徴量の組のベクターを入力として、次のような数式(識別関数)で高線数・低線数の判定を行う。

Figure 0007123752000001
なお、x以外は予め学習結果により求められているものである。xは1000組の特徴量から抽出されたN組のサポートベクター、aはN組のサポートベクターそれぞれに対する重み、tはN組のサポートベクターそれぞれの教師信号、bはバイアスと呼ばれ決定境界の位置を表すパラメータである。k(x,x)は、学習時にも用いる動径基底関数カーネルというもので、以下の式で定義される。
Figure 0007123752000002
γは、学習時にも用いるパラメータである。 Based on the learning result, the vector of the set of feature values is input, and the following formula (discrimination function) is used to determine whether the number of frequencies is high or low.
Figure 0007123752000001
Note that the parameters other than x are obtained in advance from the learning results. x n is the N set of support vectors extracted from 1000 sets of features, a n is the weight for each of the N sets of support vectors, t n is the teacher signal for each of the N sets of support vectors, and b is called the bias. A parameter that represents the position of the boundary. k(x, x n ) is a radial basis function kernel that is also used during learning, and is defined by the following equation.
Figure 0007123752000002
γ is a parameter also used during learning.

算出されたy(x)の出力結果が判定結果となる。y(x)≧0であれば高線数、y(x)<0であれば低線数ということになる。 The output result of the calculated y(x) becomes the determination result. If y(x)≧0, the number of lines is high, and if y(x)<0, the number of lines is low.

なお、サポートベクターマシン以外の機械学習の手法によって、高線数・低線数を判定してもよい。例えば、決定木や、ニューラルネットワーク(ディープラーニング)といった手法によって学習された数式に特徴量を入力することで、高線数・低線数を判定してもよい。 It should be noted that the high frequency/low frequency may be determined by a machine learning method other than the support vector machine. For example, the high screen frequency/low screen frequency may be determined by inputting a feature value into a formula learned by a decision tree or neural network (deep learning).

(空間フィルタ処理部18の詳細)
空間フィルタ処理部18の詳細について説明する。図6は、網点領域に適用するフィルタの例である。線数判定結果が高線数であるか低線数であるかによって網点領域に適用するフィルタを異ならせる。高線数に判定された場合の網点領域は、低線数に判定された場合の網点領域よりも強調度が高く平滑度が弱くなる処理を行う。言い換えると、低線数に判定された場合の網点領域は、高線数に判定された場合の網点領域よりも強調度が弱く平滑度が強くなる処理を行う。図6(a)は、高線数に判定された場合の網点領域のフィルタ係数、図6(b)は、低線数に判定された場合の網点領域のフィルタ係数である。
(Details of the spatial filtering unit 18)
Details of the spatial filtering unit 18 will be described. FIG. 6 is an example of a filter applied to a halftone dot area. A different filter is applied to the halftone dot area depending on whether the screen frequency determination result is a high screen frequency or a low screen frequency. A halftone dot area determined to have a high screen frequency is subjected to a process in which the degree of emphasis is higher and the smoothness is weaker than that of a halftone dot area determined to have a low screen frequency. In other words, a halftone dot area determined to have a low halftone frequency is subjected to processing that is less emphasized and smoother than a halftone dot area determined to have a high halftone frequency. FIG. 6(a) shows the filter coefficients for the halftone dot area when the screen frequency is determined to be high, and FIG. 6(b) shows the filter coefficients for the halftone dot area when the screen frequency is determined to be low.

これにより、高線数に判定された原稿の画像データは、網点領域に画質問題になるモアレは現れずに鮮鋭度の高い画像を出力することができる。網点領域に誤認識してしまう文字や網点上文字もくっきり読みやすく出力することができる。低線数に判定された原稿の画像データは、網点領域の鮮鋭度は高くないが画質問題になるモアレが現れることなく出力することができる。 As a result, the image data of the document determined to have a high screen frequency can be output as an image with high sharpness without appearing in the halftone dot area, which may cause a problem in image quality. Characters misrecognized in halftone dot areas and characters on halftone dots can be output clearly and easily. The image data of the document determined to have a low screen frequency can be output without the appearance of moire, which poses an image quality problem, although the sharpness of the halftone dot area is not high.

(入力手段を複数持つ場合の例)
カラー画像入力装置110が、原稿台と原稿お送り装置を備えていて、原稿台に原稿を置いてCCDを動かして原稿を読み取る手段と、原稿送り装置でCCDは固定のまま原稿を送りながら原稿を読み取る手段を備える場合がある。
(Example of having multiple input means)
The color image input device 110 is equipped with a document platen and a document feeder, and means for reading the document by placing the document on the platen and moving the CCD, and feeding the document while the CCD is fixed by the document feeder. It may have means for reading.

原稿送り装置で読み取った原稿の画像データは、原稿台で読み取った画像データに比べ、RGB間の画像にズレが生じやすい傾向にある。そのため、原稿台で読み取った場合用の識別関数と、原稿送り装置で読み取った場合用の識別関数とを別々に用意しておき、それぞれの入力手段に応じた識別関数に特徴量を入力して線数判定を行う。 Image data of a document read by a document feeder tends to cause deviation in an image between RGB as compared with image data read by a document platen. Therefore, a discrimination function for reading on the platen and a discrimination function for reading on the document feeder are separately prepared, and the feature amount is input to the discrimination function corresponding to each input means. Determine the number of lines.

また、原稿送り装置が両面同時に読み取る手段を持つ場合、表面と裏面で読取方式が異なる場合がある。表面は前記CCDで読み取り、裏面はCIS(Contact Image Sensor)で読み取る場合がある。 Further, when the document feeder has means for reading both sides simultaneously, the reading method may be different between the front side and the back side. The front side may be read by the CCD, and the back side may be read by a CIS (Contact Image Sensor).

表面のCCDによる読み取りと裏面のCISによる読み取りとでは、色の出力特性や鮮鋭度が一致しない。そのため、原稿送り装置表面で読み取った場合用の識別関数と原稿送り装置裏面で読み取った場合用の識別関数を別々に用意しておき、それぞれの場合に応じた識別関数に特徴量を入力して線数判定を行う。 The reading of the front surface by CCD and the reading of the back surface by CIS do not match in color output characteristics and sharpness. Therefore, separate identification functions for reading from the front side of the document feeder and those for reading from the rear side of the document feeder are prepared separately, and the feature values are input to the discrimination functions for each case. Determine the number of lines.

もちろん、それぞれの識別関数は、それぞれの入力手段で原稿を読み取って得られる特徴量の組を教師信号とセットに機械学習(例えば、サポートベクターマシン)を用いて学習させておいた結果によるものとする。 Of course, each discriminant function is the result of machine learning (e.g., support vector machine) using a teacher signal and a set of feature values obtained by reading a manuscript with each input means. do.

これにより、いずれのカラー画像入力装置110で読み取られても適切な線数判定結果を出力することができる。 This makes it possible to output an appropriate halftone determination result regardless of which color image input device 110 reads the image.

(入力解像度を複数持つ場合の例)
使用者の指示する処理により、入力解像度が異なる場合がある。例えば、画質を優先する主走査600dpi、副走査600dpiによる入力と、速度を優先する主走査600dpi、副走査400dpiによる入力を使用者が選択できる場合がある。
(Example of having multiple input resolutions)
The input resolution may differ depending on the processing instructed by the user. For example, the user may be able to select an input with 600 dpi main scanning and 600 dpi sub-scanning that gives priority to image quality and an input with 600 dpi main scanning and 400 dpi sub-scanning that gives priority to speed.

同じ原稿であっても、主走査600dpi、副走査600dpiによる入力と、主走査600dpi、副走査400dpiによる入力とでは、前記反転回数は異なり、すなわち、識別関数に入力される特徴量も異なってくる。そのため、主走査600dpi、副走査600dpiによる入力用と、主走査600dpi、副走査400dpiによる入力用、それぞれの識別関数で線数判定を行う。 Even for the same document, the number of times of inversion is different between the input by main scanning 600 dpi and sub-scanning 600 dpi and the input by main scanning 600 dpi and sub-scanning 400 dpi. . For this reason, the number of lines is determined by each identification function for input with 600 dpi main scanning and 600 dpi sub-scanning and for input with 600 dpi main scanning and 400 dpi sub-scanning.

もちろん、それぞれの識別関数は、それぞれの入力解像度で原稿を読み取って得られる特徴量の組を教師信号とセットに学習させておいた結果によるものとする。 Of course, each discriminant function is based on the result of learning a set of feature amounts obtained by reading a document at each input resolution and a set of teacher signals.

これにより、いずれの入力解像度で読み取られても適切な線数判定結果を出力することができる。 This makes it possible to output an appropriate line number determination result regardless of the input resolution.

(モノクロ出力用・カラー出力用を持つ場合の例)
コピー出力の場合、原稿の網点の周期、入力解像度による周期、階調再現処理部20のディザ処理による周期のずれによりモアレが現れることが有る。なお、原稿はRGB信号で読み取られるが、階調再現処理部20のディザ処理は、モノクロ出力の場合はK(ブラック)信号のみで処理され、カラー出力の場合CMYK(C:シアン、M:マゼンタ、Y:イエロー、K:ブラック)信号のそれぞれで処理される。そのため、モノクロ出力のディザ処理をカラー出力のK(ブラック)信号と同じディザ処理を用いたとすれば、比較的モアレは現れにくい傾向である。そのため、モノクロ出力用、カラー出力用、それぞれの識別関数で線数判定を行う。
(Example of having one for monochrome output and one for color output)
In the case of copy output, moiré may appear due to deviations in the period of the halftone dots of the original, the period due to the input resolution, and the period due to the dither processing of the gradation reproduction processing section 20 . Although the original is read with RGB signals, the dither processing of the gradation reproduction processing unit 20 is processed only with K (black) signals in the case of monochrome output, and is processed with CMYK (C: cyan, M: magenta) in the case of color output. , Y: yellow, K: black) signals. Therefore, if the dithering process for monochromatic output is the same as that for the K (black) signal for color output, moiré tends to appear relatively less. Therefore, the number of lines is determined using the discrimination functions for monochrome output and for color output.

もちろん、それぞれの識別関数は、モノクロ出力、カラー出力、それぞれで原稿を読み取って得られる特徴量の組を教師信号とセットに学習させておいた結果によるものとする。 Of course, each discriminant function is based on the results obtained by learning sets of feature amounts obtained by reading a document with monochrome output and color output, respectively, with a teacher signal.

これにより、モノクロ出力、カラー出力、それぞれで適切な線数判定結果を出力することができる。 As a result, it is possible to output appropriate line number determination results for each of monochrome output and color output.

(階調再現設定を複数持つ場合の例)
コピー出力の場合、原稿の網点の周期、入力解像度による周期、階調再現処理部20のディザ処理による周期のずれによりモアレが現れることが有る。そこで、階調再現処理部20のディザ処理は、周期の異なる2種類から選択可能とする。ディザ処理が異なれば、モアレの現れ方も異なる。ディザ処理による周期の粗い方が比較的モアレが現れやすく、ディザ処理による周期の細かい方が比較的モアレは現れにくい。そのため、粗い周期のディザ処理用、細かい周期のディザ処理用、それぞれの識別関数で線数判定を行う。
(Example of having multiple gradation reproduction settings)
In the case of copy output, moiré may appear due to deviations in the period of the halftone dots of the original, the period due to the input resolution, and the period due to the dither processing of the gradation reproduction processing section 20 . Therefore, the dither processing of the gradation reproduction processing unit 20 can be selected from two types with different cycles. Different dithering processes result in different moiré appearances. Moiré is relatively likely to appear when the dither processing has a rough cycle, and moire is relatively less likely to appear when the dither processing has a finer cycle. Therefore, the number of lines is determined using each of the discriminant functions for coarse-cycle dither processing and fine-cycle dither processing.

なお、階調再現処理部20の階調再現設定は、ディザ処理と誤差拡散処理の2種類から選択可能でも構わない。誤差拡散処理そのものには周期性が無く、原稿の網点の周期、入力解像度による周期だけでしかモアレは現れないため、ディザ処理に比べ、比較的モアレが現れにくい。そのため、ディザ処理用、誤差拡散処理用、それぞれの識別関数で線数判定を行う。 Note that the tone reproduction setting of the tone reproduction processing unit 20 may be selectable from two types of dither processing and error diffusion processing. The error diffusion process itself has no periodicity, and moire appears only in the period of the halftone dots of the original and the period due to the input resolution. Therefore, the number of lines is determined using each of the discriminant functions for dither processing and error diffusion processing.

もちろん、それぞれの識別関数は、粗い周期のディザ処理用及び細かい周期のディザ処理用それぞれで、又は、ディザ処理用及び誤差拡散処理用それぞれで原稿を読み取って得られる特徴量の組を教師信号とセットに学習させておいた結果によるものとする。なお、上述した以外の階調再現設定を有してもよいことは当然である。 Of course, each discriminant function is used for coarse-cycle dither processing and for fine-cycle dither processing, or for dither processing and for error diffusion processing, respectively. It is based on the result of making the set learn. It is of course possible to have tone reproduction settings other than those described above.

これにより、複数の階調再現設定を有する場合において、選択された階調再現設定に基づき、適切な線数判定結果を出力することができる。 As a result, when there are a plurality of tone reproduction settings, it is possible to output an appropriate line number determination result based on the selected tone reproduction setting.

(スキャン出力の場合)
図7は、図1の画像形成装置1がスキャン出力機能を有する場合のスキャン出力機能に関わる部分の概略構成を示すブロック図である。
(for scan output)
FIG. 7 is a block diagram showing a schematic configuration of a portion related to the scan output function when the image forming apparatus 1 of FIG. 1 has the scan output function.

図7に示すように、カラー画像入力装置110、カラー画像処理装置120、操作パネル140、および制御部100を備えている。また、カラー画像処理装置120は、A/D変換部11、シェーディング補正部12、原稿特徴判定部13、入力階調補正部14、領域分離処理部15、色補正部16、空間フィルタ処理部18、出力階調補正部19を備えている。 As shown in FIG. 7, a color image input device 110, a color image processing device 120, an operation panel 140, and a control section 100 are provided. Further, the color image processing device 120 includes an A/D conversion section 11, a shading correction section 12, a document feature determination section 13, an input gradation correction section 14, an area separation processing section 15, a color correction section 16, a spatial filter processing section 18, and a , and an output gradation correction unit 19 .

カラー画像入力装置110、操作パネル140、および制御部100は、図1の画像形成装置1におけるカラー画像入力装置110は、操作パネル140、および制御部100とそれぞれ同様のため、説明を省略する。 Color image input device 110, operation panel 140, and control unit 100 are the same as operation panel 140 and control unit 100 in image forming apparatus 1 of FIG.

カラー画像処理装置120におけるA/D変換部11、シェーディング補正部12、入力階調補正部14、および領域分離処理部15は、図1の画像形成装置1におけるカラー画像処理装置120のA/D変換部11、シェーディング補正部12、入力階調補正部14、および領域分離処理部15とそれぞれ同様のため、説明を省略する。 The A/D conversion unit 11, the shading correction unit 12, the input tone correction unit 14, and the area separation processing unit 15 in the color image processing device 120 are the A/D converters of the color image processing device 120 in the image forming device 1 in FIG. Since they are the same as the conversion unit 11, the shading correction unit 12, the input tone correction unit 14, and the segmentation processing unit 15, the description thereof will be omitted.

原稿特徴判定部13は、図1の画像形成装置1におけるカラー画像処理装置120の原稿特徴判定部13と同様の処理を行うが、特徴量の組をスキャン出力用の識別関数に入力して線数判定を行う。 The document feature determination unit 13 performs the same processing as the document feature determination unit 13 of the color image processing device 120 in the image forming apparatus 1 of FIG. Make a number judgment.

スキャン出力の場合は、階調再現処理部20のディザ処理は行われないので、コピー出力に比べてモアレは比較的現れにくい。そのため、高線数か低線数かの判断基準はコピー出力と異なって構わない。よって、コピー出力用とは別にスキャン出力用の識別関数により線数判定を行う。 In the case of scan output, the dither processing of the gradation reproduction processing unit 20 is not performed, so moire is relatively less likely to appear than in copy output. Therefore, the criterion for determining whether the number of lines is high or low may be different from that for copy output. Therefore, the number of lines is determined by a discrimination function for scan output separately from that for copy output.

もちろん、スキャン出力用の識別関数は、スキャン出力用の特徴量の組を教師信号とセットに学習させておいた結果によるものとする。 Of course, the discrimination function for scan output is based on the result of learning a set of feature values for scan output together with a teacher signal.

色補正部16は、図1の画像形成装置1におけるカラー画像処理装置120の色補正部16と異なり、領域分離処理部15から入力されるRGB信号を、領域分離処理部15から入力される領域識別信号に応じて、RGB信号に変換する。 Unlike the color correction unit 16 of the color image processing device 120 in the image forming apparatus 1 of FIG. It converts to an RGB signal according to the identification signal.

空間フィルタ処理部18は、図1の画像形成装置1におけるカラー画像処理装置120の空間フィルタ処理部18と異なり、色補正部16から入力されるRGB信号の画像データに対して、空間周波数特性を補正することにより、出力画像のぼやけ、および粒状性劣化を防ぐために、領域分離処理部15から入力される領域識別信号に応じて、領域の種別毎に予め設定されるデジタルフィルタによる空間フィルタ処理を行う。 The spatial filter processor 18 is different from the spatial filter processor 18 of the color image processor 120 in the image forming apparatus 1 of FIG. In order to prevent blurring and graininess deterioration of the output image by correction, spatial filtering is performed by a digital filter preset for each type of region according to the region identification signal input from the region separation processing unit 15. conduct.

出力階調補正部19は、図1の画像形成装置1におけるカラー画像処理装置120の出力階調補正部19と異なり、空間フィルタ処理部18から入力されるRGB信号の画像データに対して出力階調補正処理を行う。 The output gradation correction unit 19 differs from the output gradation correction unit 19 of the color image processing device 120 in the image forming apparatus 1 of FIG. Tone correction processing is performed.

(網点線数を判定する閾値を使用者が変更可能とする場合)
上記識別関数出力値y(x)をシグモイド関数へ入力する。

Figure 0007123752000003
aは正の数で、例えば、a=1で良い。 (When the user can change the threshold for determining halftone frequency)
Input the discriminant function output value y(x) to the sigmoid function.
Figure 0007123752000003
a is a positive number, for example, a=1.

これにより、シグモイド関数を通した識別関数は、0より大きく1より小さい値で出力される。閾値をthlとすると、f(y(x))≧thlなら高線数、f(y(x))<thlなら低線数に判定される。 As a result, the discriminant function through the sigmoid function is output as a value greater than 0 and less than 1. Assuming that the threshold value is thl, f(y(x))≧thl is determined to be a high frequency, and f(y(x))<thl is determined to be a low frequency.

様々な条件に応じて識別関数を異ならせる場合は、このシグモイド関数を通すことで、
出力値を0から1の範囲に収まるように統一することができる。
If you want to change the discriminant function according to various conditions, by passing this sigmoid function,
Output values can be standardized to fall within the range of 0 to 1.

操作パネル140は、ユーザからの指示入力により閾値を変更可能とする。 The operation panel 140 enables the threshold to be changed according to an instruction input from the user.

図8は、線数判定の閾値を設定する操作パネル140の一例(表示例)である。5段階のうちから1段階を設定可能で、初期設定は段階3で閾値thl=0.5が対応する。段階2、段階1へ設定を変えるとより低線数に判定されやすくなり、段階4、段階5へ設定を変えるとより高線数に判定されやすくなる。段階1で閾値thl=0.9、段階2で閾値thl=0.7、段階4で閾値thl=0.3、段階5で閾値thl=0.1が対応する。操作キーにより段階の数値を入力しても良いし、タッチパネルで各段階の位置をタッチしても良い。また、閾値はさらに細かく設定可能なものでも良い。0から1までの値で直接数値を入力できるようにしても構わない。 FIG. 8 is an example (display example) of the operation panel 140 for setting the threshold value for line number determination. One of five levels can be set, and the initial setting is level 3, which corresponds to a threshold thl of 0.5. Changing the settings to stages 2 and 1 makes it easier to determine a lower frequency, and changing the settings to stages 4 and 5 makes it easier to determine a higher frequency. Threshold thl=0.9 for stage 1, threshold thl=0.7 for stage 2, threshold thl=0.3 for stage 4, and threshold thl=0.1 for stage 5. You may input the numerical value of a stage with an operation key, and you may touch the position of each stage with a touch panel. Also, the threshold value may be one that can be set more finely. It may be possible to directly input numerical values from 0 to 1.

このように、本実施形態によれば、従来隣接画素間の濃淡変化の頻度を示す特徴量だけで線数判定をすると、紙質、紙の濃度、印刷品質、裏写りの有無、網点の混色の構成、などに結果が左右されてしまうところ、濃淡変化の大小の程度を示す特徴量を線数判定のパラメータに追加することで、紙質、紙の濃度、印刷品質、裏写りの有無、などに線数判定の結果が左右されにくくなる。 As described above, according to the present embodiment, if the number of lines is determined based only on the feature value indicating the frequency of density change between adjacent pixels, the paper quality, paper density, print quality, presence or absence of show-through, halftone dot color mixture, etc. By adding a feature value that indicates the degree of shading change to the line number determination parameter, it is possible to determine the paper quality, paper density, print quality, presence or absence of show-through, etc. The result of line number judgment is less likely to be influenced by

また、本実施形態では、隣接画素間の濃淡変化の頻度を示す特徴量又は濃淡変化の大小の程度を示す特徴量の少なくとも一方は複数の特徴量とする。これにより、隣接画素間の濃淡変化の頻度を示す特徴量や、濃淡変化の大小の程度を示す特徴量が一つだけでは十分に網点の特徴を捉えることが難しい場合において、複数種類にすることにより、精度良く判定させることができる。 Further, in the present embodiment, at least one of the feature quantity indicating the frequency of grayscale change between adjacent pixels and the feature quantity indicating the degree of grayscale change is a plurality of feature quantities. As a result, when it is difficult to fully capture the features of a halftone dot with only one feature value indicating the frequency of grayscale change between adjacent pixels or the degree of grayscale change, multiple types are used. By doing so, it is possible to make a judgment with high accuracy.

また、隣接画素間の濃淡変化の頻度を示す特徴量は網点領域画素に判定された画素に限定して算出することにより精度良く網点の線数を判定することができる。 Further, by calculating the feature amount indicating the frequency of density change between adjacent pixels only for pixels determined to be halftone dot area pixels, it is possible to accurately determine the number of halftone dots.

また、濃淡変化の大小の程度を示す特徴量には濃度分布を示す特徴量を含むことにより、より精度良く判定させることができる。 In addition, by including the feature amount indicating the density distribution in the feature amount indicating the degree of change in gradation, more accurate determination can be made.

また、画像データに対する画像処理として線数判定結果に応じた空間フィルタ処理を行ことにより、鮮鋭度を保ちながらモアレが知覚されにくい画像を出力することができる。 Further, by performing spatial filtering according to the line number determination result as image processing for the image data, it is possible to output an image in which moire is less likely to be perceived while maintaining sharpness.

また、線数の判定として、機械学習の結果を用いた数式に画像データ特徴量を入力して得られる出力値に基づき、原稿の網点の線数を判定することにより、人間が判定の閾値や境界を設定して判定するよりも、精度良く判定させることができる。 In addition, to determine the screen frequency, the screen frequency of the halftone dots of the document is determined based on the output value obtained by inputting the image data feature amount into a mathematical expression using the results of machine learning. It is possible to make the judgment with higher accuracy than by setting a boundary and making a judgment.

この機械学習はサポートベクターマシンであってもよい。サポートベクターマシンは機械学習の中でも比較的簡易な計算のため、コピー出力やスキャン出力を遅らせずに処理することができる。 This machine learning may be a support vector machine. Support vector machines are relatively simple calculations among machine learning, so they can be processed without delaying copy output or scan output.

また、画像データの入力手段を複数備える場合は、画像データが入力された入力手段に対応する機械学習の結果を用いた数式に、画像データ特徴量を入力して得られる出力値により原稿の網点の線数を判定する。これにより、画像データの入力手段に応じて、精度良く判定することができる。 In addition, when a plurality of image data input means are provided, the mesh of the original is obtained by inputting the image data feature amount into a mathematical expression using the result of machine learning corresponding to the input means to which the image data is input. Determine the number of lines of a point. As a result, it is possible to perform accurate determination according to the image data input means.

また、画像データの入力手段において画像入力解像度設定を複数有する場合は、画像入力解像度設定に対応する機械学習の結果を用いた数式に、画像データ特徴量を入力して得られる出力値に基づき、原稿の網点の線数を判定する。これにより、画像入力解像度に応じて、精度良く判定することができる。 Further, if the image data input means has multiple image input resolution settings, based on the output value obtained by inputting the image data feature amount into a formula using the result of machine learning corresponding to the image input resolution setting, Determine the number of halftone dots of the document. As a result, it is possible to make an accurate determination according to the image input resolution.

また、画像データの出力形式に対応する機械学習の結果を用いた数式に、画像データ特徴量を入力して得られる出力値に基づき、原稿の網点の線数を判定する。例えば、出力形式をコピー出力及びスキャン出力とすることにより、コピー出力、スキャン出力それぞれ鮮鋭度を保ちながらモアレが知覚されにくい画像を出力することができる。 Also, based on the output value obtained by inputting the image data feature quantity into a mathematical expression using the results of machine learning corresponding to the output format of the image data, the number of halftone dots of the document is determined. For example, by setting the output format to copy output and scan output, it is possible to output an image in which moire is less likely to be perceived while maintaining sharpness in both copy output and scan output.

また、階調再現設定を複数有する階調再現手段を備え、階調再現設定に対応する機械学習の結果を用いた数式に、画像データ特徴量を入力して得られる出力値に基づき、原稿の網点の線数を判定する。これにより、階調再現設定が変わっても、それぞれ鮮鋭度を保ちながらモアレが知覚されにくい画像を出力することができる。 In addition, a gradation reproducing means having a plurality of gradation reproduction settings is provided, and based on the output value obtained by inputting the image data feature quantity into a mathematical expression using the result of machine learning corresponding to the gradation reproduction setting, the image of the document is obtained. Determine the screen frequency of halftone dots. As a result, even if the gradation reproduction setting changes, it is possible to output an image in which the sharpness is maintained and moiré is hardly perceived.

また、モノクロ出力用、カラー出力用の何れかの出力に対応する機械学習の結果を用いた数式に、画像データ特徴量を入力して得られる出力値に基づき、原稿の網点の線数を判定する。これにより、モノクロ出力、カラー出力それぞれ鮮鋭度を保ちながらモアレが知覚されにくい画像を出力することができる。 In addition, based on the output value obtained by inputting the image data feature amount into a formula using the result of machine learning corresponding to either monochrome output or color output, the number of halftone dots of the original is calculated. judge. This makes it possible to output an image in which moire is difficult to perceive while maintaining sharpness in both monochrome output and color output.

また、機械学習の結果を用いた数式の出力値に対して網点線数を判定する閾値を使用者が変更可能とすることにより、使用者の好みに応じて、高線数に判定されやすくしたり、逆に低線数に判定されやすくしたりすることができる。 In addition, by allowing the user to change the threshold for determining the halftone ruling for the output value of a mathematical expression using the results of machine learning, it is easier to determine a higher ruling according to the user's preference. Or conversely, it is possible to make it easier to be determined to have a low screen frequency.

本発明の各態様に係る画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを原稿特徴判定部13として動作させることにより画像処理装置をコンピュータにて実現させる画像処理プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に含まれる。 The image processing apparatus according to each aspect of the present invention may be realized by a computer. In this case, an image processing program for realizing the image processing apparatus on the computer by operating the computer as the document feature determination unit 13, and a computer-readable recording medium recording it are also included in the scope of the present invention.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims. That is, the technical scope of the present invention also includes embodiments obtained by combining technical means appropriately modified within the scope of the claims.

(ソフトウェアでの処理)
図1及び図7のカラー画像処理装置120の制御ブロック(特に原稿特徴判定部13)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPUを用いてソフトウェアによって実現してもよい。
(processing by software)
1 and 7, the control block (particularly, the document feature determination unit 13) of the color image processing apparatus 120 may be implemented by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by a CPU. may be implemented by software using

後者の場合、カラー画像処理装置120は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROMまたは記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAMなどを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the color image processing apparatus 120 includes a CPU that executes instructions of a program, which is software that implements each function, and a ROM or storage device ( These are referred to as "recording media"), a RAM for developing the above programs, and the like. The object of the present invention is achieved by a computer (or CPU) reading and executing the program from the recording medium. As the recording medium, a "non-temporary tangible medium" such as a tape, disk, card, semiconductor memory, programmable logic circuit, or the like can be used. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. It should be noted that the present invention can also be implemented in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

これにより、原稿特徴判定部13の処理を実行するプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)を記録した記録媒体を持ち運び自在に提供することができる。また、記録媒体に記録させたプログラムを画像形成装置1、画像読取装置1b、あるいはコンピュータシステムに備えられるプログラム読取装置に読み取られせることにより、上記の原稿特徴判定処理を実行させることができる。 This makes it possible to provide a portable recording medium recording the program code (executable program, intermediate code program, source program) for executing the process of the document feature determining section 13 . Further, by reading the program recorded on the recording medium by the image forming apparatus 1, the image reading apparatus 1b, or a program reading apparatus provided in the computer system, the document feature determination processing can be executed.

コンピュータシステムは、フラットベッドスキャナ、フィルムスキャナ、デジタルカメラなどの画像入力装置、所定のプログラムコードがロードされることにより上記画像処理方法など様々な処理が行われるコンピュータ、コンピュータの処理結果を表示するCRTディスプレイ、液晶ディスプレイなどの画像表示装置およびコンピュータの処理結果を紙などに出力するプリンタにより構成されていてもよい。また、ネットワークを介してサーバーなどに接続するための通信手段としてのネットワークカードやモデムなどを備えていてもよい。 The computer system includes an image input device such as a flatbed scanner, a film scanner, and a digital camera, a computer that performs various processing such as the above image processing method by loading a predetermined program code, and a CRT that displays the processing results of the computer. It may be configured by an image display device such as a display or a liquid crystal display and a printer for outputting the processing result of the computer on paper or the like. In addition, a network card, modem, or the like may be provided as communication means for connecting to a server or the like via a network.

1 画像形成装置
100 制御部
110 カラー画像入力装置
120 カラー画像処理装置
11 A/D変換部
12 シェーディング補正部
13 原稿特徴判定部
1301 画素判定部
1302 領域画素カウント部
1303 データ選択部
1304 ヒストグラム生成部
1305 下地判定部
1306 原稿種別判定部
1307 下地除去部
14 入力階調補正部
15 領域分離処理部
16 色補正部
17 黒生成下色除去部
18 空間フィルタ処理部
19 出力階調補正部
20 階調再現処理部
130 カラー画像出力装置
140 操作パネル
1 image forming apparatus 100 control unit 110 color image input device 120 color image processing device 11 A/D conversion unit 12 shading correction unit 13 document feature determination unit 1301 pixel determination unit 1302 area pixel count unit 1303 data selection unit 1304 histogram generation unit 1305 Background determination unit 1306 Document type determination unit 1307 Background removal unit 14 Input gradation correction unit 15 Area separation processing unit 16 Color correction unit 17 Black generation under color removal unit 18 Spatial filter processing unit 19 Output gradation correction unit 20 Gradation reproduction processing Part 130 Color image output device 140 Operation panel

Claims (19)

原稿を走査して、画像データとして入力する画像データ入力部と、
前記画像データの網点領域に含まれる画素における隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの下地領域に含まれる画素における濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定部と、
前記判定部の判定結果に応じて、前記画像データに画像処理を行う画像処理部と、
を備えることを特徴とする画像処理装置。
an image data input unit for scanning an original and inputting it as image data;
A first feature amount indicating the frequency of grayscale change between adjacent pixels in pixels included in the halftone dot area of the image data, and a second feature amount indicating the degree of grayscale change in pixels included in the background area of the image data. a determination unit that determines the number of halftone dots of the document based on the image data feature amount including the feature amount of
an image processing unit that performs image processing on the image data according to the determination result of the determination unit;
An image processing device comprising:
前記画像データから、前記画像データ特徴量を算出する算出部を更に含むことを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, further comprising a calculator that calculates the image data feature quantity from the image data. 前記第1の特徴量又は前記第2の特徴量の少なくとも一方は、複数の特徴量を含むことを特徴とする請求項1又は2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein at least one of said first feature amount and said second feature amount includes a plurality of feature amounts. 前記第2の特徴量は、下地領域のうち、原稿の端部以外の領域に含まれる画素を対象として算出されることを特徴とする請求項1から3の何れか一項に記載の画像処理装置。4. The image processing according to any one of claims 1 to 3, wherein the second feature amount is calculated for pixels included in a background area other than an edge of the document. Device. 前記第2の特徴量は、濃度分布を示す特徴量を含むことを特徴とする請求項1から4の何れか1項に記載の画像処理装置。 5. The image processing apparatus according to claim 1, wherein the second feature amount includes a feature amount indicating density distribution. 前記画像処理部は、前記画像処理として空間フィルタ処理を行うことを特徴とする請求項1から5の何れか1項に記載の画像処理装置。 6. The image processing apparatus according to claim 1, wherein the image processing unit performs spatial filtering as the image processing. 前記判定部は、機械学習の結果を用いた数式に前記画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項1から6の何れか1項に記載の画像処理装置。 2. The judgment unit judges the number of halftone dots of the document based on an output value obtained by inputting the image data feature quantity into a formula using a result of machine learning. 7. The image processing device according to any one of 6. 前記機械学習はサポートベクターマシンであることを特徴とする請求項7に記載の画像処理装置。 8. The image processing apparatus according to claim 7, wherein said machine learning is a support vector machine. 前記画像データ入力部を複数備え、
前記判定部は、前記画像データが入力された前記画像データ入力部に対応する前記機械学習の結果を用いた数式に、前記画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項7に記載の画像処理装置。
comprising a plurality of the image data input units,
The determination unit determines the quality of the document based on an output value obtained by inputting the image data feature quantity into a formula using the result of the machine learning corresponding to the image data input unit to which the image data is input. 8. The image processing apparatus according to claim 7, wherein the screen frequency of halftone dots is determined.
前記画像データ入力部の画像入力解像度設定を複数有し、
前記判定部は、前記画像入力解像度設定に対応する前記機械学習の結果を用いた数式に、前記画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項7に記載の画像処理装置。
having a plurality of image input resolution settings for the image data input unit;
The determining unit determines the number of halftone dots of the document based on the output value obtained by inputting the image data feature quantity into a formula using the result of the machine learning corresponding to the image input resolution setting. 8. The image processing apparatus according to claim 7, wherein:
前記判定部は、前記画像データの出力形式に対応する前記機械学習の結果を用いた数式に、前記画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項7に記載の画像処理装置。 The determination unit determines the number of halftone dots of the document based on the output value obtained by inputting the image data feature quantity into a formula using the result of the machine learning corresponding to the output format of the image data. 8. The image processing apparatus according to claim 7, wherein the determination is made. 前記出力形式は、コピー出力及びスキャン出力であることを特徴とする請求項11に記載の画像処理装置。 12. The image processing apparatus according to claim 11, wherein the output format is copy output and scan output. 階調再現設定を複数有する階調再現部を備えており、
前記判定部は、前記階調再現設定に対応する前記機械学習の結果を用いた数式に、前記
画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項7に記載の画像処理装置。
A gradation reproduction unit having multiple gradation reproduction settings is provided,
The determination unit determines the number of halftone dots of the document based on the output value obtained by inputting the image data feature quantity into a formula using the result of the machine learning corresponding to the tone reproduction setting. 8. The image processing apparatus according to claim 7, wherein:
前記判定部は、モノクロ出力又はカラー出力の何れかの出力に対応する前記機械学習の結果を用いた数式に、前記画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項7に記載の画像処理装置。 The determination unit determines the halftone dots of the document based on the output value obtained by inputting the image data feature amount into a formula using the result of the machine learning corresponding to either monochrome output or color output. 8. The image processing apparatus according to claim 7, wherein the number of screen lines of is determined. 前記判定部において、前記機械学習の結果を用いた数式の出力値に対して網点線数を判定する閾値を変更可能とすることを特徴とする請求項7に記載の画像処理装置。 8. The image processing apparatus according to claim 7, wherein the determination unit is capable of changing a threshold value for determining halftone ruling with respect to an output value of a formula using the result of the machine learning. 請求項1から15のいずれか1項に記載の画像処理装置と、
前記画像処理装置によって処理された画像データに基づき、画像を形成する画像形成部を備えた画像形成装置。
an image processing device according to any one of claims 1 to 15;
An image forming apparatus comprising an image forming section that forms an image based on image data processed by the image processing apparatus.
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの網点領域に含まれる画素における隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの下地領域に含まれる画素における濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を含むことを特徴とする画像処理方法。
an image data input step of scanning a document and inputting it as image data;
A first feature amount indicating the frequency of grayscale change between adjacent pixels in pixels included in the halftone dot area of the image data, and a second feature amount indicating the degree of grayscale change in pixels included in the background area of the image data. a determination step of determining the screen frequency of the halftone dots of the document based on the image data feature amount including the feature amount of
an image processing step of performing image processing on the image data according to the determination result of the determination step;
An image processing method comprising:
画像処理装置のプロセッサに、
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの網点領域に含まれる画素における隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの下地領域に含まれる画素における濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を実行させる画像処理プログラム。
In the processor of the image processing device,
an image data input step of scanning a document and inputting it as image data;
A first feature amount indicating the frequency of grayscale change between adjacent pixels in pixels included in the halftone dot area of the image data, and a second feature amount indicating the degree of grayscale change in pixels included in the background area of the image data. a determination step of determining the screen frequency of the halftone dots of the document based on the image data feature amount including the feature amount of
an image processing step of performing image processing on the image data according to the determination result of the determination step;
An image processing program that executes
画像処理装置のプロセッサに、
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの網点領域に含まれる画素における隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの下地領域に含まれる画素における濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を実行させる画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
In the processor of the image processing device,
an image data input step of scanning a document and inputting it as image data;
A first feature amount indicating the frequency of grayscale change between adjacent pixels in pixels included in the halftone dot area of the image data, and a second feature amount indicating the degree of grayscale change in pixels included in the background area of the image data. a determination step of determining the screen frequency of the halftone dots of the document based on the image data feature amount including the feature amount of
an image processing step of performing image processing on the image data according to the determination result of the determination step;
A computer-readable recording medium in which an image processing program for executing is recorded.
JP2018205146A 2018-10-31 2018-10-31 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium Active JP7123752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018205146A JP7123752B2 (en) 2018-10-31 2018-10-31 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018205146A JP7123752B2 (en) 2018-10-31 2018-10-31 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Publications (2)

Publication Number Publication Date
JP2020069717A JP2020069717A (en) 2020-05-07
JP7123752B2 true JP7123752B2 (en) 2022-08-23

Family

ID=70549056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018205146A Active JP7123752B2 (en) 2018-10-31 2018-10-31 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Country Status (1)

Country Link
JP (1) JP7123752B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036364B (en) * 2023-10-09 2024-01-02 全芯智造技术有限公司 Image processing method and device, storage medium and computing equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006197037A (en) 2005-01-11 2006-07-27 Sharp Corp Image processor, image forming apparatus, image read processor, image processing method, image processing program, and computer-readable recording medium
JP2006203703A (en) 2005-01-21 2006-08-03 Sharp Corp Image processor, image forming apparatus, image reader, image processing method, image processing program, and computer readable recording medium
JP2006279329A (en) 2005-03-28 2006-10-12 Sharp Corp Image processing apparatus, image forming apparatus, and method of processing image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9628635B1 (en) * 2016-06-30 2017-04-18 Xerox Corporation Systems and methods for halftone frequency detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006197037A (en) 2005-01-11 2006-07-27 Sharp Corp Image processor, image forming apparatus, image read processor, image processing method, image processing program, and computer-readable recording medium
JP2006203703A (en) 2005-01-21 2006-08-03 Sharp Corp Image processor, image forming apparatus, image reader, image processing method, image processing program, and computer readable recording medium
JP2006279329A (en) 2005-03-28 2006-10-12 Sharp Corp Image processing apparatus, image forming apparatus, and method of processing image

Also Published As

Publication number Publication date
JP2020069717A (en) 2020-05-07

Similar Documents

Publication Publication Date Title
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4166744B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
US7742194B2 (en) Image processing device, image processing method, image forming apparatus, image processing program, and storage medium
JP4170353B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, program, and recording medium
JP4496239B2 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
JP2007067964A (en) Image processing device, image forming apparatus, image reading device, image processing method, image processing program, and computer readable recording medium with image processing program recorded thereon
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP7123752B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP2005286571A (en) Image processing apparatus, image forming apparatus provided with image processing apparatus, image processing method, image processing program, and recording medium with image processing program recorded thereon
JP4596964B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP6474315B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP4522978B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4545766B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing program, and recording medium
JP7266462B2 (en) IMAGE PROCESSING APPARATUS, IMAGE FORMING APPARATUS, IMAGE PROCESSING METHOD AND PROGRAM
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JP3933941B2 (en) Image processing method, image processing apparatus, and image forming apparatus
JP2003264701A (en) Image processing method, image processor and image forming device provided with the same
JP4498316B2 (en) Image processing apparatus, image processing method, image forming apparatus, and computer program
JP2004248103A (en) Image processing device, image reading device, image forming device, image processing method, image processing program, and computer readable record medium recording the same
JP4808282B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
JP4958626B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2011015172A (en) Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image
JP4086537B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2009055121A (en) Image processing device, image processing method, image forming apparatus and program, recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220810

R150 Certificate of patent or registration of utility model

Ref document number: 7123752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150