JP2020069717A - Image processing device, image formation apparatus, image processing method, image processing program and recording medium - Google Patents

Image processing device, image formation apparatus, image processing method, image processing program and recording medium Download PDF

Info

Publication number
JP2020069717A
JP2020069717A JP2018205146A JP2018205146A JP2020069717A JP 2020069717 A JP2020069717 A JP 2020069717A JP 2018205146 A JP2018205146 A JP 2018205146A JP 2018205146 A JP2018205146 A JP 2018205146A JP 2020069717 A JP2020069717 A JP 2020069717A
Authority
JP
Japan
Prior art keywords
image data
image processing
image
document
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018205146A
Other languages
Japanese (ja)
Other versions
JP7123752B2 (en
Inventor
村上 義則
Yoshinori Murakami
義則 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018205146A priority Critical patent/JP7123752B2/en
Publication of JP2020069717A publication Critical patent/JP2020069717A/en
Application granted granted Critical
Publication of JP7123752B2 publication Critical patent/JP7123752B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image processing device and the like which can increase the determination accuracy of the line number by adding not only a feature amount indicating the frequency of the concentration difference change between adjacent pixels but also a feature amount or concentration distribution indicating the degree of magnitude of the concentration difference change to the feature amount, perform image processing according to the determination result and output an image in which Moire is hardly perceived while keeping the sharpness.SOLUTION: An image processing device includes: an image data input unit which scans a document to input as image data; a determination unit which determines the line number of dots of the document on the basis of the image data feature amount including the first feature amount indicating the frequency of the concentration difference change between adjacent pixels of the image data and the second feature amount indicating the degree of magnitude of the concentration difference change of the image data; and an image processing unit which performs image processing on the image data in accordance with the determination result of the determination unit.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関し、画像データに適切な画像処理を行うために、画像データに基づき網点の線数を判定する方法に関する。   The present invention relates to an image processing device, an image processing method, and an image processing program, and to a method for determining the number of halftone dots based on image data in order to perform appropriate image processing on the image data.

電子複写機などの画像形成装置は、従来のアナログ式のほかにデジタル式のものが普及しており、またデジタル画像処理技術の進展によって、カラー画像を高画質に再現するフルカラーのデジタル複写機が製品化されている。   In addition to the conventional analog type, digital type is widely used as the image forming apparatus such as an electronic copying machine, and due to the progress of digital image processing technology, a full-color digital copying machine that reproduces a color image with high image quality is available. It has been commercialized.

デジタル複写機では、画像読み取り部のスキャナから読み込まれた原稿の画像データから、原稿の網点の線数(網点線数)を判定し、判定結果に応じた画像処理が行われている。   In a digital copying machine, the number of halftone dots (number of halftone dots) of a document is determined from the image data of the document read by the scanner of the image reading unit, and image processing is performed according to the determination result.

特許文献1では、RGBデータのうちG画像データを入力し、所定サイズ(例えば3×3画素)のマトリクスにて中心画素がピーク画素で有るかを検出し、所定領域(例えば20×9画素)内にピーク画素の数が多ければ高線数、少なければ低線数として判定している。   In Patent Document 1, G image data of RGB data is input, a matrix of a predetermined size (for example, 3 × 3 pixels) is used to detect whether the central pixel is a peak pixel, and a predetermined region (for example, 20 × 9 pixels) is detected. If the number of peak pixels is large, the number of lines is determined to be high, and if it is small, the number of lines is determined to be low.

特開2008−078830号公報(2008年4月3日公開)Japanese Unexamined Patent Publication No. 2008-078830 (Published April 3, 2008) 特開2002−232708号公報(2002年8月16日公開)Japanese Patent Laid-Open No. 2002-232708 (published on August 16, 2002) 特開2000−354167号公報(2000年12月19日公開)Japanese Patent Laid-Open No. 2000-354167 (Published December 19, 2000)

しかし、上記ピーク画素数のような隣接画素間の濃淡変化の頻度を示す特徴量だけで線数判定をすると、紙質、紙の濃度、印刷品質、裏写りの有無、などが、反転回数に影響する。例えば、同じ線数の原稿でも、紙質が悪かったり、その紙質により印刷品質が悪かったり、紙が真っ白ではなく少し濃かったり、裏写りが有ったり、などすると、原稿の網点一つ一つがぼやけて読み取られ、反転回数が少なくなりがちである。その場合、原稿が低線数の原稿であると判定されやすくなってしまう。   However, if the number of lines is determined only by the feature amount indicating the frequency of light and shade change between adjacent pixels such as the number of peak pixels, paper quality, paper density, print quality, presence of show-through, etc. affect the number of inversions. To do. For example, even if the originals have the same number of lines, if the paper quality is poor, the print quality is poor due to the quality of the paper, the paper is a little dark instead of pure white, and there is show-through, etc. It tends to be blurred and the number of inversions tends to decrease. In that case, it is easy to determine that the document is a document with a low number of lines.

また、同じ線数の原稿であっても、単色網点と混色網点とでは、上記の画素値の反転回数の傾向は異なる。例えば、読取装置から読み取られる原稿の画像データがRGBデータの場合、G画像データは、理論的にはその補色関係にあるマゼンタのみで構成されるが、読取装置における原稿の読取特性により、不要なシアン、イエロー、ブラックの網点の成分も混入される。したがって、原稿の網点の混色の構成次第で判定結果が変わってしまう。   Even if the originals have the same number of lines, the tendency of the number of times of inversion of the pixel values is different between the monochrome halftone dots and the mixed color halftone dots. For example, when the image data of the original read by the reading device is RGB data, the G image data is theoretically composed of only magenta having a complementary color relationship, but it is unnecessary due to the reading characteristics of the original in the reading device. Cyan, yellow, and black halftone dot components are also mixed. Therefore, the determination result changes depending on the configuration of the color mixture of halftone dots of the document.

本発明は斯かる事情に鑑みてなされたものであり、隣接画素間の濃淡変化の頻度を示す特徴量だけでなく濃淡変化の大小の程度を示す特徴量や濃度分布を特徴量に追加することにより、線数の判定精度を高め、その判定結果に応じた画像処理を行い、鮮鋭度を保ちながらモアレが知覚されにくい画像を出力することが可能な画像処理装置等を提供することを目的とする。   The present invention has been made in view of such circumstances, and adds not only a feature amount indicating the frequency of grayscale changes between adjacent pixels but also a feature amount and a density distribution indicating the magnitude of the grayscale change to the feature amounts. Thus, it is an object of the present invention to provide an image processing device or the like capable of increasing the accuracy of determining the number of lines, performing image processing according to the result of the determination, and outputting an image in which moire is hardly perceived while maintaining sharpness. To do.

上述した課題を解決するために、本発明の画像処理装置は、
原稿を走査して、画像データとして入力する画像データ入力部と、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定部と、
前記判定部の判定結果に応じて、前記画像データに画像処理を行う画像処理部 と、
を備えることを特徴とする。
In order to solve the above-mentioned problems, the image processing device of the present invention is
An image data input unit that scans a document and inputs it as image data,
The original document based on the image data characteristic amount including a first characteristic amount indicating a frequency of gradation change between adjacent pixels of the image data and a second characteristic amount indicating a magnitude of the gradation change of the image data. A determination unit for determining the number of lines of the halftone dots of
An image processing unit that performs image processing on the image data according to the determination result of the determination unit;
It is characterized by including.

本発明の画像処理方法は、
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を含むことを特徴とする。
The image processing method of the present invention is
An image data input step of scanning a document and inputting it as image data,
The original document based on the image data characteristic amount including a first characteristic amount indicating a frequency of gradation change between adjacent pixels of the image data and a second characteristic amount indicating a magnitude of the gradation change of the image data. A determination step of determining the number of lines of the halftone dot
An image processing step of performing image processing on the image data according to the determination result of the determination step;
It is characterized by including.

本発明の画像処理プログラムは、
画像処理装置のプロセッサに、
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を実行させることを特徴とする。
The image processing program of the present invention is
In the processor of the image processing device,
An image data input step of scanning a document and inputting it as image data,
The original document based on the image data characteristic amount including a first characteristic amount indicating a frequency of gradation change between adjacent pixels of the image data and a second characteristic amount indicating a magnitude of the gradation change of the image data. A determination step of determining the number of lines of the halftone dot of
An image processing step of performing image processing on the image data according to the determination result of the determination step;
Is executed.

本発明のコンピュータ読み取り可能な記録媒体は、
画像処理装置のプロセッサに、
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を実行させる画像処理プログラムが記録されることを特徴とする。
The computer-readable recording medium of the present invention,
In the processor of the image processing device,
An image data input step of scanning a document and inputting it as image data,
The original document based on the image data characteristic amount including a first characteristic amount indicating a frequency of gradation change between adjacent pixels of the image data and a second characteristic amount indicating a magnitude of the gradation change of the image data. A determination step of determining the number of lines of the halftone dot of
An image processing step of performing image processing on the image data according to the determination result of the determination step;
An image processing program for executing is recorded.

本発明の画像処理装置等によれば、濃淡変化の大小の程度を示す特徴量を線数判定のパラメータに追加することで、紙質、紙の濃度、印刷品質、裏写りの有無、などに線数判定の結果が左右されにくくなる。したがって、隣接画素間の濃淡変化の頻度を示す特徴量だけで線数判定をすることにより、紙質、紙の濃度、印刷品質、裏写りの有無、網点の混色の構成、などに線数判定の結果が左右されてしまうことを防ぐことが可能となる。   According to the image processing apparatus and the like of the present invention, by adding the feature amount indicating the magnitude of the change in shading to the parameter of the line number determination, it is possible to determine the paper quality, the density of the paper, the print quality, the presence or absence of show-through, and the like. The result of the number judgment is less likely to be affected. Therefore, by determining the number of lines based on only the feature amount that indicates the frequency of shade changes between adjacent pixels, the number of lines can be determined based on the paper quality, paper density, print quality, show-through, halftone dot color mixing configuration, etc. It is possible to prevent the result of (1) from being influenced.

本実施形態における画像形成装置の概略構成を示すブロック図である。It is a block diagram showing a schematic configuration of an image forming apparatus in the present embodiment. 本実施形態における原稿特徴判定部の構成を示すブロック図である。It is a block diagram showing a configuration of a document feature determination unit in the present embodiment. 本実施形態の原稿特徴判定部における処理の流れを示すフローチャートである。6 is a flowchart showing a flow of processing in a document characteristic determination unit of the present embodiment. 原稿の画像データのうちヒストグラム生成の対象から除外する除外領域の設定方法を示す説明図である。FIG. 6 is an explanatory diagram showing a method of setting an exclusion area to be excluded from the histogram generation target in the image data of the document. 領域画素判定処理における網点線数を分類する判定処理の動作例を示す図である。It is a figure which shows the operation example of the determination process which classifies the halftone frequency in the area pixel determination process. 網点領域に適用するフィルタの例である。It is an example of a filter applied to a halftone dot area. 本実施形態における画像形成装置のスキャン出力機能に関わる部分の概略構成を示すブロック図である。FIG. 3 is a block diagram showing a schematic configuration of a part related to a scan output function of the image forming apparatus in the present embodiment. 線数判定の閾値を設定する操作パネルの例を示す図である。It is a figure which shows the example of the operation panel which sets the threshold value of a line number determination.

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。   Hereinafter, the present invention will be specifically described based on the drawings showing the embodiments.

図1は、本実施形態にかかる画像形成装置1の概略構成を示すブロック図である。なお、本実施形態では、画像形成装置1が電子写真方式のデジタルカラー複写機である場合について説明するが、画像形成装置1の構成はこれに限るものではなく、原稿の画像データに対して画像処理を施す機能を有する装置であればよい。   FIG. 1 is a block diagram showing a schematic configuration of an image forming apparatus 1 according to this embodiment. In the present embodiment, the case where the image forming apparatus 1 is an electrophotographic digital color copying machine will be described. However, the configuration of the image forming apparatus 1 is not limited to this, and image data of a document is imaged. Any device having a function of performing processing may be used.

画像形成装置1は、図1に示すように、カラー画像入力装置110、カラー画像処理装置120、カラー画像出力装置130、操作パネル140、および制御部100を備えている。また、カラー画像処理装置120は、A/D(アナログ/デジタル)変換部11、シェーディング補正部12、原稿特徴判定部13、入力階調補正部14、領域分離処理部15、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、階調再現処理部20を備えている。   As shown in FIG. 1, the image forming apparatus 1 includes a color image input device 110, a color image processing device 120, a color image output device 130, an operation panel 140, and a control unit 100. Further, the color image processing apparatus 120 includes an A / D (analog / digital) conversion unit 11, a shading correction unit 12, a document feature determination unit 13, an input gradation correction unit 14, a region separation processing unit 15, a color correction unit 16, It includes a black generation undercolor removal unit 17, a spatial filter processing unit 18, an output gradation correction unit 19, and a gradation reproduction processing unit 20.

カラー画像入力装置110は、原稿を読み取って原稿の画像データを生成することにより、原稿の画像データを入力する。そして、生成した(入力した)画像データをカラー画像処理装置120に出力する。なお、カラー画像入力装置110の構成は、原稿の画像データを生成することができる構成であれば特に限定されるものではなく、従来から公知の種々の画像入力装置を用いることができる。例えば、CCD(Charge Coupled Device)を備えたスキャナ部(図示せず)を有し、原稿からの反射光像をCCDで読み取ってRGB(R:赤、G:緑、B:青)のアナログ信号から成る画像データを生成する構成のものを用いてもよい。   The color image input device 110 inputs the image data of the original by reading the original and generating image data of the original. Then, the generated (input) image data is output to the color image processing device 120. The configuration of the color image input device 110 is not particularly limited as long as it is a configuration that can generate image data of a document, and various conventionally known image input devices can be used. For example, a scanner unit (not shown) having a CCD (Charge Coupled Device) is provided, and a reflected light image from a document is read by the CCD and RGB (R: red, G: green, B: blue) analog signals are read. It is also possible to use a configuration that generates image data consisting of

カラー画像処理装置120は、カラー画像入力装置110から入力される画像データを、A/D変換部11、シェーディング補正部12、原稿特徴判定部13、入力階調補正部14、領域分離処理部15、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、および階調再現処理部20の順に送り、最終的にCMYK(C:シアン、M:マゼンタ、Y:イエロー、K:ブラック)のそれぞれに対応するデジタルカラー信号で表される画像データをカラー画像出力装置130へ出力する。   The color image processing device 120 converts the image data input from the color image input device 110 into an A / D conversion unit 11, a shading correction unit 12, a document feature determination unit 13, an input gradation correction unit 14, and a region separation processing unit 15. The color correction unit 16, the black generation undercolor removal unit 17, the spatial filter processing unit 18, the output gradation correction unit 19, and the gradation reproduction processing unit 20 are sequentially sent, and finally CMYK (C: cyan, M: magenta). , Y: yellow, K: black), and outputs the image data represented by digital color signals to the color image output device 130.

A/D変換部11は、RGBのそれぞれに対応するアナログ信号の画像データをデジタル信号の画像データに変換する。   The A / D converter 11 converts the image data of analog signals corresponding to each of RGB into image data of digital signals.

シェーディング補正部12は、A/D変換部11から送られてきたRGBに対応するデジタル信号の画像データに対して、カラー画像入力装置110の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施す。また、シェーディング補正部12は、カラーバランスの調整を行う。   The shading correction unit 12 performs various distortions on the image data of the digital signal corresponding to RGB sent from the A / D conversion unit 11 in the illumination system, the imaging system, and the imaging system of the color image input device 110. Is removed. Further, the shading correction unit 12 adjusts the color balance.

原稿特徴判定部13は、シェーディング補正部12にて各種の歪みが取り除かれ、カラーバランスの調整がなされたRGB信号(RGBの反射率信号)を濃度信号に変換する。また、原稿特徴判定部13は、(i)原稿が文字原稿、印刷写真原稿、あるいは文字と印刷写真が混在した文字印刷写真原稿、などのいずれであるかを判定する原稿種別判定処理、および(ii)下地除去処理を行うべき原稿である否かを判定する下地判定処理を行う。また、原稿種別判定処理は、原稿に印刷されている網点の線数を判定する線数判定処理を行う。そして、原稿特徴判定部13は、原稿種別判定処理の結果を示す原稿特徴判定信号を生成し、入力階調補正部14、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、および階調再現処理部20に出力する。入力階調補正部14、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、および階調再現処理部20は、原稿特徴判定信号に応じて、画像データに対する画像処理を行う。なお、原稿特徴判定部13の詳細については後述する。   The document characteristic determination unit 13 converts the RGB signal (the RGB reflectance signal) for which the various distortions have been removed by the shading correction unit 12 and the color balance has been adjusted, into a density signal. Further, the document feature determination unit 13 (i) a document type determination process for determining whether the document is a character document, a print photo document, a character print photo document in which characters and print photos are mixed, and ( ii) A background determination process is performed to determine whether or not the document is a background removal process. In the document type determination process, a line number determination process is performed to determine the number of halftone dots printed on the document. Then, the document characteristic determination unit 13 generates a document characteristic determination signal indicating the result of the document type determination process, and the input tone correction unit 14, the color correction unit 16, the black generation undercolor removal unit 17, and the spatial filter processing unit 18 are generated. , And the gradation reproduction processing unit 20. The input gradation correction unit 14, the color correction unit 16, the black generation undercolor removal unit 17, the spatial filter processing unit 18, and the gradation reproduction processing unit 20 perform image processing on the image data in accordance with the document characteristic determination signal. .. The details of the document characteristic determination unit 13 will be described later.

入力階調補正部14は、下地濃度の除去、およびコントラストなどの画質調整処理を行う。   The input tone correction unit 14 performs background density removal and image quality adjustment processing such as contrast.

すなわち、原稿の下地(文字などが印刷された用紙)の色はさまざまであり、下地の色によっては白地部分(下地部分)を白(あるいは無色)として扱わないと、記録材(トナーあるいはインク)が余分に使用されてしまう場合がある。例えば、わら半紙のように黄色っぽいものや、下地に色がついている原稿をモノクロモードで画像形成する場合、下地の色を白として扱わないと、画像出力時に白地部分(下地部分)にも記録材が使われてしまう。このため、余分な記録材が使用されることを抑制するために、入力階調補正部14は、下地濃度の除去処理(すなわち下地の濃度を白色の濃度にする処理)を行うとともに、コントラストの調整処理を行う。   In other words, the colors of the background (paper on which characters, etc. are printed) of the original are various, and depending on the background color, the white background (background) should be treated as white (or colorless), and the recording material (toner or ink). May be used extra. For example, when forming an image of a yellowish document such as straw paper or a document with a colored background in monochrome mode, if the background color is not treated as white, the recording material will be printed on the white background (background) when the image is output. Will be used. Therefore, in order to suppress the use of an extra recording material, the input tone correction unit 14 performs the background density removal process (that is, the process of changing the background density to a white density) and the contrast Perform adjustment processing.

また、入力階調補正部14は、RGBの濃度信号(以下、特に断らない限り、RGB信号は濃度信号(画素値を表す信号)を表すものとする。)から成る画像データを領域分離処理部15に出力する。   The input tone correction unit 14 also divides the image data including RGB density signals (hereinafter, RGB signals represent density signals (signals representing pixel values) unless otherwise specified) into area separation processing units. Output to 15.

領域分離処理部15は、入力階調補正部14から出力された画像データにおける各画素を、RGB濃度信号に基づいて、下地領域、写真領域(連続階調領域)、文字領域、および網点領域のいずれに属するのか判定する領域分離処理を行う。また、領域分離処理部15は、領域分離処理の結果に基づいて、各画素がどの領域に属しているかを示す領域識別信号を生成し、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、および階調再現処理部20へと出力するとともに、入力階調補正部14から入力されたRGB信号をそのまま後段の色補正部16に出力する。   The area separation processing unit 15 determines each pixel in the image data output from the input tone correction unit 14 based on the RGB density signal as a background region, a photograph region (continuous tone region), a character region, and a halftone dot region. Region separation processing is performed to determine which of the two belongs to. Further, the area separation processing unit 15 generates an area identification signal indicating which area each pixel belongs to, based on the result of the area separation processing, and the color correction unit 16, the black generation undercolor removal unit 17, and the space. The RGB signal input from the input tone correction unit 14 is output to the color correction unit 16 in the subsequent stage as it is while being output to the filter processing unit 18 and the tone reproduction processing unit 20.

色補正部16は、領域分離処理部15から入力されるRGB信号を、領域分離処理部15から入力される領域識別信号に応じて、CMY信号に変換する。また、色補正部16では、色再現の忠実化実現のために、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りを取り除く処理を行う。   The color correction unit 16 converts the RGB signal input from the area separation processing unit 15 into a CMY signal according to the area identification signal input from the area separation processing unit 15. In addition, the color correction unit 16 performs a process of removing color turbidity based on the spectral characteristics of the CMY color materials including unnecessary absorption components in order to realize faithful color reproduction.

黒生成下色除去部17は、色補正部16による色補正後のCMY信号から黒(K)信号を生成する黒生成処理と、元のCMY信号から黒生成処理で得たK信号を差し引いて新たなCMY信号を生成する下色除去処理とを行う。これによって、CMY信号はCMYKの4色の信号(以下、CMYK信号という)に変換される。   The black generation undercolor removal unit 17 subtracts the black generation process for generating a black (K) signal from the CMY signal after the color correction by the color correction unit 16 and the K signal obtained by the black generation process from the original CMY signal. Undercolor removal processing for generating new CMY signals is performed. As a result, the CMY signals are converted into CMYK four-color signals (hereinafter referred to as CMYK signals).

例えば、黒生成下色除去部17では、黒生成処理として、スケルトンブラックによる黒生成を行う。このスケルトンブラックによる黒生成処理では、スケルトンカーブの入出力特性をy=f(x)とし、入力されるCMY信号のC信号、M信号、Y信号のそれぞれに対応する濃度をそれぞれC、M、Yとし、出力されるCMYK信号のC信号、M信号、Y信号、K信号のそれぞれに対応する濃度をそれぞれC’、M’、Y’、K’とし、UCR(Under Color Removal)率をα(0<α<1)とすると、
K’=f{min(C,M,Y)}
C’=C−αK’
M’=M−αK’
Y’=Y−αK’
によってCMYの3色の濃度信号をCMYKの4色の濃度信号に変換する。
For example, the black generation undercolor removal unit 17 performs black generation by skeleton black as the black generation processing. In the black generation processing using this skeleton black, the input / output characteristics of the skeleton curve are set to y = f (x), and the densities corresponding to the C signal, M signal, and Y signal of the input CMY signal are respectively C, M, and Let Y be the C, M, Y and K densities of the C, M, Y and K signals of the CMYK signal that are output, and C ′, M ′, Y ′ and K ′ respectively, and the UCR (Under Color Removal) rate to be α. If (0 <α <1),
K '= f {min (C, M, Y)}
C '= C-αK'
M '= M-αK'
Y '= Y-αK'
The CMY density signals of three colors are converted into CMYK density signals of four colors.

空間フィルタ処理部18は、黒生成下色除去部17から入力されるCMYK信号の画像データに対して、空間周波数特性を補正することにより、画像データのぼやけ、および粒状性劣化を防ぐために、領域分離処理部15から入力される領域識別信号に応じて、領域の種別毎に予め設定されるデジタルフィルタによる空間フィルタ処理を行う。なお、空間フィルタ処理部18の詳細については後述する。   The spatial filter processing unit 18 corrects the spatial frequency characteristic of the image data of the CMYK signals input from the black generation and undercolor removal unit 17 to prevent blurring of the image data and deterioration of graininess. Spatial filter processing is performed by a digital filter that is preset for each type of area according to the area identification signal input from the separation processing unit 15. The details of the spatial filter processing unit 18 will be described later.

出力階調補正部19は、空間フィルタ処理部18から入力されるCMYK信号の画像データに対して、カラー画像出力装置130の出力特性に基づく出力階調補正処理を行う。   The output gradation correction unit 19 performs output gradation correction processing on the image data of the CMYK signals input from the spatial filter processing unit 18 based on the output characteristics of the color image output device 130.

階調再現処理部20は、出力階調補正部19から入力されるCMYK信号の画像データに対して、領域分離処理部15から入力される領域識別信号に応じて、領域の種別毎に予め定められた処理を施す。   The gradation reproduction processing unit 20 determines the image data of the CMYK signals input from the output gradation correction unit 19 in advance for each type of area according to the area identification signal input from the area separation processing unit 15. Perform the specified treatment.

例えば、領域分離処理部15によって文字領域に分離された領域に関しては、特に黒文字あるいは色文字の再現性を高めるために、空間フィルタ処理部18は鮮鋭強調処理により高周波数の強調量を大きくし、階調再現処理部20は高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理を行う。   For example, with respect to the area separated into the character area by the area separation processing unit 15, the spatial filter processing unit 18 increases the high frequency emphasis amount by the sharpening emphasis process in order to particularly improve the reproducibility of the black character or the color character. The gradation reproduction processing unit 20 performs binarization or multi-value conversion processing on a high resolution screen suitable for reproduction of high frequency.

また、領域分離処理部15によって網点領域に分離された領域に関しては、空間フィルタ処理部18は入力網点成分を除去するためのローパス・フィルタ処理を施し、階調再現処理部20はそれぞれの画素の階調を再現できるように処理する階調再現処理(中間調生成)を施す。   Further, with respect to the areas separated into the halftone areas by the area separation processing section 15, the spatial filter processing section 18 performs a low-pass filter processing for removing the input halftone dot components, and the gradation reproduction processing section 20 respectively. A gradation reproduction process (halftone generation) is performed so that the gradation of a pixel can be reproduced.

また、領域分離処理部15によって写真領域(連続階調領域)に分離された領域に関しては、階調再現処理部20は階調再現性を重視したスクリーンでの二値化または多値化処理を行う。   Further, with respect to the area separated into the photographic area (continuous gradation area) by the area separation processing unit 15, the gradation reproduction processing unit 20 performs binarization or multi-value conversion processing on the screen with an emphasis on gradation reproducibility. To do.

階調再現処理部20から出力される画像データ、すなわち前述した各処理が施された画像データは、記憶部(図示せず)に一旦記憶され、所定のタイミングで読み出されてカラー画像出力装置130に出力される。   The image data output from the tone reproduction processing unit 20, that is, the image data that has been subjected to each of the above-described processes is temporarily stored in a storage unit (not shown) and is read at a predetermined timing to be read by a color image output device. It is output to 130.

カラー画像出力装置130は、画像データに応じた画像を記録媒体(例えば紙などのシート体)に出力する。カラー画像出力装置130は、2色以上(本実施形態ではC、M、Y、Kの4色)の記録材を用いて記録媒体に画像を形成する。なお、本実施形態では、カラー画像出力装置130として、電子写真方式のプリンタ装置を用いている。ただし、カラー画像出力装置130の構成はこれに限るものではなく、例えばインクジェット方式などの他の方式のプリンタ装置を用いてもよい。   The color image output device 130 outputs an image corresponding to the image data to a recording medium (for example, a sheet body such as paper). The color image output device 130 forms an image on a recording medium using a recording material having two or more colors (four colors of C, M, Y, and K in this embodiment). In this embodiment, an electrophotographic printer device is used as the color image output device 130. However, the configuration of the color image output device 130 is not limited to this, and a printer device of another system such as an inkjet system may be used.

操作パネル140は、ユーザからの指示入力を受け付けて制御部100に伝達する。操作パネル140は、例えば、液晶ディスプレイなどの表示部とユーザの操作入力を受け付ける操作キーとを含んで構成される。あるいは、操作パネル140はタッチパネルであってもよい。   The operation panel 140 receives an instruction input from the user and transmits it to the control unit 100. The operation panel 140 is configured to include, for example, a display unit such as a liquid crystal display and operation keys that receive a user's operation input. Alternatively, the operation panel 140 may be a touch panel.

制御部100は、CPU(Central Processing Unit)や専用プロセッサなどの演算処理部、および、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)などの記憶部(いずれも図示せず)などにより構成されるコンピュータ装置である。制御部100は、上記記憶部に記憶されている各種情報および各種制御を実施するためのプログラム、操作パネル140を介して入力されるユーザからの指示入力、および画像形成装置1に備えられる各種センサの検知結果などに応じて、カラー画像入力装置110、カラー画像処理装置120、カラー画像出力装置130、および操作パネル140の動作を制御する。   The control unit 100 includes an arithmetic processing unit such as a CPU (Central Processing Unit) and a dedicated processor, and a storage unit such as a RAM (Random Access Memory), a ROM (Read Only Memory), and an HDD (Hard Disk Drive). It is a computer device configured by (not shown) or the like. The control unit 100 includes various programs stored in the storage unit and programs for executing various controls, user instructions input via the operation panel 140, and various sensors provided in the image forming apparatus 1. The operations of the color image input device 110, the color image processing device 120, the color image output device 130, and the operation panel 140 are controlled according to the detection result of the above.

(原稿特徴判定部の詳細)
原稿特徴判定部13の詳細について説明する。図2は原稿特徴判定部13の構成を示すブロック図であり、図3は原稿特徴判定部13における処理の流れを示すフローチャートである。
(Details of manuscript feature determination section)
Details of the document characteristic determination unit 13 will be described. FIG. 2 is a block diagram showing the configuration of the document characteristic determination unit 13, and FIG. 3 is a flowchart showing the flow of processing in the document characteristic determination unit 13.

図2に示すように、原稿特徴判定部13は、画素判定部1301、領域画素カウント部1302、データ選択部1303、ヒストグラム生成部1304、下地判定部1305、原稿種別判定部1306、および下地除去部1307を備えている。   As shown in FIG. 2, the document feature determination unit 13 includes a pixel determination unit 1301, a region pixel count unit 1302, a data selection unit 1303, a histogram generation unit 1304, a background determination unit 1305, a document type determination unit 1306, and a background removal unit. 1307 is provided.

原稿特徴判定部13では、図3に示すように、まず、画素判定部1301が、シェーディング補正部12から入力されるRGB信号(画像データ)の各画素を下地画素、写真画素(連続階調画素)、文字画素、網点画素の何れかに分類する領域画素判定処理を行う(S1)。なお、以降の説明では、下地画素、写真画素(連続階調画素)、文字画素、および網点画素に分類された画素を領域画素と称する。   In the document characteristic determination unit 13, as shown in FIG. 3, first, the pixel determination unit 1301 determines each pixel of the RGB signal (image data) input from the shading correction unit 12 as a background pixel, a photographic pixel (continuous tone pixel). ), A region pixel determination process for classifying the pixel as either a character pixel or a halftone dot pixel is performed (S1). In the following description, the pixels classified into the background pixels, the photographic pixels (continuous tone pixels), the character pixels, and the halftone pixels are referred to as area pixels.

領域画素に分類するためのアルゴリズムは、特に限定されるものではなく、既存の領域分離方法を用いることができる。例えば、特許文献2に記載の方法を用いてもよい。この方法では、以下の(1)〜(8)の処理により領域画素判定処理を行う。   The algorithm for classifying into region pixels is not particularly limited, and an existing region separation method can be used. For example, the method described in Patent Document 2 may be used. In this method, the area pixel determination process is performed by the following processes (1) to (8).

(1)注目画素を含むn×m(たとえば、7画素×7画素)の画素ブロックにおける最小濃度値および、最大濃度値を算出する。
(2)算出された最小濃度値及び最大濃度値を用いて最大濃度差を算出する。
(3)注目画素に隣接する画素の濃度差の絶対値の総和である総和濃度繁雑度(たとえば、主走査方向と副走査方向について算出した値の和)を算出する。
(4)算出された最大濃度差と最大濃度差閾値との比較及び算出された総和濃度繁雑度と総和濃度繁雑度閾値との比較を行う。
(5)最大濃度差<最大濃度差閾値および総和濃度繁雑度<総和濃度繁雑度閾値のとき、注目画素は下地・写真領域(連続階調領域)に属すると判定する。
(6)上記条件を満たさないときは、注目画素は文字・網点領域に属すると判定する。
(7)下地・写真領域(連続階調領域)に属すると判定された画素について、注目画素が、最大濃度差<下地・印画紙判定閾値を充たすとき、下地画素であると判定し、この条件を充たさないときは、写真画素(連続階調画素)であると判定する。
(8)文字・網点領域に属すると判定された画素について、注目画素が、総和濃度繁雑度<(最大濃度差に文字・網点判定閾値を掛けた値)の条件を満たすとき、文字画素であると判定し、この条件を満たさないときは、網点画素であると判定する。
また、領域画素判定処理では、原稿の網点線数判定のための画素の分類処理も行う。詳細は後述する。
(1) The minimum density value and the maximum density value in an n × m (for example, 7 pixels × 7 pixels) pixel block including the target pixel are calculated.
(2) The maximum density difference is calculated using the calculated minimum density value and maximum density value.
(3) The total density busyness (for example, the sum of the values calculated in the main scanning direction and the sub scanning direction) that is the sum of the absolute values of the density differences of the pixels adjacent to the pixel of interest is calculated.
(4) The calculated maximum density difference is compared with the maximum density difference threshold, and the calculated total density busyness is compared with the total density busyness threshold.
(5) When maximum density difference <maximum density difference threshold and total density busyness <total density busyness threshold, it is determined that the pixel of interest belongs to the base / photo area (continuous tone area).
(6) If the above conditions are not satisfied, it is determined that the pixel of interest belongs to the character / dot area.
(7) Regarding the pixel determined to belong to the background / photo area (continuous tone area), when the target pixel satisfies the maximum density difference <the background / photographic paper determination threshold value, it is determined to be the background pixel, and this condition is satisfied. When is not satisfied, it is determined that the pixel is a photographic pixel (continuous tone pixel).
(8) When the pixel of interest determined to belong to the character / halftone dot region satisfies the condition of the total density busyness <(value obtained by multiplying the maximum density difference by the character / halftone dot determination threshold), the character pixel If the above condition is not satisfied, it is determined that the pixel is a halftone dot pixel.
Further, in the area pixel determination processing, pixel classification processing for determining the halftone dot frequency of the document is also performed. Details will be described later.

なお、領域画素判定処理は、例えば、プレスキャンされた画像データを用いて行ってもよく、ハードディスク等の記憶手段に一旦格納された画像データを用いて行ってもよい。   The area pixel determination process may be performed using, for example, prescanned image data, or may be performed using image data once stored in a storage unit such as a hard disk.

次に、領域画素カウント部1302が、画素判定部1301での領域画素判定処理の結果に基づいて、領域画素の種別毎に(下地画素、写真画素(連続階調画素)、文字画素、および網点画素の各領域画素毎に)、分類された画素(領域画素)の数をカウントする領域画素カウント処理を行う。網点線数の分類結果の数のカウントも行う(S2)。   Next, the area pixel count unit 1302, based on the result of the area pixel determination processing by the pixel determination unit 1301, for each type of area pixel (base pixel, photographic pixel (continuous tone pixel), character pixel, and halftone pixel). Region pixel count processing for counting the number of classified pixels (region pixels) is performed for each region pixel of point pixels. The number of halftone dot classification results is also counted (S2).

次に、データ選択部1303が、シェーディング補正部12から入力されたRGB信号に基づく画像領域を、後述するヒストグラム生成処理の対象とする対象領域とヒストグラム生成処理の対象から除外する除外領域とに分離する領域選択処理を行う(S3)。すなわち、本実施形態では、ヒストグラム生成を入力画像の全画素を対象として行うのではなく、一部の画素を除外して行う。   Next, the data selection unit 1303 separates the image region based on the RGB signals input from the shading correction unit 12 into a target region to be a target of a histogram generation process described later and an exclusion region to be excluded from a target of the histogram generation process. Region selection processing is performed (S3). That is, in this embodiment, the histogram generation is performed not for all the pixels of the input image, but for a part of the pixels.

図4は、原稿の画像データのうちヒストグラム生成の対象から除外する除外領域の設定方法を示す説明図である。   FIG. 4 is an explanatory diagram showing a method of setting an exclusion area to be excluded from the histogram generation target in the image data of the document.

カラー画像入力装置110によって読み取られた原稿の画像データは、シェーディング補正部12においてカラー画像入力装置110の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施すが、必ずしも画像データの全領域に対して適切な補正が行われるわけではない。例えば、カラー画像入力装置110での原稿読取時に、原稿における原稿台の端部に配置された領域(原稿の端部領域)は比較的暗めの信号となってしまう場合がある。   The image data of the original read by the color image input device 110 is processed by the shading correction unit 12 to remove various distortions generated in the illumination system, the imaging system, and the imaging system of the color image input device 110. The appropriate correction is not performed for all the areas of. For example, when a document is read by the color image input device 110, the region of the document located at the end of the document table (document end region) may be a relatively dark signal.

そこで、本実施形態では、図4に示したように、データ選択部1303が、原稿の画像データのうち、画像読取時にカラー画像入力装置110における原稿台のガラス面の端部に位置していた所定範囲の領域の画像データをヒストグラム生成の対象領域から除外し、その他の領域をヒストグラム生成の対象領域とする。   In view of this, in the present embodiment, as shown in FIG. 4, the data selection unit 1303 is located at the edge of the glass surface of the document table of the color image input device 110 during image reading of the document image data. The image data of the area of the predetermined range is excluded from the target area of the histogram generation, and the other areas are set as the target area of the histogram generation.

上記所定範囲は特に限定されるものではなく、適宜設定すればよいが、例えば、原稿のボイド領域のうち、原稿読取時に原稿台のガラス面の端部に隣接していた箇所をヒストグラム生成の対象から除外するようにしてもよい。ボイド領域とは、プリンタで印刷あるいはコピーされた原稿における端部(周縁部)から数mm程度(例えば4mm程度)の幅で存在する、何も印刷されない領域である。   The predetermined range is not particularly limited and may be set as appropriate. For example, in the void area of the document, a portion adjacent to the edge of the glass surface of the document table at the time of reading the document is a target of histogram generation. May be excluded from. The void area is an area in which nothing is printed, which exists in a width of about several mm (for example, about 4 mm) from the edge (peripheral edge) of the document printed or copied by the printer.

次に、ヒストグラム生成部1304が、シェーディング補正部12から入力されたRGB信号のうち、領域画素判定処理において下地画素と判定され、かつ領域選択処理においてヒストグラム生成の対象領域と判定された領域に属する画素を注目画素として抽出し、ヒストグラム生成処理(最小値ヒストグラム生成処理)を行う(S4)。   Next, the histogram generation unit 1304 belongs to an area of the RGB signals input from the shading correction unit 12 that is determined as a background pixel in the area pixel determination processing and is determined as a histogram generation target area in the area selection processing. A pixel is extracted as a pixel of interest, and histogram generation processing (minimum value histogram generation processing) is performed (S4).

具体的には、ヒストグラム生成部1304は、注目画素についてプレーン毎(色成分毎)の比較を行い、当該注目画素の各色成分間での最小値を算出し、予め設定した複数の濃度区分のうち、算出した上記最小値が属する濃度区分の度数に1を加算する。なお、本実施形態では、ヒストグラムの濃度区分の数を、画素値(濃度値)の小さい方から順に第1濃度区分、第2濃度区分とし、画素値の最も大きい区分を第32濃度区分として32区分に設定している。本実施形態では、RGB信号を用いているので、画素値(濃度値)が「0」に近い方が(濃度値が小さい方が)実際の濃度は濃くなり、画素値(濃度値)が「255」に近い方が(濃度値が大きい方が)濃度は薄く(淡く)なる。   Specifically, the histogram generation unit 1304 compares the target pixel for each plane (for each color component), calculates the minimum value between the color components of the target pixel, and selects among the plurality of preset density categories. , 1 is added to the frequency of the density category to which the calculated minimum value belongs. In the present embodiment, the number of density sections of the histogram is set to the first density section and the second density section in order of increasing pixel value (density value), and the section having the largest pixel value is set as the 32nd density section. It is set as a division. In the present embodiment, since RGB signals are used, the closer the pixel value (density value) is to “0” (the smaller the density value is), the higher the actual density is, and the pixel value (density value) is “0”. The closer to "255" (the higher the density value), the lighter the density (lighter).

なお、色成分間の最小値を用いてヒストグラムを作成するのは、下地の最も濃い色成分(濃度値が最小値である色成分)の濃度値を下地濃度とし、その濃度値に対応する補正量テーブルを全色成分に対して適用して下地除去処理を行うことにより、最も濃い色成分以外の色成分についても下地除去を行うことができるからである。   Note that the histogram is created using the minimum value between the color components when the density value of the darkest color component of the background (color component having the minimum density value) is used as the background density and the correction corresponding to the density value is performed. This is because by applying the quantity table to all the color components and performing the background removal processing, the background removal can be performed for the color components other than the darkest color component.

その後、原稿特徴判定部13は、S1〜S4の処理を全ての画素について行ったか否かを判断し(S5)、未処理の画素が残っている場合にはS1の処理に戻って未処理の画素に対してS1〜S4の処理を行う。   After that, the document characteristic determining unit 13 determines whether or not the processes of S1 to S4 have been performed for all the pixels (S5), and when there are unprocessed pixels, the process returns to the process of S1 and unprocessed. The processing of S1 to S4 is performed on the pixel.

一方、S5において全ての画素に対してS1〜S4の処理が完了したと判断した場合、下地判定部1305が下地除去を行うべきか否かを判定する下地判定処理を行う(S6)。   On the other hand, if it is determined in S5 that the processes of S1 to S4 have been completed for all pixels, the background determination unit 1305 performs background determination processing for determining whether or not to perform background removal (S6).

S6で下地判定処理を行った後、原稿種別判定部1306は、原稿種別判定処理を行う(S7)。   After performing the background determination process in S6, the document type determination unit 1306 performs the document type determination process (S7).

具体的には、原稿種別判定部1306は、領域画素カウント部1302でカウントされた領域画素数と、予め定められている下地領域、写真領域(連続階調領域)、網点領域および文字領域にそれぞれ対応する閾値とを比較することにより、原稿全体の種別を判定する。   Specifically, the document type determining unit 1306 determines the number of area pixels counted by the area pixel counting unit 1302, and a predetermined background area, photo area (continuous tone area), halftone dot area, and character area. The type of the entire document is determined by comparing the threshold values corresponding to each other.

例えば、文字、網点、写真(連続階調)の順に検出精度が高い場合、文字領域の画素の比率が全画素数の30%以上の場合には文字原稿であると判定し、網点領域の画素の比率が全画素数の20%以上の場合には網点原稿(印刷写真原稿)であると判定し、写真領域(連続階調領域)の画素の比率が全画素数の10%以上の場合には印画紙写真原稿であると判定する。また、文字領域の比率と網点領域の比率とが、それぞれ閾値以上であるときは、文字/網点原稿(文字印刷写真原稿)であると判定する。文字領域の比率と写真領域(連続階調領域)の比率とが、それぞれ閾値以上であるときは、文字/写真原稿(文字印画紙写真原稿)であると判定する。   For example, if the detection accuracy is high in the order of characters, halftone dots, and photographs (continuous tone), and if the ratio of pixels in the character region is 30% or more of the total number of pixels, it is determined to be a character original, and the halftone dot region is determined. When the ratio of pixels is 20% or more of the total number of pixels, it is determined to be a halftone dot original (printed photo original), and the ratio of pixels of the photo area (continuous tone area) is 10% or more of the total number of pixels. In the case of, it is determined that it is a photographic paper photograph original. Further, when the ratio of the character area and the ratio of the halftone area are equal to or more than the respective thresholds, it is determined that the character / halftone original (character printed photo original). When the ratio of the character area and the ratio of the photograph area (continuous tone area) are equal to or more than the threshold values, it is determined that the character / photo document (character photographic paper photo document).

また、原稿に印刷されている網点の線数を判定する。その詳細については後述する。   Further, the number of halftone dots printed on the original is determined. The details will be described later.

なお、原稿種別判定部1306は、原稿種別の判定結果を示す原稿特徴判定信号を、下地除去部1307、入力階調補正部14、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、および階調再現処理部20に出力する。   The original document type determination unit 1306 outputs an original document characteristic determination signal indicating the determination result of the original document type to a background removal unit 1307, an input tone correction unit 14, a color correction unit 16, a black generation undercolor removal unit 17, a spatial filter processing. It is output to the unit 18 and the gradation reproduction processing unit 20.

次に、下地除去部1307は、原稿種別判定部1306による原稿種別の判定結果に基づいて、下地除去を行うべき原稿であるか否かを判定する(S8)。すなわち、下地除去部1307は、原稿種別判定部1306によって判定された原稿種別が、下地除去を行うべき原稿種別として予め設定された種別であるか否かを判断する。   Next, the background removal unit 1307 determines whether or not the document is the one for which the background removal is to be performed, based on the determination result of the document type by the document type determination unit 1306 (S8). That is, the background removal unit 1307 determines whether the document type determined by the document type determination unit 1306 is a preset type as the document type for which the background removal should be performed.

例えば、下地除去を行う原稿として、文字原稿、写真領域(連続階調領域)を含まない原稿、文字/網点原稿(文字印刷写真原稿)で網点領域の比率が小さい原稿(例えば網点領域の比率が原稿全体に対して40%以下の原稿)などを設定してもよい。   For example, as a document for which background removal is performed, a character document, a document that does not include a photo region (continuous tone region), or a character / dot document (character printed photo document) with a small halftone dot area ratio (for example, a halftone area) May be set to 40% or less of the entire document).

S8において下地除去すべき原稿ではないと判断した場合、原稿特徴判定部13は、下地除去を行わずに処理を終了する。   If it is determined in S8 that the original is not to be subjected to background removal, the original document feature determination unit 13 ends the process without performing background removal.

一方、S8において下地除去すべき原稿であると判断した場合、下地除去部1307は、下地除去処理を行い(S9)、処理を終了する。   On the other hand, if it is determined in S8 that the original is to be subjected to background removal, the background removal unit 1307 performs background removal processing (S9) and ends the processing.

下地除去処理の方法は特に限定されるものではなく、既存の下地除去方法を用いることができる。   The method of the background removal process is not particularly limited, and an existing background removal method can be used.

例えば、特許文献3に記載されている方法を用いて下地除去を行ってもよい。この方法では、下地であると判定された場合、下地濃度値に対応する補正量テーブルを選択し、下地除去処理を行う。下地画素のプレーン毎(色成分毎)の最小値を用いてヒストグラムを作成した場合、全色成分について上記最小値に対応する補正量テーブルを選択して下地除去処理を行えばよい。   For example, the base removal may be performed using the method described in Patent Document 3. In this method, when it is determined that the background is the background, the correction amount table corresponding to the background density value is selected and the background removal processing is performed. When the histogram is created using the minimum value for each plane (for each color component) of the background pixel, the correction amount table corresponding to the minimum value for all color components may be selected to perform the background removal process.

(領域画素判定処理における原稿の網点線数判定のための画素の分類処理)
画素判定部1301によって実行される領域画素判定処理(S1)における、原稿の網点線数判定のための画素の分類処理について説明する。RGB画像の各色成分に対して、注目画素(図5においてハッチングを施した中央の画素)を含むn×m(たとえば、7画素×7画素)の画素ブロック内の図5に示される二方向に対して隣接画素の濃度差が隣接画素濃度差閾値を越える場合に立上り画素または立下り画素と判定して、判定された画素数を反転回数としてカウントする。ただし、連続する立上り画素、立下り画素はカウントしないようにする。隣接画素濃度差閾値は、注目画素を含むn×m(例えば、5画素×5画素)の画素ブロック内の平均値などをもとに決定する。平均値が第1所定値(例えば、100)以上であれば隣接画素濃度差閾値をTH1(例えば、50)、平均値が第1所定値未満かつ第2所定値(例えば、70)以上であれば隣接画素濃度差閾値をTH2(例えば、33)、平均値が第2所定値未満であれば隣接画素濃度差閾値をTH3(例えば、15)としておく。画素ブロック内の平均値に応じて立上り画素または立下り画素をカウントする隣接画素濃度差閾値を異ならせるのは、平均して濃い部分か淡い部分かによって濃い方の画素と淡い方の画素との濃淡差が異なるからである。平均して濃い部分の方が淡い部分より、濃い方の画素と淡い方の画素との濃淡差が小さい傾向にあるため、平均値を3分割して、それぞれでの隣接画素濃度差閾値を定めている。なお、ここでは、平均値を3分割しているが、必ずしも3分割に限定されるものではなく、分割数は4以上でも構わない。
(Pixel classification processing for determining the number of halftone dots of the original in the area pixel determination processing)
The pixel classification process for the halftone dot frequency determination of the document in the area pixel determination process (S1) executed by the pixel determination unit 1301 will be described. For each color component of the RGB image, in the n × m (for example, 7 pixels × 7 pixels) pixel block including the pixel of interest (hatched center pixel in FIG. 5), the two directions shown in FIG. On the other hand, when the density difference between adjacent pixels exceeds the adjacent pixel density difference threshold value, it is determined to be a rising pixel or a falling pixel, and the determined number of pixels is counted as the number of inversions. However, consecutive rising pixels and falling pixels are not counted. The adjacent pixel density difference threshold is determined based on an average value in an n × m (for example, 5 pixels × 5 pixels) pixel block including the target pixel. If the average value is the first predetermined value (eg, 100) or more, the adjacent pixel density difference threshold value is TH1 (eg, 50), and the average value is less than the first predetermined value and the second predetermined value (eg, 70) or more. For example, the adjacent pixel density difference threshold is TH2 (for example, 33), and if the average value is less than the second predetermined value, the adjacent pixel density difference threshold is for TH3 (for example, 15). Adjacent pixel density difference thresholds that count rising pixels or falling pixels depending on the average value in the pixel block are different between the darker pixel and the lighter pixel depending on whether they are dark or light on average. This is because the difference in shade is different. Since the density difference between the darker pixel and the lighter pixel tends to be smaller in the darker portion on average than in the lighter portion, the average value is divided into three and the adjacent pixel density difference threshold value is determined for each. ing. Although the average value is divided into three here, the average value is not necessarily limited to three and the number of divisions may be four or more.

RGBの各成分の反転回数カウント値の最大値を求め、その最大値が第1反転回数閾値以上(例えば、30)であれば第1線数画素、第1反転回数閾値未満かつ第2反転回数閾値以上(例えば、15)であれば第2線数画素、第2反転回数閾値未満であれば第3線数画素で有ると判定する。ここでは、反転回数カウントを3分割して判定しているが、必ずしも3分割に限定されるものではなく、分割数は4以上でも構わない、また、この反転回数の分類は、網点領域の線数を判定するために行うものなので、網点領域に判定された画素に限定して行っても良い。   The maximum value of the inversion number count value of each component of RGB is obtained, and if the maximum value is equal to or larger than the first inversion number threshold value (for example, 30), the first line number pixel, less than the first inversion number threshold value and the second inversion number If it is equal to or more than the threshold value (for example, 15), it is determined to be the second line number pixel, and if it is less than the second inversion number threshold value, it is determined to be the third line number pixel. Here, the number of times of inversion is determined by dividing it into three, but the number of divisions is not necessarily limited to three, and the number of divisions may be four or more. The classification of the number of inversions is performed in the halftone dot area. Since it is performed to determine the number of lines, it may be limited to the pixels determined in the halftone dot area.

(原稿種別判定処理における線数判定の詳細)
原稿種別判定部1306によって実行される領域画素判定処理(S7)における、原稿の線数を判定する線数判定について説明する。原稿に印刷されている網点の線数の判定には、次のカウント値やヒストグラム度数を用いる。領域画素カウント部1302において網点画素と判定された画素をカウントした結果である網点領域画素数(scr0)、第1線数画素数(scr1)、第2線数画素数(scr2)、第3線数画素数(scr3)、ヒストグラム生成部1304におけるヒストグラム対象画素数(bgcnt)、ヒストグラム第16区分度数(hst16)、ヒストグラム第17区分度数(hst17)、…、ヒストグラム第31区分度数(hst31)を用いる。
(Details of the line number judgment in the document type judgment process)
The line number determination for determining the number of lines of the document in the area pixel determination process (S7) executed by the document type determination unit 1306 will be described. The following count value and histogram frequency are used to determine the number of halftone dots printed on the document. The number of pixels in the halftone dot area (scr0), the number of pixels in the first number of lines (scr1), the number of pixels in the second number of lines (scr2), which is the result of counting the pixels determined to be halftone dots by the area pixel count unit 1302, 3 line number pixel number (scr3), histogram target pixel number in the histogram generation unit 1304 (bgcnt), histogram 16th division frequency (hst16), histogram 17th division frequency (hst17), ..., Histogram 31st division frequency (hst31) To use.

上記のカウント値やヒストグラム度数から、画像データに関する特徴量(画像データ特徴量)を算出する(S71)。例えば、第1線数画素数(scr1)の網点領域画素数(scr0)に対する比、第2線数画素数(scr2)の網点領域画素数(scr0)に対する比、第3線数画素数(scr3)の網点領域画素数(scr0)に対する比に基づき、隣接画素における濃淡変化の頻度を示す特徴量(第1の特徴量)を算出する。また、ヒストグラム第16区分度数(hst16)のヒストグラム対象画素数(bgcnt)に対する比、ヒストグラム第17区分度数(hst17)のヒストグラム対象画素数(bgcnt)に対する比、…、ヒストグラム第31区分度数(hst31)のヒストグラム対象画素数(bgcnt)に対する比に基づき、下地画素における画素の濃淡変化の大小の程度を示す特徴量(第2の特徴量)を算出する。これらの特徴量に基づき、原稿が高線数か低線数かを判定する網点線数判定処理を行う(S72)。   A feature amount (image data feature amount) related to image data is calculated from the count value and the histogram frequency (S71). For example, the ratio of the first number of lines pixels (scr1) to the number of halftone dot regions (scr0), the ratio of the second number of lines pixels (scr2) to the number of halftone dot regions (scr0), the third number of pixels Based on the ratio of (scr3) to the number of halftone dot pixels (scr0), a feature amount (first feature amount) indicating the frequency of grayscale changes in adjacent pixels is calculated. Further, the ratio of the histogram 16th segment frequency (hst16) to the histogram target pixel number (bgcnt), the ratio of the histogram 17th segment frequency (hst17) to the histogram target pixel number (bgcnt), ..., The 31st segment frequency (hst31) Based on the ratio to the number of pixels (bgcnt) subject to the histogram of (1), the feature amount (second feature amount) indicating the magnitude of the grayscale change of the pixel in the base pixel is calculated. On the basis of these feature amounts, a halftone dot line number determination process is performed to determine whether the document has a high line number or a low line number (S72).

網点の線数が一枚の原稿の中で一定であっても、マスク内の濃淡の反転回数が一定になるわけではない。また、紙質、紙の濃度、印刷品質、裏写りの有無、などが、濃淡の反転回数に影響する。そのため、濃淡の反転回数の頻度の特徴量を増やし、濃度分布を特徴量に追加している。   Even if the number of lines of halftone dots is constant in one document, the number of inversions of light and shade in the mask does not become constant. Further, the quality of paper, the density of paper, the print quality, the presence / absence of show-through, and the like influence the number of times of light and shade inversion. Therefore, the feature amount of the frequency of the number of times of light and shade inversion is increased and the density distribution is added to the feature amount.

これらの特徴量に基づき、機械学習によって、高線数・低線数の判定を行ってもよい。例えば、これらの特徴量を、予めサポートベクターマシンの学習結果に基づいた数式に入力する。サポートベクターマシンは、これらの特徴量の組に、高線数あるいは低線数を示す2値のいずれかの教師信号をセットにして学習させておく。例えば、高線数に判定してほしい原稿500枚の特徴量の組を用意し、それらの組の教師信号を1とする。低線数に判定してほしい原稿500枚の特徴量の組を用意し、それらの組の教師信号を0とする。これら1000枚の原稿の特徴量の組と教師信号をセットにして学習させておく。なお、高線数か低線数かは、必ずしも所定線数以上か否かで分けずに、空間フィルタ処理部18の網点領域のフィルタに高線数用のものを適用すると画質問題なるモアレが現れるか否かで分けても良い。   The number of high lines and the number of low lines may be determined by machine learning based on these feature amounts. For example, these feature quantities are input in advance into a mathematical formula based on the learning result of the support vector machine. The support vector machine sets a learning signal having a binary value indicating the number of high lines or the number of low lines as a set to the group of these feature quantities and makes them learn. For example, a set of feature amounts of 500 originals desired to be judged with a high number of lines is prepared, and the teacher signal of these sets is set to 1. A set of feature amounts of 500 originals that should be judged to have a low line count is prepared, and the teacher signals of these sets are set to zero. A set of feature amounts of these 1000 originals and a teacher signal are set as a set for learning. It should be noted that whether the high frequency or the low frequency is not necessarily divided depending on whether or not the predetermined frequency is greater than or equal to the predetermined frequency, and when a high frequency filter is applied to the filter of the halftone dot area of the spatial filter processing unit 18, image quality becomes a problem. You may divide by whether or not appears.

学習結果に基づいて、特徴量の組のベクターを入力として、次のような数式(識別関数)で高線数・低線数の判定を行う。

Figure 2020069717
なお、x以外は予め学習結果により求められているものである。xは1000組の特徴量から抽出されたN組のサポートベクター、aはN組のサポートベクターそれぞれに対する重み、tはN組のサポートベクターそれぞれの教師信号、bはバイアスと呼ばれ決定境界の位置を表すパラメータである。k(x,x)は、学習時にも用いる動径基底関数カーネルというもので、以下の式で定義される。
Figure 2020069717
γは、学習時にも用いるパラメータである。 Based on the learning result, a vector of a set of feature quantities is input, and the number of high lines and the number of low lines are determined by the following mathematical formula (discrimination function).
Figure 2020069717
It should be noted that the values other than x are obtained in advance based on the learning result. x n is N sets of support vectors extracted from 1000 sets of feature quantities, a n is a weight for each of the N sets of support vectors, t n is a teacher signal for each of the N sets of support vectors, and b is a bias. This is a parameter that represents the position of the boundary. k (x, xn ) is a radial basis function kernel used also at the time of learning, and is defined by the following formula.
Figure 2020069717
γ is a parameter used also during learning.

算出されたy(x)の出力結果が判定結果となる。y(x)≧0であれば高線数、y(x)<0であれば低線数ということになる。   The output result of the calculated y (x) becomes the determination result. If y (x) ≧ 0, the number of lines is high, and if y (x) <0, the number of lines is low.

なお、サポートベクターマシン以外の機械学習の手法によって、高線数・低線数を判定してもよい。例えば、決定木や、ニューラルネットワーク(ディープラーニング)といった手法によって学習された数式に特徴量を入力することで、高線数・低線数を判定してもよい。   The number of high lines and the number of low lines may be determined by a machine learning method other than the support vector machine. For example, the number of high lines and the number of low lines may be determined by inputting the feature amount into a mathematical expression learned by a technique such as a decision tree or a neural network (deep learning).

(空間フィルタ処理部18の詳細)
空間フィルタ処理部18の詳細について説明する。図6は、網点領域に適用するフィルタの例である。線数判定結果が高線数であるか低線数であるかによって網点領域に適用するフィルタを異ならせる。高線数に判定された場合の網点領域は、低線数に判定された場合の網点領域よりも強調度が高く平滑度が弱くなる処理を行う。言い換えると、低線数に判定された場合の網点領域は、高線数に判定された場合の網点領域よりも強調度が弱く平滑度が強くなる処理を行う。図6(a)は、高線数に判定された場合の網点領域のフィルタ係数、図6(b)は、低線数に判定された場合の網点領域のフィルタ係数である。
(Details of the spatial filter processing unit 18)
Details of the spatial filter processing unit 18 will be described. FIG. 6 is an example of a filter applied to a halftone dot area. The filter applied to the halftone dot area is different depending on whether the result of the line number determination is a high line number or a low line number. The halftone dot area determined to have a high number of lines is processed to have a higher degree of enhancement and a lower smoothness than the halftone dot area determined to have a low number of lines. In other words, the halftone dot area when the number of lines is determined to be low is subjected to processing in which the degree of enhancement is weaker and the smoothness is stronger than the halftone dot area when determined to be of high line number. FIG. 6A shows the filter coefficient of the halftone dot region when the number of high lines is determined, and FIG. 6B shows the filter coefficient of the halftone dot region when the number of low lines is determined.

これにより、高線数に判定された原稿の画像データは、網点領域に画質問題になるモアレは現れずに鮮鋭度の高い画像を出力することができる。網点領域に誤認識してしまう文字や網点上文字もくっきり読みやすく出力することができる。低線数に判定された原稿の画像データは、網点領域の鮮鋭度は高くないが画質問題になるモアレが現れることなく出力することができる。   As a result, the image data of the document determined to have a high number of lines can be output as an image with high sharpness without causing moire, which is a problem of image quality, in the halftone dot area. Characters that are erroneously recognized in the halftone dot area and characters on the halftone dot can be output clearly and easily. The image data of a document determined to have a low number of lines can be output without causing moire, which is a problem of image quality, although the sharpness of the halftone dot area is not high.

(入力手段を複数持つ場合の例)
カラー画像入力装置110が、原稿台と原稿お送り装置を備えていて、原稿台に原稿を置いてCCDを動かして原稿を読み取る手段と、原稿送り装置でCCDは固定のまま原稿を送りながら原稿を読み取る手段を備える場合がある。
(Example of having multiple input means)
The color image input device 110 is provided with a document table and a document feeding device, means for placing a document on the document table and moving the CCD to read the document, and a document feeding device for feeding the document while the CCD is fixed. It may have a reading means.

原稿送り装置で読み取った原稿の画像データは、原稿台で読み取った画像データに比べ、RGB間の画像にズレが生じやすい傾向にある。そのため、原稿台で読み取った場合用の識別関数と、原稿送り装置で読み取った場合用の識別関数とを別々に用意しておき、それぞれの入力手段に応じた識別関数に特徴量を入力して線数判定を行う。   The image data of a document read by the document feeding device tends to cause a deviation between RGB images as compared with the image data read by a document table. Therefore, an identification function for reading with the document table and an identification function for reading with the document feeder are prepared separately, and the feature amount is input to the identification function corresponding to each input means. Determine the number of lines.

また、原稿送り装置が両面同時に読み取る手段を持つ場合、表面と裏面で読取方式が異なる場合がある。表面は前記CCDで読み取り、裏面はCIS(Contact Image Sensor)で読み取る場合がある。   Further, when the document feeder has a means for reading both sides simultaneously, the reading method may be different between the front side and the back side. The front side may be read by the CCD and the back side may be read by a CIS (Contact Image Sensor).

表面のCCDによる読み取りと裏面のCISによる読み取りとでは、色の出力特性や鮮鋭度が一致しない。そのため、原稿送り装置表面で読み取った場合用の識別関数と原稿送り装置裏面で読み取った場合用の識別関数を別々に用意しておき、それぞれの場合に応じた識別関数に特徴量を入力して線数判定を行う。   The color output characteristics and the sharpness do not match between the front side CCD reading and the back side CIS reading. Therefore, a discrimination function for reading on the front side of the document feeder and a discrimination function for reading on the back side of the document feeder are prepared separately, and the feature amount is input to the discrimination function corresponding to each case. Determine the number of lines.

もちろん、それぞれの識別関数は、それぞれの入力手段で原稿を読み取って得られる特徴量の組を教師信号とセットに機械学習(例えば、サポートベクターマシン)を用いて学習させておいた結果によるものとする。   Of course, each discriminant function is based on the result of learning a set of feature amounts obtained by reading an original with each input means using machine learning (for example, support vector machine) as a teacher signal and a set. To do.

これにより、いずれのカラー画像入力装置110で読み取られても適切な線数判定結果を出力することができる。   As a result, an appropriate line number determination result can be output regardless of which color image input device 110 is read.

(入力解像度を複数持つ場合の例)
使用者の指示する処理により、入力解像度が異なる場合がある。例えば、画質を優先する主走査600dpi、副走査600dpiによる入力と、速度を優先する主走査600dpi、副走査400dpiによる入力を使用者が選択できる場合がある。
(Example of having multiple input resolutions)
The input resolution may differ depending on the process instructed by the user. For example, the user may be able to select input by main scanning 600 dpi and sub-scanning 600 dpi that prioritize image quality and input by main scanning 600 dpi and sub-scanning 400 dpi that prioritize speed.

同じ原稿であっても、主走査600dpi、副走査600dpiによる入力と、主走査600dpi、副走査400dpiによる入力とでは、前記反転回数は異なり、すなわち、識別関数に入力される特徴量も異なってくる。そのため、主走査600dpi、副走査600dpiによる入力用と、主走査600dpi、副走査400dpiによる入力用、それぞれの識別関数で線数判定を行う。   Even for the same document, the number of times of reversal is different between input by main scanning 600 dpi and sub-scanning 600 dpi and input by main scanning 600 dpi and sub-scanning 400 dpi, that is, the feature amount input to the discrimination function is also different. .. Therefore, the number of lines is determined by the discrimination function for each of the input of main scanning 600 dpi and sub-scanning 600 dpi, and the input of main scanning 600 dpi and sub-scanning 400 dpi.

もちろん、それぞれの識別関数は、それぞれの入力解像度で原稿を読み取って得られる特徴量の組を教師信号とセットに学習させておいた結果によるものとする。   As a matter of course, each discriminant function is based on the result of learning a set of feature amounts obtained by reading an original at each input resolution into a teacher signal and a set.

これにより、いずれの入力解像度で読み取られても適切な線数判定結果を出力することができる。   As a result, an appropriate line number determination result can be output regardless of which input resolution is read.

(モノクロ出力用・カラー出力用を持つ場合の例)
コピー出力の場合、原稿の網点の周期、入力解像度による周期、階調再現処理部20のディザ処理による周期のずれによりモアレが現れることが有る。なお、原稿はRGB信号で読み取られるが、階調再現処理部20のディザ処理は、モノクロ出力の場合はK(ブラック)信号のみで処理され、カラー出力の場合CMYK(C:シアン、M:マゼンタ、Y:イエロー、K:ブラック)信号のそれぞれで処理される。そのため、モノクロ出力のディザ処理をカラー出力のK(ブラック)信号と同じディザ処理を用いたとすれば、比較的モアレは現れにくい傾向である。そのため、モノクロ出力用、カラー出力用、それぞれの識別関数で線数判定を行う。
(Example of having monochrome output / color output)
In the case of copy output, moire may appear due to the shift of the halftone dot period of the document, the period due to the input resolution, and the period due to the dither processing of the tone reproduction processing unit 20. Note that the original is read by RGB signals, but the dither processing of the gradation reproduction processing unit 20 is processed only by K (black) signals for monochrome output, and CMYK (C: cyan, M: magenta) for color output. , Y: yellow, K: black) signals. Therefore, if the same dither processing as that for the K (black) signal for color output is used for the dither processing for monochrome output, moire tends to appear relatively little. Therefore, the number of lines is determined by the respective discrimination functions for monochrome output and color output.

もちろん、それぞれの識別関数は、モノクロ出力、カラー出力、それぞれで原稿を読み取って得られる特徴量の組を教師信号とセットに学習させておいた結果によるものとする。   Of course, each discriminant function is based on a result obtained by learning a set of feature amounts obtained by reading an original by monochrome output and color output by a teacher signal and a set.

これにより、モノクロ出力、カラー出力、それぞれで適切な線数判定結果を出力することができる。   As a result, it is possible to output appropriate line number determination results for monochrome output and color output.

(階調再現設定を複数持つ場合の例)
コピー出力の場合、原稿の網点の周期、入力解像度による周期、階調再現処理部20のディザ処理による周期のずれによりモアレが現れることが有る。そこで、階調再現処理部20のディザ処理は、周期の異なる2種類から選択可能とする。ディザ処理が異なれば、モアレの現れ方も異なる。ディザ処理による周期の粗い方が比較的モアレが現れやすく、ディザ処理による周期の細かい方が比較的モアレは現れにくい。そのため、粗い周期のディザ処理用、細かい周期のディザ処理用、それぞれの識別関数で線数判定を行う。
(Example of having multiple gradation reproduction settings)
In the case of copy output, moire may appear due to the shift of the halftone dot period of the document, the period due to the input resolution, and the period due to the dither processing of the tone reproduction processing unit 20. Therefore, the dither processing of the gradation reproduction processing unit 20 can be selected from two types having different cycles. Different dithering will produce different moire. Moire is relatively easy to appear when the cycle is rough due to the dither processing, and is relatively hard to appear when the cycle is fine due to the dither processing. Therefore, the number of lines is determined by using the respective discrimination functions for the coarse-cycle dither processing and the fine-cycle dither processing.

なお、階調再現処理部20の階調再現設定は、ディザ処理と誤差拡散処理の2種類から選択可能でも構わない。誤差拡散処理そのものには周期性が無く、原稿の網点の周期、入力解像度による周期だけでしかモアレは現れないため、ディザ処理に比べ、比較的モアレが現れにくい。そのため、ディザ処理用、誤差拡散処理用、それぞれの識別関数で線数判定を行う。   The gradation reproduction setting of the gradation reproduction processing unit 20 may be selectable from two types of dither processing and error diffusion processing. The error diffusion process itself has no periodicity, and the moire appears only in the halftone dot period of the document and the period depending on the input resolution. Therefore, the moire is relatively unlikely to appear in comparison with the dither process. Therefore, the number of lines is determined by the discrimination functions for dither processing and error diffusion processing.

もちろん、それぞれの識別関数は、粗い周期のディザ処理用及び細かい周期のディザ処理用それぞれで、又は、ディザ処理用及び誤差拡散処理用それぞれで原稿を読み取って得られる特徴量の組を教師信号とセットに学習させておいた結果によるものとする。なお、上述した以外の階調再現設定を有してもよいことは当然である。   Of course, each discriminant function is a set of feature amounts obtained by reading a document for coarse dither processing and fine dither processing, or for dither processing and error diffusion processing, as a teacher signal. It depends on the result of learning the set. In addition, it goes without saying that gradation reproduction settings other than those described above may be provided.

これにより、複数の階調再現設定を有する場合において、選択された階調再現設定に基づき、適切な線数判定結果を出力することができる。   Accordingly, when a plurality of gradation reproduction settings are provided, it is possible to output an appropriate line number determination result based on the selected gradation reproduction setting.

(スキャン出力の場合)
図7は、図1の画像形成装置1がスキャン出力機能を有する場合のスキャン出力機能に関わる部分の概略構成を示すブロック図である。
(For scan output)
FIG. 7 is a block diagram showing a schematic configuration of a portion related to the scan output function when the image forming apparatus 1 of FIG. 1 has the scan output function.

図7に示すように、カラー画像入力装置110、カラー画像処理装置120、操作パネル140、および制御部100を備えている。また、カラー画像処理装置120は、A/D変換部11、シェーディング補正部12、原稿特徴判定部13、入力階調補正部14、領域分離処理部15、色補正部16、空間フィルタ処理部18、出力階調補正部19を備えている。   As shown in FIG. 7, a color image input device 110, a color image processing device 120, an operation panel 140, and a control unit 100 are provided. The color image processing apparatus 120 also includes an A / D conversion unit 11, a shading correction unit 12, a document feature determination unit 13, an input tone correction unit 14, a region separation processing unit 15, a color correction unit 16, and a spatial filter processing unit 18. An output gradation correction unit 19 is provided.

カラー画像入力装置110、操作パネル140、および制御部100は、図1の画像形成装置1におけるカラー画像入力装置110は、操作パネル140、および制御部100とそれぞれ同様のため、説明を省略する。   The color image input device 110, the operation panel 140, and the control unit 100 are the same as the operation panel 140 and the control unit 100 in the image forming apparatus 1 of FIG.

カラー画像処理装置120におけるA/D変換部11、シェーディング補正部12、入力階調補正部14、および領域分離処理部15は、図1の画像形成装置1におけるカラー画像処理装置120のA/D変換部11、シェーディング補正部12、入力階調補正部14、および領域分離処理部15とそれぞれ同様のため、説明を省略する。   The A / D conversion unit 11, the shading correction unit 12, the input gradation correction unit 14, and the area separation processing unit 15 in the color image processing apparatus 120 are the A / D of the color image processing apparatus 120 in the image forming apparatus 1 in FIG. Since the conversion unit 11, the shading correction unit 12, the input gradation correction unit 14, and the area separation processing unit 15 are similar to each other, the description thereof will be omitted.

原稿特徴判定部13は、図1の画像形成装置1におけるカラー画像処理装置120の原稿特徴判定部13と同様の処理を行うが、特徴量の組をスキャン出力用の識別関数に入力して線数判定を行う。   The original document feature determination unit 13 performs the same process as the original document feature determination unit 13 of the color image processing apparatus 120 in the image forming apparatus 1 of FIG. Make a number decision.

スキャン出力の場合は、階調再現処理部20のディザ処理は行われないので、コピー出力に比べてモアレは比較的現れにくい。そのため、高線数か低線数かの判断基準はコピー出力と異なって構わない。よって、コピー出力用とは別にスキャン出力用の識別関数により線数判定を行う。   In the case of scan output, since the dither processing of the gradation reproduction processing unit 20 is not performed, moire is relatively unlikely to appear as compared with copy output. Therefore, the criterion for determining the high line number or the low line number may be different from that for the copy output. Therefore, the number of lines is determined by the discriminant function for scan output separately from the one for copy output.

もちろん、スキャン出力用の識別関数は、スキャン出力用の特徴量の組を教師信号とセットに学習させておいた結果によるものとする。   Of course, the discriminant function for scan output is based on the result of learning the set of feature quantities for scan output as a set with the teacher signal.

色補正部16は、図1の画像形成装置1におけるカラー画像処理装置120の色補正部16と異なり、領域分離処理部15から入力されるRGB信号を、領域分離処理部15から入力される領域識別信号に応じて、RGB信号に変換する。   The color correction unit 16 differs from the color correction unit 16 of the color image processing apparatus 120 in the image forming apparatus 1 of FIG. 1 in that the RGB signal input from the area separation processing unit 15 is an area input from the area separation processing unit 15. According to the identification signal, it is converted into an RGB signal.

空間フィルタ処理部18は、図1の画像形成装置1におけるカラー画像処理装置120の空間フィルタ処理部18と異なり、色補正部16から入力されるRGB信号の画像データに対して、空間周波数特性を補正することにより、出力画像のぼやけ、および粒状性劣化を防ぐために、領域分離処理部15から入力される領域識別信号に応じて、領域の種別毎に予め設定されるデジタルフィルタによる空間フィルタ処理を行う。   The spatial filter processing unit 18 differs from the spatial filter processing unit 18 of the color image processing apparatus 120 in the image forming apparatus 1 of FIG. 1 in that the spatial frequency characteristic is applied to the image data of the RGB signal input from the color correction unit 16. In order to prevent blurring of the output image and deterioration of graininess by the correction, spatial filtering processing by a digital filter preset for each area type is performed according to the area identification signal input from the area separation processing unit 15. To do.

出力階調補正部19は、図1の画像形成装置1におけるカラー画像処理装置120の出力階調補正部19と異なり、空間フィルタ処理部18から入力されるRGB信号の画像データに対して出力階調補正処理を行う。   The output tone correction unit 19 differs from the output tone correction unit 19 of the color image processing apparatus 120 in the image forming apparatus 1 of FIG. Tone correction processing is performed.

(網点線数を判定する閾値を使用者が変更可能とする場合)
上記識別関数出力値y(x)をシグモイド関数へ入力する。

Figure 2020069717
aは正の数で、例えば、a=1で良い。 (When the user can change the threshold for judging the number of halftone dots)
The discriminant function output value y (x) is input to the sigmoid function.
Figure 2020069717
a is a positive number, for example, a = 1.

これにより、シグモイド関数を通した識別関数は、0より大きく1より小さい値で出力される。閾値をthlとすると、f(y(x))≧thlなら高線数、f(y(x))<thlなら低線数に判定される。   As a result, the discriminant function passing through the sigmoid function is output with a value larger than 0 and smaller than 1. If the threshold value is thl, the high line number is determined if f (y (x)) ≧ thl, and the low line number is determined if f (y (x)) <thl.

様々な条件に応じて識別関数を異ならせる場合は、このシグモイド関数を通すことで、
出力値を0から1の範囲に収まるように統一することができる。
When differentiating the discriminant function according to various conditions, by passing this sigmoid function,
The output values can be unified so that they fall within the range of 0 to 1.

操作パネル140は、ユーザからの指示入力により閾値を変更可能とする。   The operation panel 140 can change the threshold value according to an instruction input from the user.

図8は、線数判定の閾値を設定する操作パネル140の一例(表示例)である。5段階のうちから1段階を設定可能で、初期設定は段階3で閾値thl=0.5が対応する。段階2、段階1へ設定を変えるとより低線数に判定されやすくなり、段階4、段階5へ設定を変えるとより高線数に判定されやすくなる。段階1で閾値thl=0.9、段階2で閾値thl=0.7、段階4で閾値thl=0.3、段階5で閾値thl=0.1が対応する。操作キーにより段階の数値を入力しても良いし、タッチパネルで各段階の位置をタッチしても良い。また、閾値はさらに細かく設定可能なものでも良い。0から1までの値で直接数値を入力できるようにしても構わない。   FIG. 8 is an example (display example) of the operation panel 140 for setting the threshold value for determining the number of lines. One of five steps can be set, and the threshold value thl = 0.5 corresponds to the initial setting in step 3. If the setting is changed to step 2 or step 1, the number of lines is more likely to be determined, and if the setting is changed to step 4 or step 5, the number of lines is more likely to be determined. The threshold value thl = 0.9 in step 1, the threshold value thl = 0.7 in step 2, the threshold value thl = 0.3 in step 4, and the threshold value thl = 0.1 in step 5. You may input the numerical value of a step | step with an operation key, and you may touch the position of each step | step with a touch panel. Further, the threshold may be set more finely. You may make it possible to input a numerical value directly as a value from 0 to 1.

このように、本実施形態によれば、従来隣接画素間の濃淡変化の頻度を示す特徴量だけで線数判定をすると、紙質、紙の濃度、印刷品質、裏写りの有無、網点の混色の構成、などに結果が左右されてしまうところ、濃淡変化の大小の程度を示す特徴量を線数判定のパラメータに追加することで、紙質、紙の濃度、印刷品質、裏写りの有無、などに線数判定の結果が左右されにくくなる。   As described above, according to the present embodiment, when the number of lines is conventionally determined only by the characteristic amount indicating the frequency of the light and shade change between the adjacent pixels, the paper quality, the density of the paper, the print quality, the presence / absence of show-through, and the color mixture of halftone dots. However, by adding a feature quantity indicating the degree of change in shading to the parameter of line number judgment, the quality of paper, density of paper, print quality, presence or absence of show-through, etc. Therefore, the result of the line number determination is less likely to be affected.

また、本実施形態では、隣接画素間の濃淡変化の頻度を示す特徴量又は濃淡変化の大小の程度を示す特徴量の少なくとも一方は複数の特徴量とする。これにより、隣接画素間の濃淡変化の頻度を示す特徴量や、濃淡変化の大小の程度を示す特徴量が一つだけでは十分に網点の特徴を捉えることが難しい場合において、複数種類にすることにより、精度良く判定させることができる。   Further, in the present embodiment, at least one of the feature amount indicating the frequency of the grayscale change between adjacent pixels or the feature amount indicating the magnitude of the grayscale change is a plurality of feature amounts. As a result, when it is difficult to capture the features of halftone dots with only one feature amount indicating the frequency of grayscale changes between adjacent pixels and one feature amount indicating the magnitude of the grayscale changes, there are multiple types. By doing so, it is possible to make an accurate determination.

また、隣接画素間の濃淡変化の頻度を示す特徴量は網点領域画素に判定された画素に限定して算出することにより精度良く網点の線数を判定することができる。   In addition, the number of lines of the halftone dots can be accurately determined by limiting the calculation of the feature amount indicating the frequency of the grayscale change between the adjacent pixels to the pixels determined as the halftone dot area pixels.

また、濃淡変化の大小の程度を示す特徴量には濃度分布を示す特徴量を含むことにより、より精度良く判定させることができる。   Further, by including the feature amount indicating the density distribution in the feature amount indicating the magnitude of the grayscale change, it is possible to make the determination more accurately.

また、画像データに対する画像処理として線数判定結果に応じた空間フィルタ処理を行ことにより、鮮鋭度を保ちながらモアレが知覚されにくい画像を出力することができる。   In addition, by performing a spatial filter process according to the line number determination result as the image process for the image data, it is possible to output an image in which moire is hardly perceived while maintaining sharpness.

また、線数の判定として、機械学習の結果を用いた数式に画像データ特徴量を入力して得られる出力値に基づき、原稿の網点の線数を判定することにより、人間が判定の閾値や境界を設定して判定するよりも、精度良く判定させることができる。   In addition, as the determination of the number of lines, a human determines the threshold value of the determination by determining the number of lines of the halftone dots of the document based on the output value obtained by inputting the image data feature amount into a mathematical expression using the result of machine learning. It is possible to make the determination more accurately than the determination by setting the or boundary.

この機械学習はサポートベクターマシンであってもよい。サポートベクターマシンは機械学習の中でも比較的簡易な計算のため、コピー出力やスキャン出力を遅らせずに処理することができる。   This machine learning may be a support vector machine. Since the support vector machine is a relatively simple calculation in machine learning, it can process copy output and scan output without delay.

また、画像データの入力手段を複数備える場合は、画像データが入力された入力手段に対応する機械学習の結果を用いた数式に、画像データ特徴量を入力して得られる出力値により原稿の網点の線数を判定する。これにより、画像データの入力手段に応じて、精度良く判定することができる。   Further, when a plurality of image data input means are provided, the original document network is determined by the output value obtained by inputting the image data feature amount into the mathematical expression using the machine learning result corresponding to the input means to which the image data is input. Determine the number of lines of a point. As a result, it is possible to make an accurate determination according to the image data input means.

また、画像データの入力手段において画像入力解像度設定を複数有する場合は、画像入力解像度設定に対応する機械学習の結果を用いた数式に、画像データ特徴量を入力して得られる出力値に基づき、原稿の網点の線数を判定する。これにより、画像入力解像度に応じて、精度良く判定することができる。   Further, when the image data input unit has a plurality of image input resolution settings, a mathematical expression using the result of machine learning corresponding to the image input resolution setting, based on the output value obtained by inputting the image data feature amount, The number of halftone dots on the original is determined. As a result, it is possible to make an accurate determination according to the image input resolution.

また、画像データの出力形式に対応する機械学習の結果を用いた数式に、画像データ特徴量を入力して得られる出力値に基づき、原稿の網点の線数を判定する。例えば、出力形式をコピー出力及びスキャン出力とすることにより、コピー出力、スキャン出力それぞれ鮮鋭度を保ちながらモアレが知覚されにくい画像を出力することができる。   Further, the number of lines of the halftone dots of the original is determined based on the output value obtained by inputting the image data feature amount in the mathematical expression using the result of machine learning corresponding to the output format of the image data. For example, when the output formats are copy output and scan output, it is possible to output an image in which moire is hardly perceived while maintaining the sharpness of each of copy output and scan output.

また、階調再現設定を複数有する階調再現手段を備え、階調再現設定に対応する機械学習の結果を用いた数式に、画像データ特徴量を入力して得られる出力値に基づき、原稿の網点の線数を判定する。これにより、階調再現設定が変わっても、それぞれ鮮鋭度を保ちながらモアレが知覚されにくい画像を出力することができる。   Further, the apparatus is provided with a gradation reproduction unit having a plurality of gradation reproduction settings, and based on an output value obtained by inputting the image data feature amount into a mathematical expression using the result of machine learning corresponding to the gradation reproduction setting, Determine the number of halftone dots. As a result, even if the gradation reproduction setting is changed, it is possible to output an image in which moire is hardly perceived while maintaining sharpness.

また、モノクロ出力用、カラー出力用の何れかの出力に対応する機械学習の結果を用いた数式に、画像データ特徴量を入力して得られる出力値に基づき、原稿の網点の線数を判定する。これにより、モノクロ出力、カラー出力それぞれ鮮鋭度を保ちながらモアレが知覚されにくい画像を出力することができる。   Also, based on the output value obtained by inputting the image data feature amount into the mathematical expression using the machine learning result corresponding to either monochrome output or color output, the number of lines of the halftone dot of the document is calculated. judge. As a result, it is possible to output an image in which moire is hardly perceived while maintaining the sharpness of each of monochrome output and color output.

また、機械学習の結果を用いた数式の出力値に対して網点線数を判定する閾値を使用者が変更可能とすることにより、使用者の好みに応じて、高線数に判定されやすくしたり、逆に低線数に判定されやすくしたりすることができる。   Also, by allowing the user to change the threshold value for determining the halftone frequency with respect to the output value of the mathematical expression using the result of machine learning, it is easy to determine the high frequency according to the preference of the user. Or, on the contrary, it is possible to make it easier to determine a low number of lines.

本発明の各態様に係る画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを原稿特徴判定部13として動作させることにより画像処理装置をコンピュータにて実現させる画像処理プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に含まれる。   The image processing apparatus according to each aspect of the present invention may be realized by a computer. In this case, an image processing program that causes the computer to operate as the document feature determination unit 13 causes the computer to realize the image processing apparatus. Also, a computer-readable recording medium recording the same is also included in the scope of the present invention.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the embodiments described above, and various modifications can be made within the scope of the claims. That is, an embodiment obtained by combining technical means appropriately modified within the scope of the claims is also included in the technical scope of the present invention.

(ソフトウェアでの処理)
図1及び図7のカラー画像処理装置120の制御ブロック(特に原稿特徴判定部13)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPUを用いてソフトウェアによって実現してもよい。
(Processing by software)
The control block of the color image processing apparatus 120 of FIG. 1 and FIG. 7 (particularly the document feature determination section 13) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU. May be realized by software.

後者の場合、カラー画像処理装置120は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROMまたは記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAMなどを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the color image processing apparatus 120 includes a CPU that executes instructions of a program that is software that implements each function, a ROM or a storage device (on which a computer (or CPU) stores the program and various types of data readable by the computer (or CPU)). These are referred to as “recording medium”), and a RAM for expanding the above program is provided. Then, the computer (or CPU) reads the program from the recording medium and executes the program to achieve the object of the present invention. As the recording medium, a “non-transitory tangible medium”, for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the above program is embodied by electronic transmission.

これにより、原稿特徴判定部13の処理を実行するプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)を記録した記録媒体を持ち運び自在に提供することができる。また、記録媒体に記録させたプログラムを画像形成装置1、画像読取装置1b、あるいはコンピュータシステムに備えられるプログラム読取装置に読み取られせることにより、上記の原稿特徴判定処理を実行させることができる。   As a result, it is possible to provide a recording medium on which the program code (execution format program, intermediate code program, source program) for executing the processing of the document feature determination unit 13 is freely carried. Further, the program recorded on the recording medium can be read by the image forming apparatus 1, the image reading apparatus 1b, or the program reading apparatus included in the computer system, so that the above-described document feature determination processing can be executed.

コンピュータシステムは、フラットベッドスキャナ、フィルムスキャナ、デジタルカメラなどの画像入力装置、所定のプログラムコードがロードされることにより上記画像処理方法など様々な処理が行われるコンピュータ、コンピュータの処理結果を表示するCRTディスプレイ、液晶ディスプレイなどの画像表示装置およびコンピュータの処理結果を紙などに出力するプリンタにより構成されていてもよい。また、ネットワークを介してサーバーなどに接続するための通信手段としてのネットワークカードやモデムなどを備えていてもよい。   The computer system includes an image input device such as a flatbed scanner, a film scanner, and a digital camera, a computer on which various processes such as the above-described image processing method are performed by loading a predetermined program code, and a CRT which displays a processing result of the computer. It may be configured by an image display device such as a display or a liquid crystal display, and a printer that outputs the processing result of the computer to paper or the like. Further, a network card, a modem or the like may be provided as a communication means for connecting to a server or the like via a network.

1 画像形成装置
100 制御部
110 カラー画像入力装置
120 カラー画像処理装置
11 A/D変換部
12 シェーディング補正部
13 原稿特徴判定部
1301 画素判定部
1302 領域画素カウント部
1303 データ選択部
1304 ヒストグラム生成部
1305 下地判定部
1306 原稿種別判定部
1307 下地除去部
14 入力階調補正部
15 領域分離処理部
16 色補正部
17 黒生成下色除去部
18 空間フィルタ処理部
19 出力階調補正部
20 階調再現処理部
130 カラー画像出力装置
140 操作パネル
1 image forming apparatus 100 control unit 110 color image input device 120 color image processing device 11 A / D conversion unit 12 shading correction unit 13 original feature determination unit 1301 pixel determination unit 1302 area pixel counting unit 1303 data selection unit 1304 histogram generation unit 1305 Background determination unit 1306 Original type determination unit 1307 Background removal unit 14 Input tone correction unit 15 Region separation processing unit 16 Color correction unit 17 Black generation undercolor removal unit 18 Spatial filter processing unit 19 Output tone correction unit 20 Tone reproduction process 130 Color image output device 140 Operation panel

Claims (19)

原稿を走査して、画像データとして入力する画像データ入力部と、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定部と、
前記判定部の判定結果に応じて、前記画像データに画像処理を行う画像処理部と、
を備えることを特徴とする画像処理装置。
An image data input unit that scans a document and inputs it as image data,
The original document based on the image data characteristic amount including a first characteristic amount indicating a frequency of gradation change between adjacent pixels of the image data and a second characteristic amount indicating a magnitude of the gradation change of the image data. A determination unit for determining the number of lines of the halftone dots of
An image processing unit that performs image processing on the image data according to the determination result of the determination unit,
An image processing apparatus comprising:
前記画像データから、前記画像データ特徴量を算出する算出部を更に含むことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a calculation unit that calculates the image data characteristic amount from the image data. 前記第1の特徴量又は前記第2の特徴量の少なくとも一方は、複数の特徴量を含むことを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein at least one of the first feature amount and the second feature amount includes a plurality of feature amounts. 前記第1の特徴量は、網点領域に含まれる画素に限定して算出された特徴量であることを特徴とする請求項1から3の何れか一項に記載の画像処理装置。   The image processing device according to claim 1, wherein the first feature amount is a feature amount calculated only for pixels included in a halftone dot area. 前記第2の特徴量は、濃度分布を示す特徴量を含むことを特徴とする請求項1から4の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the second characteristic amount includes a characteristic amount indicating a density distribution. 前記画像処理部は、前記画像処理として空間フィルタ処理を行うことを特徴とする請求項1から5の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing unit performs spatial filter processing as the image processing. 前記判定部は、機械学習の結果を用いた数式に前記画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項1から6の何れか1項に記載の画像処理装置。   2. The determination unit determines the number of lines of halftone dots of the document based on an output value obtained by inputting the image data feature amount into a mathematical expression using a result of machine learning. 6. The image processing device according to any one of 6. 前記機械学習はサポートベクターマシンであることを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the machine learning is a support vector machine. 前記画像データ入力部を複数備え、
前記判定部は、前記画像データが入力された前記画像データ入力部に対応する前記機械学習の結果を用いた数式に、前記画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項7に記載の画像処理装置。
A plurality of the image data input section,
The determination unit, based on an output value obtained by inputting the image data feature amount in a mathematical expression using the result of the machine learning corresponding to the image data input unit to which the image data is input, The image processing apparatus according to claim 7, wherein the number of lines of a halftone dot is determined.
前記画像データ入力部の画像入力解像度設定を複数有し、
前記判定部は、前記画像入力解像度設定に対応する前記機械学習の結果を用いた数式に、前記画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項7に記載の画像処理装置。
Having a plurality of image input resolution settings of the image data input unit,
The determination unit determines the number of lines of halftone dots of the document based on an output value obtained by inputting the image data feature amount in a mathematical expression using the result of the machine learning corresponding to the image input resolution setting. The image processing apparatus according to claim 7, wherein:
前記判定部は、前記画像データの出力形式に対応する前記機械学習の結果を用いた数式に、前記画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項7に記載の画像処理装置。   Based on an output value obtained by inputting the image data feature amount in a mathematical expression using the result of the machine learning corresponding to the output format of the image data, the determination unit determines the number of lines of the halftone dots of the document. The image processing apparatus according to claim 7, wherein the image processing apparatus makes a determination. 前記出力形式は、コピー出力及びスキャン出力であることを特徴とする請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, wherein the output formats are copy output and scan output. 階調再現設定を複数有する階調再現部を備えており、
前記判定部は、前記階調再現設定に対応する前記機械学習の結果を用いた数式に、前記画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項7に記載の画像処理装置。
Equipped with a gradation reproduction unit that has multiple gradation reproduction settings,
The determining unit determines the number of lines of halftone dots of the document based on an output value obtained by inputting the image data feature amount in a mathematical expression using the result of the machine learning corresponding to the gradation reproduction setting. The image processing apparatus according to claim 7, wherein:
前記判定部は、モノクロ出力又はカラー出力の何れかの出力に対応する前記機械学習の結果を用いた数式に、前記画像データ特徴量を入力して得られる出力値に基づき、前記原稿の網点の線数を判定することを特徴とする請求項7に記載の画像処理装置。   The determination unit, based on an output value obtained by inputting the image data feature amount in a mathematical expression using the result of the machine learning corresponding to either monochrome output or color output, the halftone dot of the original document. The image processing apparatus according to claim 7, wherein the number of lines of the image processing device is determined. 前記判定部において、前記機械学習の結果を用いた数式の出力値に対して網点線数を判定する閾値を変更可能とすることを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the determination unit is capable of changing a threshold value for determining a halftone frequency with respect to an output value of a mathematical expression using the result of the machine learning. 請求項1から15のいずれか1項に記載の画像処理装置と、
前記画像処理装置によって処理された画像データに基づき、画像を形成する画像形成部を備えた画像形成装置。
An image processing apparatus according to any one of claims 1 to 15,
An image forming apparatus including an image forming unit that forms an image based on image data processed by the image processing apparatus.
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を含むことを特徴とする画像処理方法。
An image data input step of scanning a document and inputting it as image data,
The original document based on the image data characteristic amount including a first characteristic amount indicating a frequency of gradation change between adjacent pixels of the image data and a second characteristic amount indicating a magnitude of the gradation change of the image data. A determination step of determining the number of lines of the halftone dot
An image processing step of performing image processing on the image data according to the determination result of the determination step;
An image processing method comprising:
画像処理装置のプロセッサに、
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を実行させる画像処理プログラム。
In the processor of the image processing device,
An image data input step of scanning a document and inputting it as image data,
The original document based on the image data characteristic amount including a first characteristic amount indicating the frequency of gradation change between adjacent pixels of the image data and a second characteristic amount indicating the magnitude of the gradation change of the image data. A determination step of determining the number of lines of the halftone dot of
An image processing step of performing image processing on the image data according to the determination result of the determination step;
An image processing program for executing.
画像処理装置のプロセッサに、
原稿を走査して、画像データとして入力する画像データ入力ステップと、
前記画像データの隣接画素間の濃淡変化の頻度を示す第1の特徴量と、前記画像データの濃淡変化の大小の程度を示す第2の特徴量とを含む画像データ特徴量に基づいて前記原稿の網点の線数を判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記画像データに画像処理を行う画像処理ステップと、
を実行させる画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
In the processor of the image processing device,
An image data input step of scanning a document and inputting it as image data,
The original document based on the image data characteristic amount including a first characteristic amount indicating a frequency of gradation change between adjacent pixels of the image data and a second characteristic amount indicating a magnitude of the gradation change of the image data. A determination step of determining the number of lines of the halftone dot
An image processing step of performing image processing on the image data according to the determination result of the determination step;
A computer-readable recording medium recording an image processing program for executing the following.
JP2018205146A 2018-10-31 2018-10-31 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium Active JP7123752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018205146A JP7123752B2 (en) 2018-10-31 2018-10-31 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018205146A JP7123752B2 (en) 2018-10-31 2018-10-31 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Publications (2)

Publication Number Publication Date
JP2020069717A true JP2020069717A (en) 2020-05-07
JP7123752B2 JP7123752B2 (en) 2022-08-23

Family

ID=70549056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018205146A Active JP7123752B2 (en) 2018-10-31 2018-10-31 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Country Status (1)

Country Link
JP (1) JP7123752B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036364A (en) * 2023-10-09 2023-11-10 全芯智造技术有限公司 Image processing method and device, storage medium and computing equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006197037A (en) * 2005-01-11 2006-07-27 Sharp Corp Image processor, image forming apparatus, image read processor, image processing method, image processing program, and computer-readable recording medium
JP2006203703A (en) * 2005-01-21 2006-08-03 Sharp Corp Image processor, image forming apparatus, image reader, image processing method, image processing program, and computer readable recording medium
JP2006279329A (en) * 2005-03-28 2006-10-12 Sharp Corp Image processing apparatus, image forming apparatus, and method of processing image
US9628635B1 (en) * 2016-06-30 2017-04-18 Xerox Corporation Systems and methods for halftone frequency detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006197037A (en) * 2005-01-11 2006-07-27 Sharp Corp Image processor, image forming apparatus, image read processor, image processing method, image processing program, and computer-readable recording medium
JP2006203703A (en) * 2005-01-21 2006-08-03 Sharp Corp Image processor, image forming apparatus, image reader, image processing method, image processing program, and computer readable recording medium
JP2006279329A (en) * 2005-03-28 2006-10-12 Sharp Corp Image processing apparatus, image forming apparatus, and method of processing image
US9628635B1 (en) * 2016-06-30 2017-04-18 Xerox Corporation Systems and methods for halftone frequency detection

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036364A (en) * 2023-10-09 2023-11-10 全芯智造技术有限公司 Image processing method and device, storage medium and computing equipment
CN117036364B (en) * 2023-10-09 2024-01-02 全芯智造技术有限公司 Image processing method and device, storage medium and computing equipment

Also Published As

Publication number Publication date
JP7123752B2 (en) 2022-08-23

Similar Documents

Publication Publication Date Title
JP4166744B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4170353B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, program, and recording medium
JP4197346B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4139834B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium recording image processing program
JP4496239B2 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
US20100091348A1 (en) Image processing apparatus
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP2010124413A (en) Image processor, image forming apparatus, computer program, recording medium, and image processing method
JP7123752B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP6474315B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP4522978B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4545766B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing program, and recording medium
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP4039911B2 (en) Image processing apparatus and image processing method
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JP3933941B2 (en) Image processing method, image processing apparatus, and image forming apparatus
JP4498316B2 (en) Image processing apparatus, image processing method, image forming apparatus, and computer program
JP2004248103A (en) Image processing device, image reading device, image forming device, image processing method, image processing program, and computer readable record medium recording the same
JP2011015172A (en) Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image
JP4958626B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2009055121A (en) Image processing device, image processing method, image forming apparatus and program, recording medium
JP2008252292A (en) Image processing method, image processing apparatus, image forming apparatus, computer program and recording medium
JP2003224718A (en) Image processing method and image processor
JP4545134B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220810

R150 Certificate of patent or registration of utility model

Ref document number: 7123752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150