JP7167848B2 - Image processing apparatus, image forming apparatus, and image area determination method. - Google Patents

Image processing apparatus, image forming apparatus, and image area determination method. Download PDF

Info

Publication number
JP7167848B2
JP7167848B2 JP2019093496A JP2019093496A JP7167848B2 JP 7167848 B2 JP7167848 B2 JP 7167848B2 JP 2019093496 A JP2019093496 A JP 2019093496A JP 2019093496 A JP2019093496 A JP 2019093496A JP 7167848 B2 JP7167848 B2 JP 7167848B2
Authority
JP
Japan
Prior art keywords
image
value
area
boundary
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019093496A
Other languages
Japanese (ja)
Other versions
JP2020188424A (en
Inventor
裕樹 保立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019093496A priority Critical patent/JP7167848B2/en
Publication of JP2020188424A publication Critical patent/JP2020188424A/en
Application granted granted Critical
Publication of JP7167848B2 publication Critical patent/JP7167848B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、画像処理装置、画像形成装置及び画像領域判別方法に関する。 The present invention relates to an image processing apparatus, an image forming apparatus, and an image area discrimination method.

画像形成装置では、所定のスクリーンが適用されて、色材の付与領域と付与されない領域の比によって指定された濃度の中間調画像を形成する技術が知られている。スクリーン処理としては、ドットで表現される網点スクリーンと所定方向に延びる線で表現されるラインスクリーンとが多く用いられている。一方、文字などの輪郭が鮮明な画像を形成する場合には、エッジ(輪郭)を強調する処理を行うことで画質の向上が図られている。 In an image forming apparatus, a technique is known in which a predetermined screen is applied to form a halftone image with a density designated by a ratio of a colorant-applied area and a non-applied area. As screen processing, a halftone screen represented by dots and a line screen represented by lines extending in a predetermined direction are often used. On the other hand, when forming an image with sharp contours such as characters, the image quality is improved by performing processing for emphasizing the edges (contours).

このようなスクリーン処理がなされた画像を読取装置で読み取って、この読み取られた画像の形成(複写など)をさらに行う場合、上述のスクリーンの解像度と読取装置の読み取り解像度との差異などにより、モアレなどの人工的なむらが生じることが知られている。そこで、読取画像データのうち、上記輪郭を強調する部分以外の部分では、スムージング(平滑化)の処理がなされる。輪郭強調処理と平滑化処理とは、正反対の処理であるので、処理領域がそれぞれ正確に特定されて分離されないと画質が低下する。これに対し、文字部分と背景部分との分離を高精度で行う技術(特許文献1)、及びラインスクリーンを適切に読み取る技術が開示されている(特許文献2)。 When an image subjected to such screen processing is read by a reading device and the read image is further formed (copied, etc.), moire may occur due to the difference between the screen resolution and the reading resolution of the reading device. It is known that artificial unevenness such as Therefore, in the read image data, a smoothing process is performed on the portion other than the portion where the contour is emphasized. Since edge enhancement processing and smoothing processing are diametrically opposed processes, the image quality deteriorates unless the processing regions are accurately specified and separated. On the other hand, a technique for separating a character portion and a background portion with high accuracy (Patent Document 1) and a technique for appropriately reading a line screen are disclosed (Patent Document 2).

特開2013-42415号公報JP 2013-42415 A 特開2017-147485号公報JP 2017-147485 A

しかしながら、ラインスクリーンの適用処理がなされた領域内で文字領域を判別、抽出するのは、現状では難しい。したがって、同じ平滑化の処理がなされる網点スクリーンの適用処理がなされた領域とラインスクリーンの適用処理がなされた領域とを確実に特定、処理する必要があるという課題がある。 However, it is currently difficult to identify and extract a character area within an area to which line screen application processing has been performed. Therefore, there is a problem that it is necessary to reliably identify and process an area to which the halftone screen application process and the area to which the line screen application process are applied, which are subjected to the same smoothing process.

この発明の目的は、より適切にラインスクリーンの適用領域を特定可能な画像処理装置、画像形成装置及び画像領域判別方法を提供することにある。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus, an image forming apparatus, and an image area determination method that can more appropriately specify a line screen application area.

上記目的を達成するため、請求項1記載の発明は、
各画素値が多階調で表された画像の入力データにおいて指定エリアを定め、当該指定エリア内の複数の前記画素値の頻度分布を取得する分布取得部と、
前記分布取得部により取得された前記頻度分布に基づいて、前記画素値を二値化する境界値を設定する境界設定部と、
前記指定エリア内の前記複数の画素値を前記境界値により二値化した二値画像データを生成する二値化部と、
前記二値画像データに基づいて、ラインスクリーン処理に応じた縞状構造を特定する第1特定部と、
を備え、
前記境界設定部は、前記頻度分布において頻度が極小となる画素値に基づいて2個の前記境界値を設定する
ことを特徴とする画像処理装置である。
In order to achieve the above object, the invention according to claim 1,
a distribution acquisition unit that determines a specified area in input data of an image in which each pixel value is represented by multiple gradations, and acquires a frequency distribution of the plurality of pixel values in the specified area;
a boundary setting unit that sets a boundary value for binarizing the pixel value based on the frequency distribution acquired by the distribution acquisition unit;
a binarization unit that generates binary image data by binarizing the plurality of pixel values in the designated area using the boundary value;
a first identifying unit that identifies a striped structure corresponding to line screen processing based on the binary image data;
with
The image processing apparatus is characterized in that the boundary setting unit sets the two boundary values based on a pixel value having a minimum frequency in the frequency distribution.

また、請求項2記載の発明は、請求項1記載の画像処理装置において、
前記第1特定部は、前記2個の境界値の少なくともいずれかにより得られた前記二値画像データから前記縞状構造が特定された場合に、前記指定エリアがラインスクリーンの適用エリアであると特定することを特徴とする。
Further, the invention according to claim 2 is the image processing apparatus according to claim 1,
The first identification unit determines that the designated area is a line screen application area when the striped structure is identified from the binary image data obtained from at least one of the two boundary values. It is characterized by specifying.

また、請求項3記載の発明は、請求項2記載の画像処理装置において、
前記第1特定部は、前記二値画像データにおける二値の交互な出現パターンに基づいて前記縞状構造を特定することを特徴とする。
Further, the invention according to claim 3 is the image processing apparatus according to claim 2,
The first identification unit identifies the striped structure based on an alternate appearance pattern of binary values in the binary image data.

また、請求項4記載の発明は、請求項1~3のいずれか一項に記載の画像処理装置において、
前記境界設定部は、前記頻度分布において頻度が極小となる画素値が2点存在しない場合には、前記頻度分布における所定の代表値から所定幅だけ上下にそれぞれずらした値を前記2個の境界値として設定することを特徴とする。
Further, the invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3,
If there are no two pixel values with a minimum frequency in the frequency distribution, the boundary setting unit sets a value shifted up and down by a predetermined width from a predetermined representative value in the frequency distribution as the two boundaries. It is characterized by being set as a value.

また、請求項5記載の発明は、請求項4記載の画像処理装置において、
前記所定の代表値は、前記指定エリアにおける各画素値の平均値及び中央値の平均であり、
前記所定幅は、前記指定エリアにおける画素値の最大値と最小値の差分に対する所定の割合を示す係数を乗じた値である
ことを特徴とする。
Further, the invention according to claim 5 is the image processing apparatus according to claim 4,
The predetermined representative value is the average of the average value and the median value of each pixel value in the specified area,
The predetermined width is a value obtained by multiplying the difference between the maximum and minimum pixel values in the specified area by a coefficient indicating a predetermined ratio.

また、請求項6記載の発明は、請求項5記載の画像処理装置において、
前記係数を記憶する記憶部を備えることを特徴とする。
Further, the invention according to claim 6 is the image processing apparatus according to claim 5,
A storage unit for storing the coefficient is provided.

また、請求項7記載の発明は、請求項5又は6記載の画像処理装置において、
前記係数は、前記2個の境界値が得られた場合の当該境界値に基づいて求められた値であることを特徴とする。
Further, the invention according to claim 7 is the image processing device according to claim 5 or 6,
The coefficient is a value obtained based on the boundary values when the two boundary values are obtained.

また、請求項8記載の発明は、請求項1~7のいずれか一項に記載の画像処理装置において、
前記入力データは、複数の色成分でそれぞれ画素値が定められている多階調の画像の成分データを含み、
前記第1特定部は、前記成分データのいずれかで前記指定エリアの前記縞状構造が特定された場合に、当該指定エリアがラインスクリーンの適用エリアであると特定することを特徴とする。
Further, the invention according to claim 8 is the image processing apparatus according to any one of claims 1 to 7,
the input data includes component data of a multi-tone image in which pixel values are determined for each of a plurality of color components;
The first identifying unit is characterized in that, when the striped structure of the designated area is identified by any of the component data, the designated area is identified as a line screen application area.

また、請求項9記載の発明は、請求項1~8のいずれか一項に記載の画像処理装置において、
前記指定エリアにおける文字の表示部分を特定する第2特定部と、
前記入力データのうち、前記縞状構造が特定された前記指定エリアに対して平滑化処理を行う第1処理部と、
前記入力データのうち、文字の表示部分が特定された前記指定エリアに対して文字の輪郭を強調する強調処理を行う第2処理部と、
を備えることを特徴とする。
Further, the invention according to claim 9 is the image processing apparatus according to any one of claims 1 to 8,
a second specifying unit that specifies a character display portion in the specified area;
a first processing unit that performs a smoothing process on the designated area in which the striped structure is identified in the input data;
a second processing unit that performs an emphasis process for emphasizing an outline of a character in the specified area in which a character display portion is specified in the input data;
characterized by comprising

また、請求項10記載の発明は、
請求項1~9のいずれか一項に記載の画像処理装置と、
前記入力データに基づいて画像形成動作を行う形成動作部と、
を備えることを特徴とする画像形成装置である。
Further, the invention according to claim 10,
The image processing device according to any one of claims 1 to 9,
a forming operation unit that performs an image forming operation based on the input data;
An image forming apparatus comprising:

また、請求項11記載の発明は、
各画素値が多階調で表された画像の入力データにおいて指定エリアを定め、当該指定エリア内の複数の前記画素値の頻度分布を取得する分布取得ステップ、
前記分布取得ステップで取得された前記頻度分布に基づいて、前記画素値を二値化する境界値を設定する境界設定ステップ、
前記指定エリア内の前記複数の画素値を前記境界値により二値化した二値画像データを生成する二値化ステップ、
前記二値画像データに基づいて、ラインスクリーン処理に応じた縞状構造を特定する第1特定ステップ、
を含み、
前記境界設定ステップでは、前記頻度分布における頻度が極小となる画素値に基づいて2個の前記境界値を設定する
ことを特徴とする画像領域判別方法である。
Further, the invention according to claim 11,
A distribution obtaining step of determining a designated area in the input data of an image in which each pixel value is expressed in multiple gradations and obtaining a frequency distribution of the plurality of pixel values in the designated area;
A boundary setting step of setting a boundary value for binarizing the pixel value based on the frequency distribution obtained in the distribution obtaining step;
a binarization step of generating binary image data by binarizing the plurality of pixel values in the designated area using the boundary value;
a first identifying step of identifying a striped structure corresponding to line screen processing based on the binary image data;
including
The image region determination method is characterized in that in the boundary setting step, two boundary values are set based on a pixel value having a minimum frequency in the frequency distribution.

本発明に従うと、より適切にラインスクリーンの適用エリアを特定することができるという効果がある。 ADVANTAGE OF THE INVENTION According to this invention, there exists an effect that the applicable area of a line screen can be specified more appropriately.

本実施形態の画像形成装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an image forming apparatus according to an embodiment; FIG. スクリーン処理に用いられるスクリーンを説明する模式図である。It is a schematic diagram explaining the screen used for screen processing. 領域の判別結果と、当該領域に対する処理との対応関係を示す図表である。FIG. 10 is a table showing a correspondence relationship between a determination result of an area and a process for the area; FIG. ラインスクリーンの適用領域の特定について説明する図である。It is a figure explaining specification of the application area of a line screen. ラインスクリーンの適用処理がなされた画像の読取結果の例を示す図である。FIG. 10 is a diagram showing an example of a reading result of an image on which line screen application processing has been performed; 網点スクリーンの適用処理がなされたエリアの読取画像の例を示す図である。FIG. 10 is a diagram showing an example of a read image of an area to which halftone screen application processing has been performed; 網点スクリーンの適用処理がなされたエリアの読取画像の他の例を示す図である。FIG. 10 is a diagram showing another example of a read image of an area to which halftone screen application processing has been performed; 網点スクリーンの適用処理がなされたエリアの二値画像の例を示す図である。FIG. 10 is a diagram showing an example of a binary image of an area to which halftone screen application processing has been performed; 境界値設定処理及びラインスクリーン判別処理の手順を示すフローチャートである。5 is a flowchart showing procedures of boundary value setting processing and line screen determination processing;

以下、本発明の実施の形態を図面に基づいて説明する。
図1は、本実施形態の画像形成装置1の構成を示すブロック図である。図1(a)は、画像形成装置1の全体構成を示すブロック図であり、図1(b)は、画像処理部12の機能構成を示すブロック図である。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing the configuration of an image forming apparatus 1 of this embodiment. 1A is a block diagram showing the overall configuration of the image forming apparatus 1, and FIG. 1B is a block diagram showing the functional configuration of the image processing section 12. As shown in FIG.

図1(a)に示すように、画像形成装置1は、通信部11と、画像処理部12と、形成動作部21などを備える。
通信部11は、外部機器との間で所定の通信規格(TCP/IPなど)に従ってデータの送受信を行う。通信部11は、例えば、ネットワークカードなどを有し、LAN(Local Area Network)によりデータの送受信を行う。また、通信部11の送受信データには、USBケーブルを用いたもののように、外部機器との間をつなぐ専用線を介したものが含まれてよく、また、Bluetooth(登録商標)による近距離無線通信などのように、ケーブルを用いない通信によるものが含まれていてもよい。ここでは、通信部11は、読取装置(スキャナー)で読み取られた画像データを受信して画像処理部12に送る。
As shown in FIG. 1A, the image forming apparatus 1 includes a communication section 11, an image processing section 12, a forming operation section 21, and the like.
The communication unit 11 transmits and receives data to and from an external device according to a predetermined communication standard (TCP/IP, etc.). The communication unit 11 has, for example, a network card or the like, and transmits and receives data via a LAN (Local Area Network). In addition, data transmitted and received by the communication unit 11 may include data via a dedicated line connecting to an external device, such as data using a USB cable. Communication without cables, such as communication, may be included. Here, the communication unit 11 receives image data read by a reading device (scanner) and sends the image data to the image processing unit 12 .

画像処理部12は、本実施形態の画像処理装置に含まれ、入力された画像データに基づいて画像形成を行うための画像処理を行う。画像処理部12は、制御部121と、メモリー122(記憶部)などを備える。入力された画像データは、メモリー122に一時記憶され、制御部121により後述のように処理される。また、メモリー122には、設定データ及び制御プログラムなどが記憶されていてよい。 The image processing unit 12 is included in the image processing apparatus of this embodiment, and performs image processing for image formation based on input image data. The image processing unit 12 includes a control unit 121, a memory 122 (storage unit), and the like. The input image data is temporarily stored in the memory 122 and processed by the control section 121 as described later. The memory 122 may also store setting data, control programs, and the like.

制御部121は、各種画像処理を行うハードウェア回路と、画像形成装置1の全体動作を統括制御するCPU(Central Processing Unit)などを備えるハードウェアプロセッサーである。 The control unit 121 is a hardware processor including a hardware circuit that performs various types of image processing, a CPU (Central Processing Unit) that performs overall control of the overall operation of the image forming apparatus 1, and the like.

形成動作部21は、形成対象の画像データに応じて色材を付与して定着させるといった画像形成動作を行うエンジンである。形成動作部21の具体的な画像形成方式は、特には限定されず、例えば、電子写真方式であってもインクジェット方式であってもよい。 The forming operation unit 21 is an engine that performs an image forming operation such as applying and fixing coloring material according to image data to be formed. A specific image forming method of the forming operation unit 21 is not particularly limited, and may be, for example, an electrophotographic method or an inkjet method.

図1(b)に示すように画像処理部12は、頻度分布取得部151(分布取得部、分布取得ステップ)と、境界値設定部152(境界設定部、境界設定ステップ)と、二値化処理部153(二値化部、二値化ステップ)と、ラインスクリーン判別部154(第1特定部、第1特定ステップ)と、文字判別部155(第2特定部)と、網点スクリーン判別部156と、形成データ処理部157などを有する。各部の機能動作については、後に詳述する。これらの各部は、例えば、それぞれASIC(Application Specific Integrated Circuit)により専用に構成されたハードウェア回路であってよい。 As shown in FIG. 1B, the image processing unit 12 includes a frequency distribution acquisition unit 151 (distribution acquisition unit, distribution acquisition step), a boundary value setting unit 152 (boundary setting unit, boundary setting step), and binarization. Processing unit 153 (binarization unit, binarization step), line screen discrimination unit 154 (first specification unit, first specification step), character discrimination unit 155 (second specification unit), halftone screen discrimination It has a unit 156, a formation data processing unit 157, and the like. The functional operation of each part will be detailed later. Each of these units may be, for example, a hardware circuit configured exclusively by an ASIC (Application Specific Integrated Circuit).

次に、画像の入力データ(入力画像データ)について説明する。外部の読取装置(スキャナー)で読み取られた画像データは、読取装置の解像度に応じた多数の画素が配列されて、各々の画素が所定の多階調(3階調以上、ここでは例えば256階調)の画素値(階調値、カラー画像などがRGBなどの複数の色成分でそれぞれ取得された場合には、色成分ごとにそれぞれ階調値が定まり、各々多階調の成分データが得られる)で表現されたビットマップ(ピックスマップ)データである。一方で、読み取られる対象の画像には、当該画像を形成した画像形成装置の記録解像度及び濃度階調に応じたスクリーンを適用する処理(スクリーン処理)により中間調を表現したものが含まれていてよい。 Next, image input data (input image data) will be described. Image data read by an external reading device (scanner) has a large number of pixels arranged according to the resolution of the reading device, and each pixel has a predetermined multi-gradation (three or more gradations, here, for example, 256 levels). When pixel values (gradation values, color images, etc.) are obtained with a plurality of color components such as RGB, the gradation value is determined for each color component, and multi-gradation component data is obtained for each. It is bitmap (pixmap) data expressed in On the other hand, the image to be read contains halftones expressed by processing (screen processing) that applies a screen according to the recording resolution and density gradation of the image forming apparatus that formed the image. good.

図2は、スクリーン処理に用いられるスクリーンを説明する模式図である。図2(a)は、網点スクリーン処理による処理画像部分の拡大図であり、微細なドット(点)の分布密度及び/又はサイズに応じて階調表現がなされる。図2(b)は、ラインスクリーン処理による処理画像部分の拡大図であり、所定の方向に延びるラインの密度及び/又は幅に応じて階調表現がなされる。すなわち、ラインスクリーン処理がなされた画像のエリアには、多数のラインが並行に等間隔で並んだ微細な縞状構造が生じている。例えば、模様、背景、絵図、写真画像などの中間調を含む多階調画像では、これらのスクリーンが状況などに応じて選択されて中間調が表現されている。文字、丸及び多角形といった図形、表枠、線、並びに矢印といった標識など(まとめて文字などと記す)の表示であって、中間調を用いない二値画像では、スクリーンを利用せずに文字などの輪郭内をベタに塗りつぶすことで画像が形成されている。 FIG. 2 is a schematic diagram illustrating a screen used for screen processing. FIG. 2(a) is an enlarged view of an image portion processed by halftone screen processing, and gradation expression is performed according to the distribution density and/or size of fine dots (points). FIG. 2(b) is an enlarged view of an image portion processed by line screen processing, and gradation expression is performed according to the density and/or width of lines extending in a predetermined direction. That is, in the area of the image subjected to the line screening process, a fine striped structure in which a large number of lines are arranged in parallel at equal intervals is generated. For example, in multi-tone images such as patterns, backgrounds, drawings, and photographic images, these screens are selected according to the situation to express the halftones. Display of characters, figures such as circles and polygons, signs such as table frames, lines, and arrows (collectively referred to as characters, etc.). An image is formed by solidly filling the inside of the outline such as .

次に、これら各スクリーン処理が行われた画像の読取データにおける各領域の検出動作について説明する。
スクリーン処理が用いられた画像を読取装置の撮像部などによりデジタル撮像して読み取ったビットマップデータでは、特に、スクリーンの解像度と読み取り解像度が異なる場合などに、読取画像に人工的なむらが生じたり、粒状感が目立ったりする。そこで、読取データにスムージングをかけて各画素値(階調値)を平滑化する画像処理(平滑化処理)が行われる。一方で、文字及び図形などに対してスムージングをかけると輪郭がぼやけて不明瞭となるので、これらの輪郭を検出して強調する画像処理(輪郭強調処理)が行われる。これらの画像処理を行うために、読取画像データに対して文字領域(図形の輪郭を含めてよい)の判別処理、及び各スクリーン処理がなされた画像領域(スクリーン処理領域、スクリーンの適用エリア)の判別処理が行われる。これらの処理は独立に行われてよい。これらの判別処理は、人間の視認可能なサイズなどに応じた微小な判別領域(指定エリア)を設定して(ここでは例えば、37×37ピクセル。画像解像度及び/又はラインスクリーンの線密度などに応じて適宜、例えば、ライン間隔の10倍程度など、に変更されてよい)、この指定エリアを読取画像内で移動させながら各々行われる。
Next, the detection operation of each area in the read data of the image subjected to each screen processing will be described.
Bitmap data obtained by digitally capturing an image that has undergone screen processing and reading it using an imaging unit of a reading device may cause artificial unevenness in the read image, especially when the resolution of the screen and the reading resolution are different. , Granularity is conspicuous. Therefore, image processing (smoothing processing) is performed to smooth each pixel value (gradation value) by applying smoothing to the read data. On the other hand, if smoothing is applied to characters, graphics, etc., the contours become blurred and unclear, so image processing (contour enhancement processing) is performed to detect and emphasize these contours. In order to carry out these image processes, character areas (which may include the contours of figures) are determined on the read image data, and image areas (screen processing area, screen application area) subjected to each screen process are identified. Judgment processing is performed. These treatments may be performed independently. These discrimination processes are performed by setting a minute discrimination region (designated area) according to the size that can be visually recognized by humans (here, for example, 37×37 pixels. Depending on the image resolution and/or the line density of the line screen, etc. 10 times the line interval, etc.), while moving the specified area within the read image.

ここで、ラインスクリーン処理がなされた領域(ラインスクリーンの適用エリア)内に文字(図形及び標識などを含む)領域が含まれる場合には、いずれの場合でも平行な線状の構造が生じるので、現状では、ラインスクリーンの適用エリアから文字領域を抽出することが困難な場合がある。 Here, when a character (including graphics and signs) area is included in the area subjected to line screen processing (application area of line screen), a parallel linear structure is generated in any case. Currently, it may be difficult to extract a character region from the application area of the line screen.

図3は、領域の判別結果と、当該領域に対する処理との対応関係の例を示す図表である。
スクリーン処理(網点スクリーン処理又はラインスクリーン処理)がなされていると判別されたスクリーン処理領域に対しては、文字判別の結果によらず、平滑化処理(スムージング)がなされる。スクリーン処理領域ではないと判別され、かつ文字領域であると判別される文字領域では、文字などの輪郭を特定して、当該輪郭の輪郭強調処理がなされる。いずれの領域でもないと判別された場合には、平滑化処理及び輪郭強調処理のいずれも行われない。
FIG. 3 is a chart showing an example of the correspondence relationship between the area determination result and the process for the area.
A screen processing area determined to have undergone screen processing (halftone screen processing or line screen processing) is subjected to smoothing processing regardless of the result of character discrimination. In a character area that is determined not to be a screen processing area and is determined to be a character area, the contour of a character or the like is specified and contour enhancement processing is performed on the contour. If it is determined that the area is neither of these areas, neither the smoothing process nor the contour enhancement process is performed.

スクリーンの種類の判別は、網点スクリーンとラインスクリーンとで異なる処理がなされる。図4に示すように、ライン間の間隔dp(1本のライン及びこれに隣り合う背景色部分)(まとめてラインペアと記す)の幅の合計でもある)であるラインスクリーンの適用画像では、各ラインに垂直な方向(矢印方向)に沿って画素値を順に取得していくと、二値(例えば、「0」と「1」)が所定の間隔で(すなわち、所定の幅内に間隔dpに応じた回数)交互に出現する(二値の交互な出現パターン)。ある点を基準として各方向(例えば22.5度間隔で16方向)について、このような入れ替わりの回数を計数してその分布をとることで、縞状構造(ラインペアの繰り返し)を特定して、ラインスクリーン処理がなされた領域か否かが判別される。しかしながら、上述のように、読取画像では、読取解像度などに応じて元の画像における各画素の階調値と同一の読取画像データが取得されるわけではない。 Screen type discrimination is performed differently for halftone screens and line screens. As shown in FIG. 4, in an applied image of a line screen with an inter-line spacing dp (which is also the total width of a line and its adjacent background color portion) (collectively referred to as a line pair), When pixel values are obtained in order along the direction perpendicular to each line (the direction of the arrow), binary values (for example, “0” and “1”) are generated at predetermined intervals (that is, at intervals within a predetermined width). dp) appear alternately (binary alternate appearance pattern). By counting the number of such replacements in each direction (for example, 16 directions at intervals of 22.5 degrees) with a certain point as a reference and taking the distribution thereof, a striped structure (repetition of line pairs) is specified. , it is determined whether or not the area has undergone line screen processing. However, as described above, in the read image, read image data that is the same as the gradation value of each pixel in the original image is not necessarily obtained according to the read resolution or the like.

図5は、ラインスクリーン処理がなされた画像の読取結果の例を示す図である。図5(a)では、153lpi(lines per inch)で背景色部分(ここでは、白色)に対して縦の黒線を設けた基準パターン画像の256階調での読取結果を拡大して示している。この図で示されているように、低階調の線と高階調の線の間に中間階調の画素が並んでいるのが分かる。これらの画素値は、縦方向(黒線に沿った方向)についてほぼ同一となる。図5(b)には、この読取画像の各画素の階調値の頻度分布(ヒストグラム)を示している。このようなラインスクリーン処理がなされた画像が読み取られると、高階調の画素及び低階調の画素の間に、中間階調の画素が多く現れる。そして、このラインスクリーン処理がなされた画像の読取画像における頻度分布では、中間階調と、高階調及び低階調との間の階調値に頻度が極小となる部分(頻度極小値)がそれぞれ(合計で2つ)現れるという特徴を有することが本発明者により見出されている。 FIG. 5 is a diagram showing an example of the result of reading an image that has undergone line screen processing. FIG. 5A shows an enlarged reading result of a reference pattern image having vertical black lines against a background color portion (here, white) at 153 lpi (lines per inch) at 256 gradations. there is As shown in this figure, it can be seen that intermediate tone pixels are arranged between the low tone line and the high tone line. These pixel values are almost the same in the vertical direction (direction along the black line). FIG. 5B shows the frequency distribution (histogram) of the gradation values of each pixel of this read image. When an image that has been subjected to such line screen processing is read, many intermediate gradation pixels appear between high gradation pixels and low gradation pixels. In the frequency distribution of the read image of the image subjected to the line screen processing, there are portions (frequency minimum values) where the frequency is minimal in the gradation values between the intermediate gradation and the high gradation and the low gradation. It has been found by the inventor to have the feature of appearing (two in total).

このような頻度分布の読取画像データにおいて、単純に高階調と低階調の中間、例えば、全画素値又はサンプル範囲の画素値の平均値又は中央値などの代表値を境界値(閾値)として各画素を二値化すると、多数の中間調データが高階調側と低階調側とに不規則に分離してしまい、ラインスクリーン処理による微細パターン、すなわち各ラインが消滅する。ラインスクリーン処理がなされた画像(エリア)であるか否かを判別する場合には、頻度分布に基づいてこれら上記2つの頻度極小値を特定して、当該2つの頻度極小値をそれぞれ二値化の境界値として各々二値化することで、いずれかでラインスクリーン処理に応じた縞状構造が維持された二値画像が得られる。この二値画像を用いて上述のように縞状構造(高階調値の線と低階調値の線との組であるラインペアの反復構造)を検出することで、ラインスクリーン処理領域であるか否かが判別可能となる。なお、この場合の二値画像の濃度は、本来の画像の濃度階調よりも高くなったり低くなったりするが、この二値画像は、ラインスクリーン処理がなされているか否かの判別にしか用いられないので、特に問題は生じない。 In the read image data having such a frequency distribution, a boundary value (threshold) is simply a representative value such as the average value or the median value of all pixel values or pixel values in a sample range, which is intermediate between high gradation and low gradation. When each pixel is binarized, a large amount of halftone data is irregularly separated into a high gradation side and a low gradation side, and the fine pattern, that is, each line, disappears due to the line screening process. When determining whether or not the image (area) has undergone line screen processing, these two frequency minimum values are specified based on the frequency distribution, and the two frequency minimum values are binarized. By binarizing each as the boundary value of , a binary image in which the striped structure corresponding to the line screen processing is maintained is obtained. By using this binary image to detect the striped structure (repetitive structure of line pairs, which are sets of lines of high gradation value and lines of low gradation value) as described above, the line screen processing area is It becomes possible to determine whether or not Note that the density of the binary image in this case may be higher or lower than the density gradation of the original image, but this binary image is only used to determine whether or not line screen processing has been performed. No problems arise because the

すなわち、本実施形態の画像領域判別方法では、多階調画像データの指定エリアごとに画素値の頻度分布を取得し(図1(b)に示した頻度分布取得部151の処理)、当該頻度分布に基づいて上記指定エリア内の画素値を二値化するための境界値が定められる(図1(b)に示した境界値設定部152の処理)。これらの境界値により指定エリア内の各画素値を二値化して二値画像データを生成し(図1(b)に示した二値化処理部の処理)、生成された二値画像データにより、ラインスクリーン処理によって生じる(に応じた)縞状構造を特定することで、指定エリアにラインスクリーン処理がなされているか否かが判別される(図1(b)に示したラインスクリーン判別部154の処理)。頻度分布取得部151は、画素値の最小値「0」と最大値(例えば、「256」)との間を極小値が特定可能な適宜な間隔(例えば、「20」)で区分してよい。 That is, in the image area determination method of the present embodiment, the frequency distribution of pixel values is acquired for each designated area of multi-tone image data (processing of the frequency distribution acquisition unit 151 shown in FIG. 1B), and the frequency A boundary value for binarizing the pixel values in the specified area is determined based on the distribution (processing of the boundary value setting unit 152 shown in FIG. 1B). Each pixel value in the designated area is binarized by these boundary values to generate binary image data (processing of the binarization processing unit shown in FIG. 1(b)), and the generated binary image data is By specifying the striped structure caused by (according to) the line screen processing, it is determined whether or not the specified area has been subjected to the line screen processing (the line screen determination unit 154 shown in FIG. 1B). processing). The frequency distribution acquisition unit 151 may divide between the minimum value “0” and the maximum value (for example, “256”) of the pixel value by an appropriate interval (for example, “20”) that can identify the minimum value. .

また、上記の処理と別個に、文字(標識及び図形などを含む)の表示部分を判別する文字判別部155による処理、及び網点スクリーンの適用された領域を判別する網点スクリーン判別部156の処理が、上記指定エリア又は読取画像データ内で各処理に適切な設定エリア内の画素データに対してそれぞれ実行される。 Separately from the above processing, processing by a character discrimination unit 155 that discriminates the display portion of characters (including signs and graphics), and a halftone screen discrimination unit 156 that discriminates a region to which a halftone screen is applied. Processing is performed on the pixel data in the designated area or in the set area appropriate for each process in the read image data.

そして、これらの判別結果に基づいて、対応する領域にそれぞれ、形成データ処理部157の平滑化処理部157a(第1処理部)が平滑化処理を行い、輪郭処理部157b(第2処理部)が輪郭強調処理を行う。形成データ処理部157は、さらに、画像形成用に必要な各種処理、例えば、ハーフトーン処理及び/又は色調補正処理などを行ってもよい。 Based on these determination results, the smoothing processing unit 157a (first processing unit) of the formation data processing unit 157 performs smoothing processing on the corresponding regions, and the contour processing unit 157b (second processing unit) performs smoothing processing. performs edge enhancement processing. The formation data processing unit 157 may also perform various processing necessary for image formation, such as halftone processing and/or color tone correction processing.

ラインスクリーン処理がなされていない領域が指定エリアの場合などでは、ラインスクリーン判別部154では、頻度分布取得部151により取得された画素値の頻度分布において、通常では頻度極小値が2点存在(出現)しない。この場合には、所定の中心値(代表値)に対して上下に所定幅ずつそれぞれずれた値を2つの境界値としてよい。中心値としては、ここでは、指定エリア内の複数の画素値の平均値Aと中央値Mの平均(A+M)/2としてもよい。所定幅としては、頻度分布の最大値と最小値の差分で示される全幅Wに対する所定の割合を示す係数K(Kは1未満の適宜な値)を乗じた値K・Wとすることができる。すなわち、境界値は、(A+M)/2±K・Wとなる。係数Kは、予め求められてメモリー122に記憶されている。係数Kは、上述のように頻度分布から2個の頻度極小値が特定された場合における当該頻度極小値に応じた階調値と、当該頻度分布における代表値とに基づいて特定される。この値は、予め算出されて固定値として保持されてもよいし、境界値設定部152により2個の境界値(頻度極小値)が特定されるごとに従来値と重み付け平均を行うなどにより更新されてもよい。 In the case where an area that has not been subjected to line screen processing is a designated area, the line screen determination unit 154 normally determines that the frequency distribution of pixel values acquired by the frequency distribution acquisition unit 151 has two minimum frequency values. )do not do. In this case, the two boundary values may be values that are vertically shifted by a predetermined width with respect to a predetermined central value (representative value). Here, the median value may be the average (A+M)/2 of the average value A and the median value M of a plurality of pixel values in the designated area. The predetermined width can be a value K·W obtained by multiplying a coefficient K (K is an appropriate value less than 1) indicating a predetermined ratio with respect to the total width W indicated by the difference between the maximum value and the minimum value of the frequency distribution. . That is, the boundary value is (A+M)/2±K·W. The coefficient K is obtained in advance and stored in the memory 122 . The coefficient K is specified based on the gradation value corresponding to the two minimum frequency values specified from the frequency distribution as described above and the representative value in the frequency distribution. This value may be calculated in advance and held as a fixed value, or updated by weighted averaging with the conventional value each time two boundary values (frequency minimum values) are specified by the boundary value setting unit 152. may be

一方、網点スクリーンが適用されている領域において、ドットの検出は、従来と同様に、例えば、当該ドットの周囲各方向にドットと同様の低階調値領域が存在するか否かによって判別され得る。しかしながら、上記のように、読取画像データでは、網点スクリーン処理による各ドットの配列密度及び又は配列方向などに応じて、所定の方向に並ぶ複数のドットが見かけ上ではつながって読み取られる場合がある。 On the other hand, in the area to which the halftone screen is applied, detection of the dot is determined by, for example, whether or not there is a low tone value area similar to the dot in each direction around the dot in the same manner as in the conventional art. obtain. However, as described above, in the read image data, a plurality of dots arranged in a predetermined direction may appear to be connected and read depending on the arrangement density and/or the arrangement direction of each dot in halftone screen processing. .

図6は、網点スクリーン処理がなされたエリアの読取画像の例を示す図である。図6(a)は、読取画像の複数のドットを含むエリアを図5(a)と同じ倍率で拡大した図であり、図6(b)は、各画素の階調値の頻度分布を示した図である。
図6(a)に示した図では、低階調値のドット部分を中心に、周囲に階調が高い(明るい)部分が広がっている。このような網点スクリーンの適用エリアで階調値の頻度分布を取得すると、図6(b)に示すように、正しいラインスクリーンの適用エリアとは異なり、2か所の頻度極小値が出現しないことが本発明者により見出されている。すなわち、網点スクリーンの適用エリアでは、ドットの周囲で階調値がばらつく傾向がある。
FIG. 6 is a diagram showing an example of a read image of an area subjected to halftone screen processing. FIG. 6(a) is an enlarged view of an area including a plurality of dots of the read image at the same magnification as FIG. 5(a), and FIG. 6(b) shows the frequency distribution of the gradation value of each pixel. It is a diagram.
In the diagram shown in FIG. 6A, high (bright) gradation areas spread around a dot portion with a low gradation value. When the frequency distribution of gradation values is obtained in such a halftone screen application area, as shown in FIG. It has been found by the inventors of the present invention. That is, in the halftone screen application area, there is a tendency for gradation values to vary around dots.

図7は、網点スクリーン処理がなされたエリアの読取画像の他の例を示す図である。
読取の状況によっては、網点スクリーン処理がなされたエリアであっても、見かけ上複数のドットが所定の方向、ここでは、左上から右下への方向(矢印方向)につながっている傾向が現れる場合がある。この場合であっても、図6(b)に示した場合と同様に、階調値の頻度分布では、2個の頻度極小値が出現しない。
FIG. 7 is a diagram showing another example of a read image of an area subjected to halftone screen processing.
Depending on the reading situation, even in areas that have undergone halftone screen processing, there appears to be a tendency for multiple dots to appear to be connected in a predetermined direction, here from the upper left to the lower right (the direction of the arrow). Sometimes. Even in this case, as in the case shown in FIG. 6B, two minimum frequency values do not appear in the frequency distribution of the gradation values.

図8は、図7に示した網点スクリーンの適用処理がなされたエリアを二値化した図である。白マス部分と黒マス部分が二値のそれぞれを示している。図8(a)は、従来のように代表値(例えば、平均値)を用いて二値化した場合の二値画像の例を示す図である。図8(b)は、上述の網点スクリーン処理がなされた領域について算出された2つの境界値のうち高階調側の境界値を基準として二値化した場合の二値画像の例を示す図である。 FIG. 8 is a diagram obtained by binarizing the area to which the halftone screen application process shown in FIG. 7 has been performed. White squares and black squares indicate binary values. FIG. 8(a) is a diagram showing an example of a binary image in the case of binarization using a representative value (e.g., average value) as in the conventional art. FIG. 8B is a diagram showing an example of a binary image obtained by binarizing with reference to the boundary value on the higher gradation side of the two boundary values calculated for the area subjected to the halftone screen processing described above. is.

図8(a)に示すように、この図を従来のように二値化すると、矢印に沿った方向に、見かけ上、高階調値の画素(白部分)と低階調値の画素(黒部分)とが線状に伸びており、矢印と直交する方向に交互に高階調値部分と低階調値部分が出現する。したがって、このような領域は、従来の判別処理では、ラインスクリーンの適用エリアであると誤判定され得る。上述のように、ラインスクリーンの適用エリア内の文字領域は、判別、抽出が難しく、ラインスクリーンの適用エリアと誤判定されることで、文字領域も平滑化処理されることになる。この結果、ラインスクリーンの適用エリアと誤判定されると、文字領域に対して適切に輪郭強調処理を行うことが困難になるので、ラインスクリーンの適用エリアと網点スクリーンの適用エリアとを正確に判別したいという要求が生じる。 As shown in FIG. 8(a), if this diagram is binarized in the conventional manner, pixels with high gradation values (white portions) and pixels with low gradation values (black portions) appear to appear in the direction along the arrow. ) extend linearly, and high gradation value portions and low gradation value portions appear alternately in the direction perpendicular to the arrow. Therefore, such an area may be erroneously determined to be a line screen application area in the conventional determination process. As described above, it is difficult to identify and extract a character area within the line screen application area, and the character area is also subjected to smoothing processing when it is erroneously determined to be the line screen application area. As a result, if it is erroneously determined to be the application area of the line screen, it becomes difficult to appropriately perform edge enhancement processing on the character area. A desire to discriminate arises.

図8(b)に示すように、上述の網点スクリーン処理がなされた領域について算出された2つの境界値のうち高階調側の境界値を基準として二値化すると、見かけ上の縞状構造が消滅する。低階調側の境界値を基準とした場合でも同じように縞状構造が消滅する。よって、網点スクリーン処理がなされた領域をラインスクリーンの適用エリアとして誤認するのが抑制される。 As shown in FIG. 8(b), binarization based on the boundary value on the higher gradation side of the two boundary values calculated for the area subjected to the above halftone screen processing results in an apparent striped structure. disappears. Even when the boundary value on the low gradation side is used as a reference, the striped structure similarly disappears. Therefore, it is possible to suppress misidentification of a region subjected to halftone screen processing as a line screen application area.

図9は、画像処理部12で実行される境界値設定処理及びラインスクリーン判別処理の手順を示すフローチャートである。
図9(a)に示す境界値設定処理は、頻度分布取得部151により指定エリアの頻度分布が取得されて当該頻度分布のデータが境界値設定部152に入力されることで開始される。上述のように、指定エリアは入力画像データにおいて位置を変更させながら順次指定されていくので、当該指定に応じて繰り返し実行されてよい。
FIG. 9 is a flow chart showing the procedure of the boundary value setting process and the line screen determination process executed by the image processing section 12. As shown in FIG.
The boundary value setting process shown in FIG. 9A is started when the frequency distribution of the designated area is obtained by the frequency distribution obtaining unit 151 and data of the frequency distribution is input to the boundary value setting unit 152 . As described above, the specified area is sequentially specified while changing the position in the input image data, so the process may be repeatedly executed according to the specification.

頻度分布が取得されると(ステップS201)、境界値設定部152では、当該頻度分布において頻度(度数)の極小値が2つあるか否かが判別される(ステップS202)。極小値が2つあると判別された場合には(ステップS202で“YES”)、境界値設定部152では、当該2つの極小値に応じた画素値を2つの境界値として決定する(ステップS203)。そして、境界値設定処理を終了する。 When the frequency distribution is acquired (step S201), the boundary value setting unit 152 determines whether or not there are two minimum values of frequency (frequency) in the frequency distribution (step S202). If it is determined that there are two minimum values ("YES" in step S202), the boundary value setting unit 152 determines pixel values corresponding to the two minimum values as two boundary values (step S203). ). Then, the boundary value setting process ends.

極小値が2つないと判別された場合には(ステップS202で“NO”)、境界値設定部152では、頻度分布に基づいて近似的に中央値Mと平均値Aとが算出される(ステップS213)。なお、頻度分布を用いずに、元の入力画像データから中央値Mと平均値Aとが算出されてもよい。 If it is determined that there are no two minimum values ("NO" in step S202), the boundary value setting unit 152 approximately calculates the median value M and the average value A based on the frequency distribution (step S213). Note that the median value M and the average value A may be calculated from the original input image data without using the frequency distribution.

境界値設定部152では、画素値の最大値と最小値との差分である全幅Wが算出される(ステップS214)。画素値の最大値及び最小値は、頻度分布に基づいて近似的に求められてもよいし、元の入力画像データから特定されてもよい。求められた中央値M、平均値A、全幅W及び所定の係数Kにより、二値化の2つの境界値D=(M+A)/2±K・Wを算出、設定する(ステップS215)。そして、境界値設定処理が終了する。 The boundary value setting unit 152 calculates the full width W, which is the difference between the maximum and minimum pixel values (step S214). The maximum and minimum pixel values may be approximately obtained based on the frequency distribution, or may be specified from the original input image data. Two boundary values D=(M+A)/2±K·W for binarization are calculated and set from the determined median value M, average value A, full width W, and predetermined coefficient K (step S215). Then, the boundary value setting process ends.

図9(b)に示すラインスクリーン判別処理は、境界値設定処理で設定された二値化の境界値Dにより二値化処理部153でそれぞれ二値化された2種類の入力画像データ(指定エリアのデータ)がラインスクリーン判別部154に入力されることで開始される。 The line screen determination process shown in FIG. 9B includes two types of input image data (specified area data) is input to the line screen determination unit 154. FIG.

ラインスクリーン判別部154では、入力された2つの二値化データを取得する(ステップS301)。上述したように、各二値化データにおいて、濃淡ラインが交互に出現する配列が二値化データ内を所定方向に延びる線分に沿って所定回数以上存在するか否かを判別することで、ラインスクリーン処理による縞状構造に応じた二値配列(ラインスクリーンパターンと記す)を検出する(ステップS302)。 The line screen determination unit 154 acquires the two input binarized data (step S301). As described above, in each binarized data, by determining whether or not an array in which gradation lines appear alternately exists a predetermined number of times or more along a line segment extending in a predetermined direction in the binarized data, A binary array (referred to as a line screen pattern) corresponding to the striped structure by line screen processing is detected (step S302).

ラインスクリーン判別部154では、いずれかの二値化データでラインスクリーンパターンが検出されたと判別されたか否かを判別する(ステップS303)。少なくともいずれか一方でラインスクリーンパターンが検出されたと判別された場合には(ステップS303で“YES”)、ラインスクリーン判別部154では、指定エリアがラインスクリーンの適用エリアであると判別される(ステップS304)。そして、ラインスクリーン判別処理が終了する。 The line screen determination unit 154 determines whether or not it is determined that a line screen pattern has been detected in any of the binarized data (step S303). If it is determined that a line screen pattern has been detected in at least one of them ("YES" in step S303), the line screen determination unit 154 determines that the specified area is the line screen application area (step S304). Then, the line screen discrimination process ends.

いずれの二値化データでもラインスクリーンパターンが検出されなかったと判別された場合には(ステップS303で“NO”)、ラインスクリーン判別部154では、指定エリアがラインスクリーンの適用エリアではないと判別される(ステップS314)。そして、ラインスクリーン判別処理が終了する。 If it is determined that the line screen pattern is not detected in any of the binarized data ("NO" in step S303), the line screen determination unit 154 determines that the designated area is not the line screen application area. (step S314). Then, the line screen discrimination process ends.

なお、多階調の画像データ(指定エリアのデータ)として複数の色成分の各成分データが保持されている場合、には、各成分データの指定エリアのうち2以上の一部又は全部に対してそれぞれ上記の処理を行い、いずれかの色成分においてラインスクリーン判別部154により縞状構造が特定された場合には、ラインスクリーンの適用領域であると判別(すなわち、論理OR)してよい。 In addition, when each component data of a plurality of color components is held as multi-tone image data (data of designated area), for two or more of the designated areas of each component data, If the line screen determination unit 154 identifies a striped structure in any of the color components, it may be determined to be a line screen applicable area (that is, logical OR).

以上のように、本実施形態の画像処理部12は、各画素値が多階調(例えば、256階調)で表された画像の入力データにおいて指定エリアを定め、当該指定エリア内の複数の画素値の頻度分布を取得する頻度分布取得部151と、頻度分布取得部151により取得された頻度分布に基づいて、画素値を二値化する境界値を設定する境界値設定部152と、指定エリア内の複数の画素値を境界値により二値化した二値画像データを生成する二値化処理部153と、二値画像データに基づいて、ラインスクリーン処理に応じた縞状構造を特定するラインスクリーン判別部154と、を備える。境界値設定部152は、頻度分布において頻度が極小となる画素値(頻度極小値)に基づいて2個の境界値を設定する。
このように、本発明者により見出されているラインスクリーンの適用画像における頻度分布の特徴に基づいて、頻度分布における頻度の極小値に対応する階調値を境界値として二値化判断を行うので、読取画像における中間階調値が二値の両側に分かれて中途半端な二値画像にならず、より適切に二値のいずれかが反映される。これにより、スクリーン処理が適用された画像において、スクリーン適用部分のスクリーンパターンをより忠実に反映した二値画像が得られる。したがって、ラインスクリーンが適用されたエリアの縞状構造(ラインペア)がより確実に検出される一方、網点スクリーンが適用されたエリアの読取による見かけ上の縞状構造をより確実に排除することが可能になる。よって、ラインスクリーンが適用されたエリアをより確実に特定することができ、これにより、ラインスクリーンの適用エリア外で文字領域の特定漏れを抑制することが可能になる。
As described above, the image processing unit 12 of the present embodiment defines a designated area in the input data of an image in which each pixel value is represented by multiple gradations (for example, 256 gradations), and a plurality of pixels in the designated area. A frequency distribution acquisition unit 151 that acquires the frequency distribution of pixel values; a boundary value setting unit 152 that sets a boundary value for binarizing pixel values based on the frequency distribution acquired by the frequency distribution acquisition unit 151; A binarization processing unit 153 that generates binary image data by binarizing a plurality of pixel values in an area using boundary values, and a striped structure that corresponds to line screen processing is specified based on the binary image data. and a line screen determination unit 154 . The boundary value setting unit 152 sets two boundary values based on a pixel value (minimum frequency value) having a minimum frequency in the frequency distribution.
In this way, based on the characteristics of the frequency distribution in the line screen application image discovered by the present inventor, the binarization determination is performed using the gradation value corresponding to the minimum value of the frequency in the frequency distribution as the boundary value. Therefore, the intermediate gradation values in the read image are not divided into two sides of the binary, resulting in an incomplete binary image, and one of the binary values is reflected more appropriately. As a result, in the image to which screen processing has been applied, a binary image that more faithfully reflects the screen pattern of the screen-applied portion can be obtained. Therefore, the striped structure (line pairs) in the area to which the line screen is applied is more reliably detected, while the apparent striped structure due to the reading of the area to which the halftone screen is applied is more reliably eliminated. becomes possible. Therefore, it is possible to more reliably specify the area to which the line screen is applied, thereby suppressing omission of specifying the character area outside the line screen application area.

また、ラインスクリーン判別部154は、2個の境界値の少なくともいずれかにより得られた二値画像データから縞状構造が特定された場合に、指定エリアがラインスクリーンの適用エリアであると特定する。これにより、ラインスクリーンの適用エリアの検出漏れをより適切に排除することができる。 Further, the line screen determination unit 154 determines that the designated area is the line screen application area when a striped structure is identified from the binary image data obtained from at least one of the two boundary values. . This makes it possible to more appropriately eliminate detection omissions in the application area of the line screen.

また、ラインスクリーン判別部154は、二値画像データにおける二値の交互な出現パターンに基づいて縞状構造(ラインペアの繰り返し)を特定する。ラインスクリーンの場合には、ラインの延長方向に垂直な方向について、二値が周期的かつ交互に出現するので、これを特定することで、ラインスクリーンの適用領域を容易かつ確実に特定することができる。また、上述のように、境界値を適切に設定することで、このような容易な処理であっても見かけ上の縞状構造をより確実に除外することができる。 Also, the line screen determination unit 154 identifies a striped structure (repetition of line pairs) based on the alternate appearance pattern of binary values in the binary image data. In the case of line screens, binary values appear periodically and alternately in the direction perpendicular to the direction in which the lines are extended. can. Also, as described above, by appropriately setting the boundary value, it is possible to more reliably exclude an apparent striped structure even with such a simple process.

また、境界値設定部152は、頻度分布において頻度が極小となる階調値(頻度極小値)が2点存在しない場合には、頻度分布における所定の代表値から所定幅だけ上下にそれぞれずらした値を2個の境界値として設定する。すなわち、代表値を直接境界値とするのではなく、ラインスクリーンの適用エリアの特定に適切であると想定する値を境界値として設定することで、見かけ上の縞状構造を排除して、ラインスクリーンの適用エリアではないことをより確実に判別することができる。 In addition, when there are not two gradation values (minimum frequency values) at which the frequency distribution is minimum, the boundary value setting unit 152 shifts a predetermined representative value in the frequency distribution up and down by a predetermined width. Set the values as two boundary values. In other words, instead of using the representative value directly as the boundary value, a value assumed to be appropriate for identifying the applicable area of the line screen is set as the boundary value, thereby eliminating the apparent striped structure and It is possible to more reliably determine that it is not the applicable area of the screen.

また、所定の代表値は、指定エリアにおける各画素値の平均値A及び中央値Mの平均であり、所定幅は、指定エリアにおける画素値の最大値と最小値の差分である全幅Wに対する所定の割合を示す係数Kを乗じた値である。これにより、背景色及び付与される色材の色などによる影響を低減して、より適切な値を境界値として定め、ラインスクリーンの適用エリアでないことをより確実に判別することができる。 Further, the predetermined representative value is the average of the average value A and the median value M of each pixel value in the designated area, and the predetermined width is the predetermined width W which is the difference between the maximum value and the minimum value of the pixel values in the designated area. is a value multiplied by a coefficient K that indicates the ratio of As a result, it is possible to reduce the influence of the background color and the color of the coloring material to be applied, determine a more appropriate value as the boundary value, and more reliably determine that the area is not the line screen application area.

また、画像処理部12は、係数Kを記憶するメモリー122を備える。適切な係数Kを予め保持しておくことで、毎回指定エリアの少ないデータなどから算出したり推定したりする必要がなく、安定して適切な境界値を得ることができる。 The image processing unit 12 also includes a memory 122 that stores the coefficient K. FIG. By storing an appropriate coefficient K in advance, it is possible to stably obtain an appropriate boundary value without calculating or estimating from data for a small designated area each time.

また、係数Kは、2個の境界値が得られた場合の当該境界値に基づいて求められた値である。すなわち、実際にラインスクリーンの適用エリアで特定された境界値に基づいて2つの境界値が定められるように係数Kが決定されていることで、より安定して見かけ上の縞状構造をラインスクリーンの適用領域ではないと判別することができる。 Also, the coefficient K is a value obtained based on two boundary values obtained when two boundary values are obtained. That is, the coefficient K is determined so that two boundary values are determined based on the boundary values actually specified in the line screen application area, so that the apparent striped structure can be more stably removed from the line screen. It can be determined that it is not the application area of

また、入力画像データは、RGBなどの複数の色成分でそれぞれ画素値が定められている多階調の画像の成分データを含み、ラインスクリーン判別部154は、成分データのいずれかで指定エリアの縞状構造が特定された場合に、当該指定エリアがラインスクリーンの適用エリアであると特定する。画像によっては全ての色成分で十分な濃度の成分画像が形成されているとは限らず、一方で、色成分間で縞状構造の検出に係る特性が異なるわけではないので、いずれかの色で縞状構造が特定されさえすれば、ラインスクリーンの適用エリアであると特定してよい。 The input image data includes component data of a multi-gradation image in which pixel values are determined for each of a plurality of color components such as RGB. When the striped structure is identified, the designated area is identified as the line screen application area. Depending on the image, not all color components form component images with sufficient densities. can be identified as a line screen application area as long as a striped structure is identified in .

また、指定エリアにおける文字の表示部分を特定する文字判別部155と、入力画像データのうち、縞状構造が特定された指定エリアに対して平滑化処理を行う平滑化処理部157aと、入力画像データのうち、文字の表示部分が特定された指定エリアに対して文字の輪郭を強調する強調処理を行う輪郭処理部157bと、を備える。
すなわち、スクリーンの適用領域と文字の表示部分とで平滑化処理と輪郭の強調処理という正反対の処理がなされるので、本実施形態のようにラインスクリーンの適用エリアをより確実に判別可能とすることで、平滑化及び輪郭強調がなされる領域をより適切に定めることが可能となる。
Further, a character discrimination unit 155 for specifying a character display portion in the specified area, a smoothing processing unit 157a for performing smoothing processing on the specified area in which the striped structure is specified in the input image data, and an input image and a contour processing unit 157b that performs an emphasis process for emphasizing the contour of a character in a specified area in which a character display portion is specified in the data.
In other words, opposite processing such as smoothing processing and contour enhancement processing are performed on the screen application area and the character display portion. , it is possible to more appropriately define the region where smoothing and edge enhancement are performed.

また、本実施形態の画像形成装置1は、上記の画像処理部12と、入力画像データに基づいて画像形成動作を行う形成動作部21と、を備える。この画像形成装置1では、スキャナーなどの読取装置により読み取られたスクリーン処理の適用画像におけるスクリーンの適用エリアをより適切に判別して平滑化し、一方で、文字などの表示部分をより確実に輪郭強調することができるので、スキャン画像を複写して出力する場合などにより高画質の画像を出力することが可能となる。 Further, the image forming apparatus 1 of this embodiment includes the image processing section 12 described above and a forming operation section 21 that performs an image forming operation based on input image data. In this image forming apparatus 1, the screen application area in the screen processing application image read by a reading device such as a scanner is more appropriately discriminated and smoothed, and on the other hand, the outline of the display portion such as characters is more reliably emphasized. Therefore, it is possible to output a high-quality image by copying and outputting a scanned image.

また、本実施形態の画像領域判別方法は、各画素値が多階調で表された画像の入力データ(入力画像データ)において指定エリアを定め、当該指定エリア内の複数の画素値の頻度分布を取得する分布取得ステップ、分布取得ステップで取得された頻度分布に基づいて、画素値を二値化する境界値を設定する境界設定ステップ、指定エリア内の複数の画素値を境界値により二値化した二値画像データを生成する二値化ステップ、二値画像データに基づいて、ラインスクリーン処理に応じた縞状構造を特定する第1特定ステップ、を含む。境界設定ステップでは、頻度分布における頻度が極小となる画素値に基づいて2個の境界値を設定する。
このように、本発明者により見出されているラインスクリーンの適用画像における頻度分布の特徴に基づいて、頻度分布における頻度の極小値に対応する階調値を境界値として二値化判断を行うので、読取画像における中間階調値が二値の両側に分かれて中途半端な二値画像にならず、より適切に二値のいずれかが反映される。これにより、スクリーン処理が適用された画像において、スクリーン適用部分のスクリーンパターンをより忠実に反映した二値画像が得られる。したがって、ラインスクリーンが適用されたエリアの縞状構造(ラインペア)がより確実に検出される一方、網点スクリーンが適用されたエリアの読取による見かけ上の縞状構造をより確実に排除することが可能になる。よって、ラインスクリーンが適用されたエリアをより確実に特定することができ、これにより、この画像領域判別方法では、ラインスクリーンの適用エリア外で文字領域の特定漏れを抑制することが可能になる。
Further, in the image area determination method of the present embodiment, a specified area is determined in input data (input image data) of an image in which each pixel value is represented by multiple gradations, and the frequency distribution of a plurality of pixel values in the specified area is determined. , a boundary setting step of setting a boundary value for binarizing the pixel values based on the frequency distribution obtained in the distribution obtaining step, a plurality of pixel values in the specified area are binarized by the boundary value a binarization step of generating converted binary image data; and a first identification step of identifying striped structures corresponding to the line screen processing based on the binary image data. In the boundary setting step, two boundary values are set based on the pixel value with the minimum frequency in the frequency distribution.
In this way, based on the characteristics of the frequency distribution in the line screen application image discovered by the present inventor, the binarization determination is performed using the gradation value corresponding to the minimum value of the frequency in the frequency distribution as the boundary value. Therefore, the intermediate gradation values in the read image are not divided into two sides of the binary, resulting in an incomplete binary image, and one of the binary values is reflected more appropriately. As a result, in the image to which screen processing has been applied, a binary image that more faithfully reflects the screen pattern of the screen-applied portion can be obtained. Therefore, the striped structure (line pairs) in the area to which the line screen is applied is more reliably detected, while the apparent striped structure due to the reading of the area to which the halftone screen is applied is more reliably eliminated. becomes possible. Therefore, the area to which the line screen is applied can be identified more reliably, and this image area determination method can suppress omission of character area identification outside the line screen application area.

なお、本発明は、上記実施の形態に限られるものではなく、様々な変更が可能である。
例えば、2つの二値化の境界値に基づく指定エリアの二値化処理及びラインスクリーンの判別処理は、並列に行われてもよいし、一方の境界値による二値化処理及びラインスクリーンの判別処理が行われて、ラインスクリーンの適用領域であると判別されなかった場合にのみ、他方の境界値による二値化処理及びラインスクリーン判別処理が行われてもよい。
It should be noted that the present invention is not limited to the above embodiments, and various modifications are possible.
For example, the binarization processing of the designated area and the line screen discrimination processing based on the two binarization boundary values may be performed in parallel, or the binarization processing and line screen discrimination processing based on one of the boundary values may be performed. The other binarization processing and line screen determination processing using the boundary value may be performed only when the processing is performed and the area is not determined to be a line screen applicable area.

また、上記実施の形態では、2つの境界値による二値画像のうちいずれかで縞状構造が検出されればラインスクリーンの適用エリアであると判別したが、いずれか一方でのみ検出された場合には、他方の結果について、適宜な追加の条件などを付して判別を行ってもよい。 Further, in the above embodiment, if a striped structure is detected in one of two binary images based on two boundary values, it is determined to be a line screen applicable area. Alternatively, the other result may be determined by adding appropriate additional conditions.

また、縞状構造の検出方法は、上記実施の形態に示したものに限られるものではない。例えば各ラインを特定してから、その方向及び間隔の法則性などに基づいて判断されてもよい。 Moreover, the method for detecting the striped structure is not limited to that shown in the above embodiment. For example, each line may be identified and then determined based on the regularity of its direction and spacing.

また、上記実施の形態では、指定エリアの代表値として、階調値の平均値Aと中央値Mの平均値を用いることとしたが、これに限られない。平均値A又は中央値Mがそのまま用いられてもよいし、全画素値の中心付近を特定する他の値が用いられてもよい。 Further, in the above embodiment, the average value of the average value A and the median value M of the gradation values is used as the representative value of the specified area, but the present invention is not limited to this. The average value A or median value M may be used as is, or other values that specify the vicinity of the center of all pixel values may be used.

また、上記実施の形態では、代表値に対して上下に同幅ずらすこととしたが、上側と下側で分布が異なる場合には、上下で異なる所定幅が設定されてもよい。また、所定幅の定め方は、上述のものに限られず、例えば、分布の分散値、歪度、尖度などが考慮されてもよい。 In the above embodiment, the representative value is shifted by the same width vertically, but if the distribution differs between the upper and lower sides, different predetermined widths may be set for the upper and lower sides. Also, the method of determining the predetermined width is not limited to the above-described method, and for example, the variance, skewness, and kurtosis of the distribution may be taken into consideration.

また、上記実施の形態では、RGBのカラー画像を例に挙げて説明したが、これに限られない。単色のグレースケール画像であってもよいし、他の表色系で表された画像データであってもよい。他の表色系で表されている場合には、表色系に応じてスクリーンに応じた階調の違いが現れる指標について、上記の処理が行われればよい。 Further, in the above-described embodiment, an RGB color image has been described as an example, but the present invention is not limited to this. It may be a monochrome grayscale image, or image data represented by another color system. When the index is represented by another color system, the above processing may be performed for the index showing a difference in gradation depending on the screen according to the color system.

また、上記実施の形態では、ラインスクリーンと網点スクリーンのみを挙げて説明したが、網点スクリーン以外のスクリーンが使用された画像の当該スクリーンが判別可能であってもよい。 Further, in the above embodiment, only the line screen and the halftone screen have been described, but it is also possible to distinguish the screen of the image using a screen other than the halftone screen.

また、上記実施の形態では、2つの頻度極小値が特定されるか頻度極小値が1個以下であるものとして説明したが、指定エリアのサイズや画像の解像度などに応じて3つ以上生じた場合には、頻度の小さい順に2つ選択してもよいし、直近の極大値との差の大きさに基づいて2つ選択してもよい。あるいは、指定エリアのサイズ及び/又は頻度分布の頻度幅を変更可能としてもよい。 In the above embodiment, two minimum frequency values are specified or one or less frequency minimum values are specified. In that case, two may be selected in descending order of frequency, or two may be selected based on the magnitude of the difference from the most recent maximum value. Alternatively, the size of the designated area and/or the frequency width of the frequency distribution may be changed.

また、上記実施の形態では、画像形成装置1が備える画像処理部12について説明したが、画像処理部12は、コンピューターであって画像形成装置1とは別の装置であってもよい。この場合、画像処理部12の処理データが画像形成装置1に送られてもよい。また、画像形成のための画像処理ではなく、ディスプレイなどに表示するための画像処理が行われてもよい。 Further, although the image processing unit 12 included in the image forming apparatus 1 has been described in the above embodiment, the image processing unit 12 may be a computer and may be a device separate from the image forming apparatus 1 . In this case, the processed data of the image processing section 12 may be sent to the image forming apparatus 1 . Further, instead of image processing for image formation, image processing for display on a display or the like may be performed.

また、上記実施の形態では、外部から入力画像データが取得されたが、画像形成装置1が読取装置を内蔵していてもよい。 Further, in the above embodiment, the input image data is obtained from the outside, but the image forming apparatus 1 may incorporate a reading device.

また、上記実施の形態では、各処理がASICなどの専用論理回路でなされるものとして説明したが、プログラムによりソフトウェア的にCPU(ハードウェアプロセッサー)によって実行されてもよい。
その他、上記実施の形態で示した構成、処理内容、処理手順などの具体的な細部は、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
Further, in the above embodiments, each process is described as being performed by a dedicated logic circuit such as an ASIC, but it may be performed by a CPU (hardware processor) in the form of software based on a program.
In addition, specific details such as the configuration, processing content, and processing procedure shown in the above embodiments can be changed as appropriate without departing from the scope of the present invention.

1 画像形成装置
11 通信部
12 画像処理部
121 制御部
122 メモリー
21 形成動作部
151 頻度分布取得部
152 境界値設定部
153 二値化処理部
154 ラインスクリーン判別部
155 文字判別部
156 網点スクリーン判別部
157 形成データ処理部
157a 平滑化処理部
157b 輪郭処理部
D 境界値
K 係数
1 image forming apparatus 11 communication unit 12 image processing unit 121 control unit 122 memory 21 forming operation unit 151 frequency distribution acquisition unit 152 boundary value setting unit 153 binarization processing unit 154 line screen determination unit 155 character determination unit 156 halftone screen determination Unit 157 Formation data processing unit 157a Smoothing processing unit 157b Contour processing unit D Boundary value K Coefficient

Claims (11)

各画素値が多階調で表された画像の入力データにおいて指定エリアを定め、当該指定エリア内の複数の前記画素値の頻度分布を取得する分布取得部と、
前記分布取得部により取得された前記頻度分布に基づいて、前記画素値を二値化する境界値を設定する境界設定部と、
前記指定エリア内の前記複数の画素値を前記境界値により二値化した二値画像データを生成する二値化部と、
前記二値画像データに基づいて、ラインスクリーン処理に応じた縞状構造を特定する第1特定部と、
を備え、
前記境界設定部は、前記頻度分布において頻度が極小となる画素値に基づいて2個の前記境界値を設定する
ことを特徴とする画像処理装置。
a distribution acquisition unit that determines a specified area in input data of an image in which each pixel value is represented by multiple gradations, and acquires a frequency distribution of the plurality of pixel values in the specified area;
a boundary setting unit that sets a boundary value for binarizing the pixel value based on the frequency distribution acquired by the distribution acquisition unit;
a binarization unit that generates binary image data by binarizing the plurality of pixel values in the designated area using the boundary value;
a first identifying unit that identifies a striped structure corresponding to line screen processing based on the binary image data;
with
The image processing apparatus, wherein the boundary setting unit sets the two boundary values based on a pixel value having a minimum frequency in the frequency distribution.
前記第1特定部は、前記2個の境界値の少なくともいずれかにより得られた前記二値画像データから前記縞状構造が特定された場合に、前記指定エリアがラインスクリーンの適用エリアであると特定することを特徴とする請求項1記載の画像処理装置。 The first identification unit determines that the designated area is a line screen application area when the striped structure is identified from the binary image data obtained from at least one of the two boundary values. 2. The image processing device according to claim 1, wherein the image processing device is specified. 前記第1特定部は、前記二値画像データにおける二値の交互な出現パターンに基づいて前記縞状構造を特定することを特徴とする請求項2記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein the first identification unit identifies the striped structure based on an alternate appearance pattern of binary values in the binary image data. 前記境界設定部は、前記頻度分布において頻度が極小となる画素値が2点存在しない場合には、前記頻度分布における所定の代表値から所定幅だけ上下にそれぞれずらした値を前記2個の境界値として設定することを特徴とする請求項1~3のいずれか一項に記載の画像処理装置。 If there are no two pixel values with a minimum frequency in the frequency distribution, the boundary setting unit sets a value shifted up and down by a predetermined width from a predetermined representative value in the frequency distribution as the two boundaries. 4. The image processing apparatus according to any one of claims 1 to 3, which is set as a value. 前記所定の代表値は、前記指定エリアにおける各画素値の平均値及び中央値の平均であり、
前記所定幅は、前記指定エリアにおける画素値の最大値と最小値の差分に対する所定の割合を示す係数を乗じた値である
ことを特徴とする請求項4記載の画像処理装置。
The predetermined representative value is the average of the average value and the median value of each pixel value in the specified area,
5. The image processing apparatus according to claim 4, wherein the predetermined width is a value obtained by multiplying the difference between the maximum and minimum pixel values in the designated area by a coefficient indicating a predetermined ratio.
前記係数を記憶する記憶部を備えることを特徴とする請求項5記載の画像処理装置。 6. The image processing apparatus according to claim 5, further comprising a storage unit for storing said coefficients. 前記係数は、前記2個の境界値が得られた場合の当該境界値に基づいて求められた値であることを特徴とする請求項5又は6記載の画像処理装置。 7. The image processing apparatus according to claim 5, wherein said coefficient is a value obtained based on said boundary values when said two boundary values are obtained. 前記入力データは、複数の色成分でそれぞれ画素値が定められている多階調の画像の成分データを含み、
前記第1特定部は、前記成分データのいずれかで前記指定エリアの前記縞状構造が特定された場合に、当該指定エリアがラインスクリーンの適用エリアであると特定することを特徴とする請求項1~7のいずれか一項に記載の画像処理装置。
the input data includes component data of a multi-tone image in which pixel values are determined for each of a plurality of color components;
3. The first identification unit identifies the designated area as a line screen application area when the striped structure of the designated area is identified by any of the component data. 8. The image processing device according to any one of 1 to 7.
前記指定エリアにおける文字の表示部分を特定する第2特定部と、
前記入力データのうち、前記縞状構造が特定された前記指定エリアに対して平滑化処理を行う第1処理部と、
前記入力データのうち、文字の表示部分が特定された前記指定エリアに対して文字の輪郭を強調する強調処理を行う第2処理部と、
を備えることを特徴とする請求項1~8のいずれか一項に記載の画像処理装置。
a second specifying unit that specifies a character display portion in the specified area;
a first processing unit that performs a smoothing process on the designated area in which the striped structure is identified in the input data;
a second processing unit that performs an emphasis process for emphasizing an outline of a character in the specified area in which a character display portion is specified in the input data;
The image processing apparatus according to any one of claims 1 to 8, comprising:
請求項1~9のいずれか一項に記載の画像処理装置と、
前記入力データに基づいて画像形成動作を行う形成動作部と、
を備えることを特徴とする画像形成装置。
The image processing device according to any one of claims 1 to 9,
a forming operation unit that performs an image forming operation based on the input data;
An image forming apparatus comprising:
各画素値が多階調で表された画像の入力データにおいて指定エリアを定め、当該指定エリア内の複数の前記画素値の頻度分布を取得する分布取得ステップ、
前記分布取得ステップで取得された前記頻度分布に基づいて、前記画素値を二値化する境界値を設定する境界設定ステップ、
前記指定エリア内の前記複数の画素値を前記境界値により二値化した二値画像データを生成する二値化ステップ、
前記二値画像データに基づいて、ラインスクリーン処理に応じた縞状構造を特定する第1特定ステップ、
を含み、
前記境界設定ステップでは、前記頻度分布における頻度が極小となる画素値に基づいて2個の前記境界値を設定する
ことを特徴とする画像領域判別方法。
A distribution obtaining step of determining a designated area in the input data of an image in which each pixel value is expressed in multiple gradations and obtaining a frequency distribution of the plurality of pixel values in the designated area;
A boundary setting step of setting a boundary value for binarizing the pixel value based on the frequency distribution obtained in the distribution obtaining step;
a binarization step of generating binary image data by binarizing the plurality of pixel values in the designated area using the boundary value;
a first identifying step of identifying a striped structure corresponding to line screen processing based on the binary image data;
including
The image region determination method, wherein, in the boundary setting step, two boundary values are set based on a pixel value having a minimum frequency in the frequency distribution.
JP2019093496A 2019-05-17 2019-05-17 Image processing apparatus, image forming apparatus, and image area determination method. Active JP7167848B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019093496A JP7167848B2 (en) 2019-05-17 2019-05-17 Image processing apparatus, image forming apparatus, and image area determination method.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019093496A JP7167848B2 (en) 2019-05-17 2019-05-17 Image processing apparatus, image forming apparatus, and image area determination method.

Publications (2)

Publication Number Publication Date
JP2020188424A JP2020188424A (en) 2020-11-19
JP7167848B2 true JP7167848B2 (en) 2022-11-09

Family

ID=73222100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019093496A Active JP7167848B2 (en) 2019-05-17 2019-05-17 Image processing apparatus, image forming apparatus, and image area determination method.

Country Status (1)

Country Link
JP (1) JP7167848B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005101765A (en) 2003-09-22 2005-04-14 Sharp Corp Method and apparatus for processing image, and image forming apparatus
JP2010187362A (en) 2009-01-19 2010-08-26 Fuji Xerox Co Ltd Image processing apparatus, and program
JP2014120832A (en) 2012-12-14 2014-06-30 Fuji Xerox Co Ltd Image processing apparatus and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005101765A (en) 2003-09-22 2005-04-14 Sharp Corp Method and apparatus for processing image, and image forming apparatus
JP2010187362A (en) 2009-01-19 2010-08-26 Fuji Xerox Co Ltd Image processing apparatus, and program
JP2014120832A (en) 2012-12-14 2014-06-30 Fuji Xerox Co Ltd Image processing apparatus and image processing program

Also Published As

Publication number Publication date
JP2020188424A (en) 2020-11-19

Similar Documents

Publication Publication Date Title
US7746505B2 (en) Image quality improving apparatus and method using detected edges
JP4112362B2 (en) System and method for enhancing scanned document images for color printing
US8395817B2 (en) Image processing apparatus and method determines attributes of image blocks based on pixel edge intensities relative to normalized and fixed thresholds
JPH1070650A (en) Copying method for synthesis document image
JP2001005960A (en) Method and device for processing image
KR100524072B1 (en) Method for improving image quality
JP6781406B2 (en) Image processing equipment and computer programs
JP7230444B2 (en) IMAGE INSPECTION APPARATUS, IMAGE INSPECTION METHOD AND IMAGE INSPECTION PROGRAM
JP4111190B2 (en) Image processing device
JP2004336282A (en) Image processor, image processing program and recording medium recorded with relevant program
KR20010009865A (en) Edge Enhancement Method by 4-Directional 1-D High Pass Filtering
JP7167848B2 (en) Image processing apparatus, image forming apparatus, and image area determination method.
JP2777202B2 (en) Image processing device
JP3909604B2 (en) Image processing apparatus and image processing method
Boiangiu et al. Methods of bitonal image conversion for modern and classic documents
JP2015012491A (en) Image processor
CN112449073A (en) Image inspection apparatus, image forming apparatus, and image inspection method
US11750748B2 (en) Image processing apparatus, method, and storage medium to evaluate printed material with decreased influence of specific characteristic of print medium determined from margin area of printed chart
KR100537829B1 (en) Method for segmenting Scan Image
US10375275B2 (en) Image processing apparatus specifying first and second pixels, and generating processed image data in which the first and second pixels have first and second colors respectively
KR100254736B1 (en) Apparatus and method for 1-dimension local adaptive image binarization
JP3989647B2 (en) Image processing method, apparatus, and recording medium
JP4005243B2 (en) Image processing device
JP2002232704A (en) Image processor and image forming device
JP4158000B2 (en) Digital image binarization apparatus using error diffusion coefficient used in zigzag method and threshold modulation method applied thereto

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220119

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220920

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221010

R150 Certificate of patent or registration of utility model

Ref document number: 7167848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150