JP6794901B2 - Image processing equipment and computer programs - Google Patents

Image processing equipment and computer programs Download PDF

Info

Publication number
JP6794901B2
JP6794901B2 JP2017070795A JP2017070795A JP6794901B2 JP 6794901 B2 JP6794901 B2 JP 6794901B2 JP 2017070795 A JP2017070795 A JP 2017070795A JP 2017070795 A JP2017070795 A JP 2017070795A JP 6794901 B2 JP6794901 B2 JP 6794901B2
Authority
JP
Japan
Prior art keywords
pixel
unit
pixels
determination unit
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017070795A
Other languages
Japanese (ja)
Other versions
JP2018174418A (en
Inventor
上田 昌史
昌史 上田
竜司 山田
竜司 山田
卓也 嶋橋
卓也 嶋橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2017070795A priority Critical patent/JP6794901B2/en
Publication of JP2018174418A publication Critical patent/JP2018174418A/en
Application granted granted Critical
Publication of JP6794901B2 publication Critical patent/JP6794901B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Description

本明細書は、画像内のエッジを検出する技術に関する。 The present specification relates to a technique for detecting an edge in an image.

従来から、種々の画像処理が、提案されている。例えば、微分フィルタなどを用いて文字エッジを抽出し、孤立量を積算して印刷の網点を抽出することによって、画像を文字と網点に分類する技術が提案されている。さらに、画像中の文字領域と網点領域とを区別するとともに、網点領域内の文字も判定する技術が、提案されている。 Conventionally, various image processings have been proposed. For example, a technique has been proposed in which an image is classified into characters and halftone dots by extracting character edges using a differential filter or the like, integrating the amount of isolation, and extracting halftone dots for printing. Further, a technique has been proposed in which a character area in an image and a halftone dot area are distinguished and a character in the halftone dot area is also determined.

特開2007−311836号公報JP-A-2007-31136

ところで、画像内の文字は、種々の形態で表現され得る。例えば、明るい色の背景中に、暗い色で文字が表現される場合がある。これとは反対に、暗い色の背景中に、明るい色で文字が表現される場合がある。このような種々の形態で表現され得る文字のエッジを検出することは、容易ではなかった。 By the way, the characters in the image can be expressed in various forms. For example, characters may be expressed in dark colors in a light-colored background. On the contrary, characters may be expressed in light colors in a dark background. It has not been easy to detect the edges of characters that can be represented in such various forms.

本明細書は、種々の形態で表現され得る文字のエッジを検出することができる技術を開示する。 The present specification discloses a technique capable of detecting the edge of a character that can be represented in various forms.

本明細書は、例えば、以下の適用例を開示する。 The present specification discloses, for example, the following application examples.

[適用例1]画像処理装置であって、入力画像を表す入力画像データを取得する入力画像データ取得部と、前記入力画像データを用いて、複数の画素のそれぞれの明るさの度合いである複数個の輝度値を含む輝度画像データを取得する輝度画像データ取得部と、前記輝度画像データを用いて、注目画素が、第1種の特定領域に含まれるか否かを判断する第1判断部であって、前記第1種の特定領域は複数の画素が連続する領域であり、前記第1種の特定領域は第2種の特定領域と比べて明るさが暗い領域である、前記第1判断部と、前記輝度画像データを用いて、前記注目画素が、前記第2種の特定領域に含まれるか否かを判断する第2判断部であって、前記第2種の特定領域は複数の画素が連続する領域であり、前記第2種の特定領域は前記第1種の特定領域と比べて明るさが明るい領域である、前記第2判断部と、前記輝度画像データを平滑化することによって平滑化データを生成する平滑化データ生成部であって、前記複数の画素のうち、前記第1種の特定領域に含まれると判断される画素の輝度値と前記第2種の特定領域に含まれると判断される画素の輝度値とを平滑化せずに、前記第1種の特定領域に含まれると判断されず、かつ、前記第2種の特定領域に含まれると判断されない画素の輝度値を平滑化することによって、前記平滑化データを生成する、前記平滑化データ生成部と、前記平滑化データを用いて、前記入力画像内のエッジを表すエッジ画素を検出する検出部と、を備える、画像処理装置。 [Application Example 1] An image processing device, an input image data acquisition unit that acquires input image data representing an input image, and a plurality of image processing devices having a degree of brightness of each of a plurality of pixels using the input image data. A brightness image data acquisition unit that acquires brightness image data including individual brightness values, and a first determination unit that determines whether or not a pixel of interest is included in a specific region of type 1 using the brightness image data. The first type of specific area is a region in which a plurality of pixels are continuous, and the first type of specific area is a region whose brightness is darker than that of the second type of specific area. It is a second determination unit that determines whether or not the attention pixel is included in the specific area of the second type by using the determination unit and the brightness image data, and the specific area of the second type is plural. The second determination unit and the brightness image data are smoothed, which is a region in which the pixels of the above are continuous, and the specific region of the second type is a region whose brightness is brighter than that of the specific region of the first type. This is a smoothing data generation unit that generates smoothing data, and among the plurality of pixels, the brightness value of the pixel determined to be included in the specific area of the first type and the specific area of the second type. A pixel that is not determined to be included in the specific area of the first type and is not determined to be included in the specific area of the second type without smoothing the brightness value of the pixel determined to be included in. The smoothing data generation unit that generates the smoothing data by smoothing the brightness value of, and the detection unit that detects edge pixels representing edges in the input image using the smoothing data. An image processing device comprising.

この構成によれば、第1種の特定領域に含まれると判断される画素の輝度値と、第2種の特定領域に含まれると判断される画素の輝度値と、を平滑化しないので、明るい背景中に暗い色(すなわち、低輝度の色)で表される文字のエッジを表す画素と、暗い背景中に明るい色(すなわち、高輝度の色)で表される文字のエッジを表す画素と、の両方を、適切に検出できる。 According to this configuration, the brightness value of the pixel determined to be included in the specific area of the first type and the brightness value of the pixel determined to be included in the specific area of the second type are not smoothed. Pixels that represent the edges of characters that are represented by dark colors (ie, low-brightness colors) in a light background, and pixels that represent the edges of characters that are represented by bright colors (ie, bright colors) in a dark background. And both can be detected properly.

なお、本明細書に開示の技術は、種々の態様で実現することが可能であり、例えば、画像処理方法および画像処理装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体(例えば、一時的ではない記録媒体)、等の形態で実現することができる。 The techniques disclosed in the present specification can be realized in various aspects, for example, an image processing method and an image processing device, a computer program for realizing the functions of those methods or devices, and a computer thereof. It can be realized in the form of a recording medium on which a program is recorded (for example, a recording medium that is not temporary).

複合機100の構成を示すブロック図である。It is a block diagram which shows the structure of the multifunction device 100. 実施形態における領域分離処理部103のブロック構成図である。It is a block block diagram of the area separation processing part 103 in embodiment. 文字判定部1003の構成を示すブロック図である。It is a block diagram which shows the structure of the character determination part 1003. 文字判定部の処理を説明するための図である。It is a figure for demonstrating the processing of a character determination part. 文字判定部の各処理の信号を示す図である。It is a figure which shows the signal of each process of a character determination part. テーブルの説明図である。It is explanatory drawing of the table. 網点判定部1004のブロック構成図である。It is a block block diagram of the halftone dot determination unit 1004. 網点判定部の処理を説明するための図である。It is a figure for demonstrating the processing of the halftone dot determination part. パターンマッチングの一例を示す第1の図である。It is the first figure which shows an example of pattern matching. 内エッジ信号と判定パターン1710とマッチングの結果の一例を示す図である。It is a figure which shows an example of the result of matching with the inner edge signal and determination pattern 1710. OR処理部1207による処理の説明図である。It is explanatory drawing of the processing by the OR processing unit 1207. 積算処理部1209と閾値判定部1211との構成を示すブロック図である。It is a block diagram which shows the structure of the integration processing unit 1209 and the threshold value determination unit 1211. 閾値判定部1211と総合判定部1213との処理の一例を示す図である。It is a figure which shows an example of the processing of the threshold value determination unit 1211 and the comprehensive determination unit 1213. 閾値判定部1211と総合判定部1213との処理の一例を示す図である。It is a figure which shows an example of the processing of the threshold value determination unit 1211 and the comprehensive determination unit 1213. 閾値判定部1211と総合判定部1213との処理の一例を示す図である。It is a figure which shows an example of the processing of the threshold value determination unit 1211 and the comprehensive determination unit 1213. 網点内文字判定部1005の構成を示すブロック図である。It is a block diagram which shows the structure of the character determination part 1005 in a halftone dot. 適応的スムージング処理部2401の構成を示すブロック図である。It is a block diagram which shows the structure of the adaptive smoothing processing part 2401. 線パターンの説明図である。It is explanatory drawing of a line pattern. 図18(A)の線パターン2600を用いた判定の例を示す図である。It is a figure which shows the example of the determination using the line pattern 2600 of FIG. 18A. 図18(B)〜(D)の線パターン2610〜2630を用いた判定の例を示す図である。It is a figure which shows the example of the determination using the line pattern 2610-2630 of FIG. 18 (B)-(D). 図18(A)の線パターン2600を用いた判定の例を示す図である。It is a figure which shows the example of the determination using the line pattern 2600 of FIG. 18A. 図18(B)〜(D)の線パターン2610〜2630を用いた判定の例を示す図である。It is a figure which shows the example of the determination using the line pattern 2610-2630 of FIG. 18 (B)-(D). 適応的スムージング処理部2401による平滑化の周波数特性2900の一例を示す説明図である。It is explanatory drawing which shows an example of the frequency characteristic 2900 of smoothing by an adaptive smoothing processing unit 2401. 網点内文字判定部1005による網点文字判定の例を示す図である。It is a figure which shows the example of the halftone dot character determination by the halftone dot character determination unit 1005. 網点内文字判定部1005による網点文字判定の例を示す図である。It is a figure which shows the example of the halftone dot character determination by the halftone dot character determination unit 1005. 出力処理部110の構成を示すブロック図である。It is a block diagram which shows the structure of the output processing part 110. 第1種の特定領域の画素と第2種の特定領域の画素とを検出する処理の別の実施例を示すフローチャートである。It is a flowchart which shows another embodiment of the process which detects the pixel of the specific area of the first kind and the pixel of a specific area of the second kind. 複数のフィルタの例を示す説明図である。It is explanatory drawing which shows the example of a plurality of filters. 明線用の初期値Wdiwを決定する処理の説明図である。It is explanatory drawing of the process of determining the initial value Wdiw for a bright line.

A.第1実施例:
A−1.複合機100の構成
次に、実施の形態を実施例に基づき説明する。図1は、実施例の画像処理装置としての複合機100の構成を示すブロック図である。
A. First Example:
A-1. Configuration of Multifunction Device 100 Next, an embodiment will be described based on an embodiment. FIG. 1 is a block diagram showing a configuration of a multifunction device 100 as an image processing device of an embodiment.

複合機100は、制御部120と、読取実行部130と、印刷実行部140と、通信インタフェース(通信IF)150と、図示しない液晶ディスプレイなどの表示部と、図示しないタッチパネルやボタンを含む操作部と、を備えている。 The multifunction device 100 includes a control unit 120, a reading execution unit 130, a printing execution unit 140, a communication interface (communication IF) 150, a display unit such as a liquid crystal display (not shown), and an operation unit including a touch panel and buttons (not shown). And have.

制御部120は、メインプロセッサ101と、複数個の画像処理部102〜110と、DRAMなどの複数個の揮発性メモリ111〜116と、フラッシュメモリなどの不揮発性メモリ117と、を備えている。 The control unit 120 includes a main processor 101, a plurality of image processing units 102 to 110, a plurality of volatile memories 111 to 116 such as a DRAM, and a non-volatile memory 117 such as a flash memory.

メインプロセッサ101は、不揮発性メモリ117に格納されるコンピュータプログラムPGを実行することによって、読取実行部130や印刷実行部140、および、画像処理部102〜110を含む複合機100の全体を制御するCPUである。 The main processor 101 controls the entire multifunction device 100 including the reading execution unit 130, the printing execution unit 140, and the image processing units 102 to 110 by executing the computer program PG stored in the non-volatile memory 117. It is a CPU.

複数個の画像処理部102〜110は、メインプロセッサ101の制御に従って動作するASICなどのハードウェア回路である。揮発性メモリ111〜116は、メインプロセッサ101や画像処理部102〜110によって利用されるメモリである。これら画像処理部やメモリを用いた処理の概要は後述する。 The plurality of image processing units 102 to 110 are hardware circuits such as an ASIC that operate under the control of the main processor 101. The volatile memories 111 to 116 are memories used by the main processor 101 and the image processing units 102 to 110. The outline of the processing using the image processing unit and the memory will be described later.

不揮発性メモリ117には、上述のコンピュータプログラムPGが格納されている。コンピュータプログラムPGは、メインプロセッサ101に複合機100の制御を実現させる制御プログラムである。コンピュータプログラムPGは、複合機200の製造時に、不揮発性メモリ117に予め格納される形態で提供される。これに代えて、コンピュータプログラムPGは、サーバからダウンロードされる形態で提供されても良く、DVD−ROMなどに格納される形態で提供されてもよい。 The above-mentioned computer program PG is stored in the non-volatile memory 117. The computer program PG is a control program that allows the main processor 101 to control the multifunction device 100. The computer program PG is provided in a form stored in advance in the non-volatile memory 117 at the time of manufacturing the multifunction device 200. Instead of this, the computer program PG may be provided in a form downloaded from a server, or may be provided in a form stored in a DVD-ROM or the like.

読取実行部130は、メインプロセッサ101の制御に従って、一次元イメージセンサを用いて原稿を光学的に読み取ることによってスキャンデータを生成する。スキャンデータは、複数個の画素の値を含み、複数個の画素の値のそれぞれは、画素の色をRGB表色系の色値(RGB値とも呼ぶ)で表す。すなわち、スキャンデータは、RGB画像データである。1個の画素のRGB値は、例えば、赤色(R)と緑色(G)と青色(B)との3個の色成分の値(以下、R値、G値、B値とも呼ぶ)を含んでいる。本実施例では、各成分値の階調数は、256階調である。 The scanning execution unit 130 generates scan data by optically scanning the document using the one-dimensional image sensor under the control of the main processor 101. The scan data includes the values of a plurality of pixels, and each of the values of the plurality of pixels represents the color of the pixel as an RGB color value (also referred to as an RGB value). That is, the scan data is RGB image data. The RGB value of one pixel includes, for example, the values of three color components (hereinafter, also referred to as R value, G value, and B value) of red (R), green (G), and blue (B). I'm out. In this embodiment, the number of gradations of each component value is 256 gradations.

印刷実行部140は、メインプロセッサ101の制御に従って、複数種類のインク、具体的には、シアン(C)、マゼンタ(M)、イエロ(Y)、ブラック(K)のインクを、色材として用いて、用紙などの印刷媒体に色材としてのインクを吐出することによって、画像を印刷する(インクジェット方式とも呼ばれる)。なお、変形例では、印刷実行部140は、色材としてのトナーを用いて、レーザ方式で印刷媒体に画像を印刷するレーザ方式の印刷実行部であっても良い。 The print execution unit 140 uses a plurality of types of inks, specifically, cyan (C), magenta (M), yellow (Y), and black (K) inks as color materials according to the control of the main processor 101. The image is printed by ejecting ink as a coloring material onto a printing medium such as paper (also called an inkjet method). In the modified example, the print execution unit 140 may be a laser-type print execution unit that prints an image on a print medium by a laser method using toner as a coloring material.

通信IF150は、ユーザの端末装置(図示省略)などの外部装置と通信を行うためのインタフェース、例えば、イーサネット(登録商標)規格に従うネットワークインタフェースである。 The communication IF 150 is an interface for communicating with an external device such as a user's terminal device (not shown), for example, a network interface according to an Ethernet (registered trademark) standard.

A−2.複合機100の処理の概要
複合機100によって実行されるコピー処理、すなわち、読取実行部130を用いて、原稿を示すスキャンデータを生成し、該スキャンデータを用いて原稿を示す画像を印刷する処理の概要を説明する。なお、本実施例の原稿は、例えば、複合機100、あるいは、図示しないプリンタによって画像が印刷された印刷物である。
A-2. Outline of processing of the multifunction device 100 Copy processing executed by the multifunction device 100, that is, a process of generating scan data indicating a document using the scanning execution unit 130 and printing an image indicating the document using the scan data. The outline of is explained. The manuscript of this embodiment is, for example, a printed matter in which an image is printed by a multifunction device 100 or a printer (not shown).

利用者は、複写すべき原稿を読取実行部130のシートフィーダにセットし、複写の開始指示を図示しない操作部を介して入力する。読取実行部130は、開始指示に応じて、原稿を1枚ずつ読み取ることによって、対象画像データとしてのスキャンデータを生成する。生成されたスキャンデータは、第1入力処理部102に出力される。 The user sets the document to be copied on the sheet feeder of the scanning execution unit 130, and inputs the copying start instruction via an operation unit (not shown). The scanning execution unit 130 generates scan data as target image data by scanning documents one by one in response to a start instruction. The generated scan data is output to the first input processing unit 102.

第1入力処理部102は、読取実行部130から出力されるスキャンデータに対して、シェーディング補正、色補正など、周知の画像処理を行って、画像処理済みのスキャンデータを領域分離処理部103に送信する。 The first input processing unit 102 performs well-known image processing such as shading correction and color correction on the scan data output from the reading execution unit 130, and sends the image-processed scan data to the area separation processing unit 103. Send.

領域分離処理部103は、第1入力処理部102から出力されるスキャンデータに対して、領域分離処理を行う。領域分離処理部103は、スキャンデータによって示されるスキャン画像の画素ごとに写真(自然画)領域、文字領域、網点領域、網点内の文字領域といった画像の特徴を検出して、領域ごとの属性を表すフラグデータを、後述する文字フラグ1007、網点フラグ1008、網点内文字フラグ1009として生成する。該フラグデータは、第2入力処理部104に出力されるとともに、第1フラグメモリ112に格納される。 The area separation processing unit 103 performs the area separation processing on the scan data output from the first input processing unit 102. The area separation processing unit 103 detects image features such as a photograph (natural image) area, a character area, a halftone dot area, and a character area within the halftone dots for each pixel of the scanned image indicated by the scan data, and for each area. Flag data representing the attributes is generated as the character flag 1007, the halftone dot flag 1008, and the halftone dot in-character flag 1009, which will be described later. The flag data is output to the second input processing unit 104 and stored in the first flag memory 112.

第2入力処理部104は、第1入力処理部102から出力されるスキャンデータに対して、領域分離処理部103から出力されるフラグデータに基づき、領域ごとに適正な画像処理を行なって、処理済画像データを生成する。処理済画像データは、第1画像メモリ111に格納される。例えば、第2入力処理部104は、文字領域に対して、画像の高周波成分を強調して文字の鮮鋭度を強調する処理を行い、網点領域に対して、ローパスフィルタ処理を行う。ローパスフィルタ処理によって、スキャン画像に含まれるいわゆるモアレ成分が除去される。これらの処理の切り替えは、領域分離処理部103で生成したフラグデータに基づいて、画素単位で行われる。 The second input processing unit 104 processes the scan data output from the first input processing unit 102 by performing appropriate image processing for each area based on the flag data output from the area separation processing unit 103. Generate finished image data. The processed image data is stored in the first image memory 111. For example, the second input processing unit 104 performs a process of emphasizing the high frequency component of the image to emphasize the sharpness of the character in the character area, and performs a low-pass filter process in the halftone dot area. The low-pass filter processing removes so-called moire components contained in the scanned image. The switching of these processes is performed on a pixel-by-pixel basis based on the flag data generated by the area separation processing unit 103.

第1画像メモリ111に1ページ分の処理済画像データが格納されると、データ圧縮部107は、該処理済画像データを、例えば、非可逆圧縮方式(例えば、JPEG方式)を用いて圧縮し、圧縮済みの処理済画像データを、メインメモリ113に格納する。 When the processed image data for one page is stored in the first image memory 111, the data compression unit 107 compresses the processed image data by using, for example, a lossy compression method (for example, a PEG method). , The compressed processed image data is stored in the main memory 113.

第1フラグメモリ112に1ページ分のフラグデータが格納されると、データ圧縮部107は、該フラグデータを、可逆圧縮方式(例えば、ZIP方式)を用いて圧縮し、圧縮済みのフラグデータを、メインメモリ113に格納する。 When the flag data for one page is stored in the first flag memory 112, the data compression unit 107 compresses the flag data using a lossless compression method (for example, a ZIP method), and compresses the compressed flag data. , Stored in the main memory 113.

上記の処理を行なって、メインメモリ113には各原稿の圧縮済みの処理済画像データおよび圧縮済みのフラグデータが蓄積されていく。この蓄積処理と並行して、データ復号部109は、メインメモリ113から圧縮済みの処理済画像データおよび圧縮済みのフラグデータを取得し、復号処理を行なう。このとき、解像度変換部108は、必要に応じて、復号された処理済画像データに対して、該処理済画像データの解像度を変換する解像度変換を行なう。 By performing the above processing, the compressed processed image data and the compressed flag data of each document are accumulated in the main memory 113. In parallel with this storage process, the data decoding unit 109 acquires the compressed processed image data and the compressed flag data from the main memory 113, and performs the decoding process. At this time, the resolution conversion unit 108 performs resolution conversion on the decoded processed image data to convert the resolution of the processed image data, if necessary.

復号および解像度が変換された処理済画像データは、第2画像メモリ116に格納され、復号されたフラグデータは、第2フラグメモリ115に格納される。 The processed image data whose decoding and resolution have been converted is stored in the second image memory 116, and the decoded flag data is stored in the second flag memory 115.

出力処理部110は、第2画像メモリ116に格納された処理済画像データ(RGB値)に対して色変換処理やハーフトーン処理を含む生成処理を実行して、印刷データを生成する。出力処理部110は、印刷データを生成する過程において、第2フラグメモリ115に格納されたフラグデータを参照して、各画素が属する領域の属性を認識し、領域ごとに適した画像処理を実行することができる。これによって、適切な印刷データが生成される。生成される印刷データは、印刷実行部140に出力される。この結果、印刷実行部140によって、用紙上に原稿を示す画像が印刷される。 The output processing unit 110 generates print data by executing a generation process including a color conversion process and a halftone process on the processed image data (RGB value) stored in the second image memory 116. In the process of generating print data, the output processing unit 110 refers to the flag data stored in the second flag memory 115, recognizes the attributes of the area to which each pixel belongs, and executes image processing suitable for each area. can do. As a result, appropriate print data is generated. The generated print data is output to the print execution unit 140. As a result, the print execution unit 140 prints an image showing the original on the paper.

上記は、コピー処理についてのものであったが、複合機100は、ユーザの端末装置などの端末装置から送信される印刷ジョブを、通信IF150を介して受信し、該印刷ジョブに基づいて画像を印刷する、いわゆるネットワークプリンタとしても機能する。 The above was about copy processing, but the multifunction device 100 receives a print job transmitted from a terminal device such as a user's terminal device via the communication IF 150, and prints an image based on the print job. It also functions as a so-called network printer for printing.

この場合には、通信IF150を介して受信される印刷ジョブは、PDL形式の画像データを含む。PDL形式の画像データを含む印刷ジョブは、インタープリタ106に供給される。インタープリタ106は、受信した印刷ジョブに含まれるPDL形式の画像データを解釈し、RIP105が解釈可能な描画コマンド(中間データ)に変換する。RIP105は、この描画コマンドに基づき描画処理(ラスタライズ処理)を行なって、RGB画像データを生成する。このRGB画像データは、第1画像メモリ111に格納される。RIP105は、フラグデータを生成して、第1フラグメモリ112に格納する。PDL形式の印刷データでは、文字、写真(自然画)、網点等は、印刷コマンドで定義されているので、RIP105は、フラグデータを容易に生成することができる。 In this case, the print job received via the communication IF 150 includes image data in PDL format. A print job containing image data in PDL format is supplied to the interpreter 106. The interpreter 106 interprets the PDL format image data included in the received print job and converts it into a drawing command (intermediate data) that can be interpreted by the RIP 105. The RIP 105 performs drawing processing (rasterization processing) based on this drawing command to generate RGB image data. This RGB image data is stored in the first image memory 111. The RIP 105 generates flag data and stores it in the first flag memory 112. In the print data in PDL format, characters, photographs (natural images), halftone dots, and the like are defined by print commands, so that the RIP 105 can easily generate flag data.

A−3.領域分離処理部103による処理
領域分離処理部103によって実行される処理について説明する。図2は、実施形態における領域分離処理部103のブロック構成図である。
A-3. Processing by Area Separation Processing Unit 103 The processing executed by the area separation processing unit 103 will be described. FIG. 2 is a block configuration diagram of the area separation processing unit 103 in the embodiment.

輝度データ取得部1002には、第1入力処理部102から出力されるスキャンデータの各画素の値を示す画素単位の入力信号1001が、画素ごとに入力される。すなわち、入力信号1001は、スキャンデータの各画素のRGB値を示す信号である。輝度データ取得部1002は、入力信号1001によって示されるRGB値に基づいて、画素の明るさの度合いである輝度値を示す信号を、属性判定用の画素単位の判定信号として生成する。輝度値は、RGB値に含まれる複数個の成分値(R値、G値、B値)を用いて取得される。例えば、G値が、輝度値として用いられる。これに代えて、(R+2×G+B)/4などの演算によって、輝度値が算出されてもよい。また、RGB表色系の色値をLab表色系の色値に変換し、得られたL値を、輝度値として用いてもよい。輝度データ取得部1002は、画素ごとに入力されるスキャンデータを用いて、複数個の画素のそれぞれの輝度値を表す輝度画像データを取得する回路である、と言うことができる。 A pixel-by-pixel input signal 1001 indicating the value of each pixel of the scan data output from the first input processing unit 102 is input to the brightness data acquisition unit 1002 for each pixel. That is, the input signal 1001 is a signal indicating the RGB value of each pixel of the scan data. The luminance data acquisition unit 1002 generates a signal indicating the luminance value, which is the degree of brightness of the pixels, as a pixel-based determination signal for attribute determination, based on the RGB values indicated by the input signal 1001. The luminance value is acquired by using a plurality of component values (R value, G value, B value) included in the RGB value. For example, the G value is used as the brightness value. Instead of this, the brightness value may be calculated by an operation such as (R + 2 × G + B) / 4. Further, the color value of the RGB color system may be converted into the color value of the Lab color system, and the obtained L value may be used as the luminance value. It can be said that the luminance data acquisition unit 1002 is a circuit that acquires luminance image data representing the luminance values of each of the plurality of pixels by using the scan data input for each pixel.

輝度データ取得部1002にて生成された輝度値を示す判定信号は、文字判定部1003と、網点判定部1004と、網点内文字判定部1005と、にそれぞれ出力される。文字判定部1003と、網点判定部1004と、網点内文字判定部1005とは、供給される判定信号を用いて、文字判定、網点判定、網点内文字判定を、それぞれ、実行し、判定結果を示す結果信号を、属性フラグ生成部1006に出力する。 The determination signal indicating the luminance value generated by the luminance data acquisition unit 1002 is output to the character determination unit 1003, the halftone dot determination unit 1004, and the in-halftone dot character determination unit 1005, respectively. The character determination unit 1003, the halftone dot determination unit 1004, and the in-halftone dot character determination unit 1005 execute character determination, halftone dot determination, and in-net point character determination, respectively, using the supplied determination signals. , The result signal indicating the determination result is output to the attribute flag generation unit 1006.

属性フラグ生成部1006は、各判定部1003〜1005からの結果信号を用いて、属性フラグを生成する。実施例では、文字フラグ1007、網点フラグ1008、網点内文字フラグ1009が生成される。文字フラグ1007は、スキャンデータ内の対応する画素が、文字領域を構成する文字画素であるか否かを示すフラグである。網点フラグ1008は、スキャンデータ内の対応する画素が、網点領域を構成する網点画素であるか否かを示すフラグである。網点内文字フラグ1009は、スキャンデータ内の対応する画素が、網点内文字領域を構成する網点内文字画素であるか否かを示すフラグである。これらの属性フラグを基に、スキャン画像に含まれる画像の特徴に応じて最適な画像処理を施すことが可能になる。以下、文字判定部1003、網点判定部1004、網点内文字判定部1005について、より詳しく説明する。 The attribute flag generation unit 1006 generates an attribute flag using the result signals from each determination unit 1003 to 1005. In the embodiment, the character flag 1007, the halftone dot flag 1008, and the halftone dot in-character flag 1009 are generated. The character flag 1007 is a flag indicating whether or not the corresponding pixel in the scan data is a character pixel constituting the character area. The halftone dot flag 1008 is a flag indicating whether or not the corresponding pixel in the scan data is a halftone dot pixel constituting the halftone dot region. The halftone dot character flag 1009 is a flag indicating whether or not the corresponding pixel in the scan data is a halftone dot character pixel constituting the halftone dot character area. Based on these attribute flags, it is possible to perform optimum image processing according to the characteristics of the image included in the scanned image. Hereinafter, the character determination unit 1003, the halftone dot determination unit 1004, and the halftone dot character determination unit 1005 will be described in more detail.

A−3−1.文字判定部1003の説明
図3は、文字判定部1003の構成を示すブロック図である。
A-3-1. Description of the character determination unit 1003 FIG. 3 is a block diagram showing a configuration of the character determination unit 1003.

エッジ強調部1102には、輝度データ取得部1002からの判定信号(輝度値)が入力される。エッジ強調部1102は、該判定信号に対してエッジ強調処理を行ない、エッジ強調信号を出力する。このエッジ強調処理は、輝度画像データの所望の周波数成分を、強調・抽出するフィルタ処理が行われる。本実施例では、ラプラシアンフィルタなどの2次微分フィルタが用いられる。このために、エッジ強調部1102は、フィルタ処理に必要な、輝度画像データの複数個の画素の輝度値を示す複数個の判定信号を記憶するためのバッファメモリを備える。 A determination signal (luminance value) from the luminance data acquisition unit 1002 is input to the edge enhancement unit 1102. The edge enhancement unit 1102 performs edge enhancement processing on the determination signal and outputs an edge enhancement signal. In this edge enhancement process, a filter process is performed to emphasize / extract a desired frequency component of the luminance image data. In this embodiment, a second derivative filter such as a Laplacian filter is used. For this purpose, the edge enhancement unit 1102 includes a buffer memory for storing a plurality of determination signals indicating the luminance values of the plurality of pixels of the luminance image data, which are necessary for the filtering process.

エッジ強調部1102から出力されたエッジ強調信号は、エッジ強調信号によって示される値と、閾値と、の比較を行う閾値判定部1103、1104に入力される。閾値判定部1103には正の値の閾値が、閾値判定部1104には負の値の閾値が設定されている。 The edge enhancement signal output from the edge enhancement unit 1102 is input to the threshold value determination units 1103 and 1104 that compare the value indicated by the edge enhancement signal with the threshold value. A positive threshold value is set in the threshold value determination unit 1103, and a negative value threshold value is set in the threshold value determination unit 1104.

図4は、文字判定部の処理を説明するための図である。エッジ強調処理において2次微分フィルタを用いた場合、エッジ強調信号によって示される画素の値は、正の値である場合と、負の値である場合がある。図4(A)において、エッジ境界部1501は、下地1503(例えば白色)にある文字1502(例えば、黒色)と、下地1503と、のエッジを表している。図4(B)には、エッジ境界部1501の断面1510に対応する輝度画像データ(すなわち、判定信号)1504が示されている。この例では、文字1502の部分における輝度画像データの値(輝度値)は、比較的小さな値1505であり、下地1503の部分における輝度画像データの値は、比較的大きな値1506である。図4(C)には、図4(B)の輝度画像データ1504に対して、2次微分フィルタを用いエッジ強調処理を行って得られるエッジ抽出データ1507(すなわち、エッジ強調信号によって示されるデータ)が示されている。エッジ抽出データ1507は、文字1502側では正の値1508となり、下地1503側では負の値1509となる。閾値判定部1103は、エッジ強調信号によって示される値が、正の閾値を超えた場合に、「1」を示す内エッジ信号を出力し、正の閾値以下である場合に、「0」を示す内エッジ信号を出力する。「1」を示す内エッジ信号は、対応する画素が、輝度画像データにおいて、比較的小さな値から比較的大きな値へと変化するエッジを構成する小さな値側の画素(内エッジ画素)であることを示す。図4の例では、文字1502と下地1503とのエッジを構成する文字側の画素が、内エッジ画素である。閾値判定部1104は、エッジ強調信号によって示される値が、負の閾値を下回った場合に、「1」を示す外エッジ信号を出力し、負の閾値以上である場合に、「0」を示す外エッジ信号を出力する。「1」を示す外エッジ信号は、対応する画素が、輝度画像データにおいて、比較的小さな値から比較的大きな値へと変化するエッジを構成する大きな値側の画素(外エッジ画素とも呼ぶ)であることを示す。図4の例では、文字1502と下地1503とのエッジを構成する下地側の画素が、外エッジ画素である。 FIG. 4 is a diagram for explaining the processing of the character determination unit. When a second-order differential filter is used in the edge enhancement process, the pixel value indicated by the edge enhancement signal may be a positive value or a negative value. In FIG. 4A, the edge boundary portion 1501 represents the edge of the character 1502 (for example, black) on the base 1503 (for example, white) and the base 1503. FIG. 4B shows the luminance image data (that is, the determination signal) 1504 corresponding to the cross section 1510 of the edge boundary portion 1501. In this example, the value (luminance value) of the luminance image data in the portion of the character 1502 is a relatively small value 1505, and the value of the luminance image data in the portion of the base 1503 is a relatively large value 1506. FIG. 4C shows edge extraction data 1507 (that is, data indicated by an edge enhancement signal) obtained by performing edge enhancement processing on the luminance image data 1504 of FIG. 4B using a second-order differential filter. )It is shown. The edge extraction data 1507 has a positive value 1508 on the character 1502 side and a negative value 1509 on the base 1503 side. The threshold value determination unit 1103 outputs an inner edge signal indicating "1" when the value indicated by the edge emphasis signal exceeds the positive threshold value, and indicates "0" when the value is equal to or less than the positive threshold value. Output the inner edge signal. The inner edge signal indicating "1" means that the corresponding pixel is a pixel on the small value side (inner edge pixel) constituting an edge that changes from a relatively small value to a relatively large value in the luminance image data. Is shown. In the example of FIG. 4, the pixel on the character side forming the edge between the character 1502 and the base 1503 is the inner edge pixel. The threshold value determination unit 1104 outputs an outer edge signal indicating "1" when the value indicated by the edge emphasis signal is below the negative threshold value, and indicates "0" when the value is equal to or greater than the negative threshold value. Output the outer edge signal. The outer edge signal indicating "1" is a pixel on the large value side (also referred to as an outer edge pixel) that constitutes an edge in which the corresponding pixel changes from a relatively small value to a relatively large value in the luminance image data. Indicates that there is. In the example of FIG. 4, the pixel on the base side forming the edge between the character 1502 and the base 1503 is the outer edge pixel.

閾値判定部1103から出力された内エッジ信号は、エリア積算部1105へ、閾値判定部1104から出力された外エッジ信号は、エリア積算部1106へ、それぞれ出力される。エリア積算部1105は、注目画素を中心とする縦3画素×横3画素の周辺範囲内の画素に対応する9個の内エッジ信号を積算した積算信号を、画素ごとに出力する。エリア積算部1106は、注目画素の上記周辺範囲内の画素に対応する9個の外エッジ信号を積算した積算信号を、画素ごとに出力する。したがって、エリア積算部1105、1106から出力される積算信号は、対応する画素の周辺範囲内に存在する内エッジ画素の個数、外エッジ画素の個数を、それぞれ示す。したがって、積算信号が示す値は0以上9以下の範囲となる。 The inner edge signal output from the threshold value determination unit 1103 is output to the area integration unit 1105, and the outer edge signal output from the threshold value determination unit 1104 is output to the area integration unit 1106. The area integration unit 1105 outputs an integration signal that integrates nine inner edge signals corresponding to pixels in the peripheral range of 3 vertical pixels × 3 horizontal pixels centered on the pixel of interest, for each pixel. The area integration unit 1106 outputs an integration signal obtained by integrating nine outer edge signals corresponding to the pixels in the peripheral range of the pixel of interest for each pixel. Therefore, the integrated signal output from the area integrating units 1105 and 1106 indicates the number of inner edge pixels and the number of outer edge pixels existing in the peripheral range of the corresponding pixels, respectively. Therefore, the value indicated by the integrated signal is in the range of 0 or more and 9 or less.

閾値判定部1107、1108は、エリア積算部1105および1106から出力される積算信号が示す値と、閾値と、を比較して、その結果を示す積算判定信号を出力する。例えば、閾値としてそれぞれ「2」という値が設定されている。このために、閾値判定部1107から出力される積算判定信号は、対応する画素の上記周辺範囲内に、内エッジ画素が2個以上ある場合に、肯定的な値(例えば、「1」)を示す。閾値判定部1108から出力される積算判定信号は、対応する画素の上記周辺範囲内に、外エッジ画素が2個以上ある場合に、肯定的な値(例えば、「1」)を示す。 The threshold value determination units 1107 and 1108 compare the values indicated by the integration signals output from the area integration units 1105 and 1106 with the threshold value, and output an integration determination signal indicating the result. For example, a value of "2" is set as the threshold value. Therefore, the integration determination signal output from the threshold value determination unit 1107 has a positive value (for example, "1") when there are two or more inner edge pixels within the peripheral range of the corresponding pixels. Shown. The integration determination signal output from the threshold value determination unit 1108 shows a positive value (for example, “1”) when there are two or more outer edge pixels within the peripheral range of the corresponding pixel.

処理の具体例を、図5を用いて説明する。図5は、文字判定部の各処理の信号を示す図である。図5(A)には、輝度画像データによって示される輝度画像内に現れる下地上の文字のエッジの一部1301が示されている。 A specific example of the process will be described with reference to FIG. FIG. 5 is a diagram showing signals of each process of the character determination unit. FIG. 5A shows a part 1301 of the edge of the character on the background that appears in the luminance image indicated by the luminance image data.

図5(B)は、判定信号(すなわち、輝度値を示す信号)をエッジ強調部1102によってエッジ強調し、閾値判定部1104によって処理した結果、すなわち、外エッジ画素の特定結果を示している。図示のように、領域1302は、文字のエッジの外側の領域(外エッジ領域)を表わしている。 FIG. 5B shows the result of edge-enhancing the determination signal (that is, the signal indicating the luminance value) by the edge enhancement unit 1102 and processing by the threshold value determination unit 1104, that is, the specific result of the outer edge pixel. As shown, the region 1302 represents a region (outer edge region) outside the edge of the character.

図5(C)は、閾値判定部1104からの外エッジ信号をエリア積算部1106によって処理し、エリア積算部1106からの積算信号を閾値判定部1108によって処理した結果、すなわち、外エッジのエリア積算の判定結果を示している。図示のように、領域1304は、外エッジ領域1302の拡張した結果となる。 FIG. 5C shows the result of processing the outer edge signal from the threshold value determination unit 1104 by the area integration unit 1106 and processing the integration signal from the area integration unit 1106 by the threshold value determination unit 1108, that is, the area integration of the outer edge. The judgment result of is shown. As shown, region 1304 is the result of expansion of outer edge region 1302.

図5(D)は、判定信号(すなわち、最小成分値Vminを示す信号)をエッジ強調部1102によってエッジ強調し、閾値判定部1103によって処理した結果、すなわち、内エッジ画素の特定結果を示している。図示のように、領域1303は、文字のエッジの内側の領域(内エッジ領域)を表わしている。 FIG. 5D shows the result of edge-enhancing the determination signal (that is, the signal indicating the minimum component value Vmin) by the edge enhancement unit 1102 and processing by the threshold value determination unit 1103, that is, the specific result of the inner edge pixel. There is. As shown, the area 1303 represents an area inside the edge of the character (inner edge area).

図5(E)は、閾値判定部1103からの内エッジ信号をエリア積算部1105によって処理し、エリア積算部1105からの積算信号を閾値判定部1107によって処理した結果、すなわち、内エッジのエリア積算の判定結果を示している。図示のように、領域1305は、内エッジ領域1303の拡張した結果となる。 FIG. 5 (E) shows the result of processing the inner edge signal from the threshold value determination unit 1103 by the area integration unit 1105 and processing the integration signal from the area integration unit 1105 by the threshold value determination unit 1107, that is, the area integration of the inner edge. The judgment result of is shown. As shown, the region 1305 is the result of the expansion of the inner edge region 1303.

総合判定部1109には、閾値判定部1103、1107、1108から出力される3種類の信号、すなわち、内エッジ信号と、内エッジの積算判定信号と、外エッジの積算判定信号と、が入力される。総合判定部1109は、文字判定部1003の判定結果を示す結果信号である文字判定信号1110を生成する。図5(F)には、文字判定信号によって文字である示される領域1306が示されている。 Three types of signals output from the threshold determination units 1103, 1107, and 1108, that is, an inner edge signal, an inner edge integration determination signal, and an outer edge integration determination signal, are input to the comprehensive determination unit 1109. To. The comprehensive determination unit 1109 generates the character determination signal 1110, which is a result signal indicating the determination result of the character determination unit 1003. FIG. 5F shows a region 1306 indicated as a character by a character determination signal.

総合判定部1109は、内エッジ信号と、内エッジの積算判定信号と、外エッジの積算判定信号と、に基づいて、決められた論理に従って文字判定信号1110を出力する。例えば、文字判定信号1110は、以下のような論理で、文字であることを示す信号(本実施例では「1」)、または、文字でないことを示す信号(本実施例では「0」)に決定される。
(1)対応する画素が内エッジである。→「1」
(2)対応する画素が外エッジであり、かつ、上記縦3画素×縦3画素の周辺範囲に外エッジが2個以上ある。→「0」
(3)上記(1)、(2)のいずれにも該当せず、かつ、上記縦3画素×縦3画素の周辺範囲に内エッジが2個以上ある。→「1」
(4)上記(1)〜(3)のいずれにも該当しない。→「0」
上記を実現するためには、総合判定部1109は、図6に示すテーブルを保持している。図示の如く、入力される内エッジ信号、内エッジの積算判定信号、外エッジの積算判定信号の結果に応じて、文字判定信号1110が決定される。以上のように行うことで、文字を好適に抽出することができる。
The comprehensive determination unit 1109 outputs the character determination signal 1110 according to a determined logic based on the inner edge signal, the inner edge integration determination signal, and the outer edge integration determination signal. For example, the character determination signal 1110 can be a signal indicating that it is a character (“1” in this embodiment) or a signal indicating that it is not a character (“0” in this embodiment) with the following logic. It is determined.
(1) The corresponding pixel is the inner edge. → "1"
(2) The corresponding pixel is an outer edge, and there are two or more outer edges in the peripheral range of the vertical 3 pixels × vertical 3 pixels. → "0"
(3) It does not correspond to any of the above (1) and (2), and there are two or more inner edges in the peripheral range of the above 3 vertical pixels × 3 vertical pixels. → "1"
(4) It does not correspond to any of the above (1) to (3). → "0"
In order to realize the above, the comprehensive determination unit 1109 holds the table shown in FIG. As shown in the figure, the character determination signal 1110 is determined according to the results of the input inner edge signal, inner edge integration determination signal, and outer edge integration determination signal. By performing as described above, characters can be suitably extracted.

A−3−2.網点判定部1004の説明
図7は、実施形態における網点判定部1004のブロック構成図である。
A-3-2. Explanation of Halftone Halftone Point Determination Unit 1004 FIG. 7 is a block configuration diagram of the halftone dot determination unit 1004 in the embodiment.

エッジ強調部1202には、輝度データ取得部1002からの判定信号(輝度値)が入力される。エッジ強調部1202は、判定信号に対してエッジ強調処理を行ない、エッジ強調信号を出力する。エッジ強調部1202によるエッジ強調処理は、図3のエッジ強調部1102によるエッジ強調処理と同様の処理であり、例えば、ラプラシアンフィルタなどの2次微分フィルタを用いたフィルタ処理である。 A determination signal (luminance value) from the luminance data acquisition unit 1002 is input to the edge enhancement unit 1202. The edge enhancement unit 1202 performs edge enhancement processing on the determination signal and outputs the edge enhancement signal. The edge enhancement process by the edge enhancement unit 1202 is the same process as the edge enhancement process by the edge enhancement unit 1102 in FIG. 3, and is, for example, a filter process using a second derivative filter such as a Laplacian filter.

エッジ強調部1202から出力されたエッジ強調信号は、エッジ強調信号によって示される値と、閾値と、の比較を行う閾値判定部1203、1204に入力される。閾値判定部1203には正の値の閾値が、閾値判定部1204には負の値の閾値が設定されている。 The edge enhancement signal output from the edge enhancement unit 1202 is input to the threshold value determination units 1203 and 1204 that compare the value indicated by the edge enhancement signal with the threshold value. A positive threshold value is set in the threshold value determination unit 1203, and a negative value threshold value is set in the threshold value determination unit 1204.

図8は、網点判定部の処理を説明するための図である。エッジ強調処理において2次微分フィルタを用いた場合、上述したように、エッジ強調信号によって示される画素の値は、正の値である場合と、負の値である場合がある。図8(A)において、エッジ境界部1601は、下地1603(例えば、白色)にある1個の網点1602と、下地1603と、のエッジを表している。図8(B)には、網点エッジ境界部1601の断面1610に対する輝度画像データ(すなわち、判定信号)1604が示されている。この例では、網点1602の部分における輝度画像データの値(輝度値)は、比較的小さな値1605であり、下地1603の部分における輝度画像データの値は、比較的大きな値1606である。図8(C)には、図8(B)の輝度画像データ1604に対して、2次微分フィルタを用いエッジ強調処理を行って得られるエッジ抽出データ1607が示されている。エッジ抽出データ1607は、網点1602側では正の値1608となり、下地1603側では負の値1609となる。閾値判定部1203は、図3の閾値判定部1103と同様に、内エッジ信号を出力する。閾値判定部1204は、図3の閾値判定部1104と同様に、外エッジ信号を出力する。図6の例では、網点1602と下地1603とのエッジを構成する網点側の画素が、内エッジ画素である。また、網点1602と下地1603とのエッジを構成する下地側の画素が、外エッジ画素である。 FIG. 8 is a diagram for explaining the processing of the halftone dot determination unit. When a second-order differential filter is used in the edge enhancement process, the pixel value indicated by the edge enhancement signal may be a positive value or a negative value, as described above. In FIG. 8A, the edge boundary portion 1601 represents the edge of one halftone dot 1602 on the base 1603 (for example, white) and the base 1603. FIG. 8B shows the luminance image data (that is, the determination signal) 1604 with respect to the cross section 1610 of the halftone dot edge boundary portion 1601. In this example, the value of the luminance image data (luminance value) at the portion of the net point 1602 is a relatively small value 1605, and the value of the luminance image data at the portion of the base 1603 is a relatively large value 1606. FIG. 8C shows edge extraction data 1607 obtained by performing edge enhancement processing on the luminance image data 1604 of FIG. 8B using a second-order differential filter. The edge extraction data 1607 has a positive value of 1608 on the halftone dot 1602 side and a negative value of 1609 on the base 1603 side. The threshold value determination unit 1203 outputs an inner edge signal in the same manner as the threshold value determination unit 1103 of FIG. The threshold value determination unit 1204 outputs an outer edge signal in the same manner as the threshold value determination unit 1104 of FIG. In the example of FIG. 6, the halftone dot side pixels forming the edge between the halftone dot 1602 and the base 1603 are the inner edge pixels. Further, the pixels on the base side forming the edge between the halftone dots 1602 and the base 1603 are outer edge pixels.

閾値判定部1203から出力される内エッジ信号は、孤立量判定部1205に入力される。閾値判定部1204から出力される外エッジ信号は、孤立量判定部1206に入力される。 The inner edge signal output from the threshold value determination unit 1203 is input to the isolation amount determination unit 1205. The outer edge signal output from the threshold value determination unit 1204 is input to the isolation amount determination unit 1206.

孤立量判定部1205は、閾値判定部1203からの内エッジ信号についてパターンマッチング処理を行う。原稿に含まれる網点には、比較的単位面積当たりの線数が少ないものから比較的単位面積あたりの線数が多いものまであるため、原稿によって網点のサイズや間隔は異なる。そのため、どのような線数の網点でも検出できるように、パターンマッチングは複数のパターンにて行う。少線数の網点に対しては、比較的大きなパターンにてマッチングを行い、網点かどうかを判定する。多線数の網点に対しては、比較的小さなパターンにてマッチングを行い、網点かどうかを判定する。また、網点は、原稿上で表現すべき濃度によっても形状が変化するので、それに対応できるよう、マッチングの際に、複数の判定レベルを用いる。 The isolation amount determination unit 1205 performs pattern matching processing on the inner edge signal from the threshold value determination unit 1203. Since the halftone dots included in the manuscript range from those having a relatively small number of lines per unit area to those having a relatively large number of lines per unit area, the size and spacing of the halftone dots differ depending on the manuscript. Therefore, pattern matching is performed with a plurality of patterns so that halftone dots of any number of lines can be detected. For halftone dots with a small number of lines, matching is performed with a relatively large pattern to determine whether or not the dots are halftone dots. For halftone dots with a large number of lines, matching is performed with a relatively small pattern to determine whether or not the dots are halftone dots. In addition, since the shape of halftone dots changes depending on the density to be expressed on the document, a plurality of judgment levels are used at the time of matching so as to cope with it.

図9は、パターンマッチングの一例を示す第1の図である。図9(A)は、閾値判定部1203の結果の例である。図9(A)には、縦4画素×横4画素の範囲でパターンマッチングする例を説明するため、当該範囲内の内エッジ信号1700を示している。その中で、閾値判定部1203で、「1」を示す内エッジ信号が出力された画素(内エッジ画素)が、ハッチングされた領域1702の4画素である。「0」を示す内エッジ信号が出力された画素(非内エッジ画素)は、ハッチングされていない領域1703の画素である。マッチングの対象となる注目画素は画素1701である。 FIG. 9 is a first diagram showing an example of pattern matching. FIG. 9A is an example of the result of the threshold value determination unit 1203. FIG. 9A shows an inner edge signal 1700 in the range of 4 vertical pixels × 4 horizontal pixels in order to explain an example of pattern matching. Among them, the pixels (inner edge pixels) to which the inner edge signal indicating "1" is output by the threshold value determination unit 1203 are the four pixels of the hatched region 1702. The pixel (non-inner edge pixel) to which the inner edge signal indicating "0" is output is a pixel in the unhatched area 1703. The pixel of interest to be matched is pixel 1701.

次に、同サイズの判定パターンの一例を図9(B)に示す。図示の判定パターン1710において、4個の黒画素1712は、該パターンにおいて、内エッジ画素であるべき画素である。8個の白画素1713は、非内エッジ画素であるべき画素である。4隅の画素は、内エッジ画素でも非内エッジ画素でも構わない任意画素1714である。これを基本パターンとして、黒画素1712と白画素1713のそれぞれに、複数の一致レベルを持たせて、判定レベルを調整する。 Next, an example of the determination pattern of the same size is shown in FIG. 9B. In the illustrated determination pattern 1710, the four black pixels 1712 are pixels that should be inner edge pixels in the pattern. The eight white pixels 1713 are pixels that should be non-inner edge pixels. The pixels at the four corners are arbitrary pixels 1714 which may be inner edge pixels or non-inner edge pixels. Using this as a basic pattern, the black pixel 1712 and the white pixel 1713 are each provided with a plurality of matching levels, and the determination level is adjusted.

図10は、内エッジ信号と、図9(B)の判定パターン1710と、マッチングの結果の一例を示す図である。 FIG. 10 is a diagram showing an example of the matching result of the inner edge signal, the determination pattern 1710 of FIG. 9B.

判定パターン1710における黒画素1712と、内エッジ信号における内エッジ画素と、が、4画素のうちN1画素(N1は、1以上3以下の整数)以上一致した場合は、黒画素判定を有効とする。判定パターン1710における白画素1713と、内エッジ信号における非エッジ画素と、が8画素のうちN2画素以上(N2は、1以上7以下の整数)一致した場合は、白画素判定を有効とする。黒画素判定と白画素判定との両方が有効である場合に限って、注目画素1801の判定結果を示す孤立量判定信号を、「1」とする。N1とN2の値を調整することで、判定レベルを任意に調整できる。本実施例では、N1=3、N2=6とする。 When the black pixel 1712 in the determination pattern 1710 and the inner edge pixel in the inner edge signal match N1 pixel (N1 is an integer of 1 or more and 3 or less) or more among the four pixels, the black pixel determination is valid. .. When the white pixel 1713 in the determination pattern 1710 and the non-edge pixel in the inner edge signal match N2 pixels or more (N2 is an integer of 1 or more and 7 or less) out of 8 pixels, the white pixel determination is valid. Only when both the black pixel determination and the white pixel determination are valid, the isolated amount determination signal indicating the determination result of the attention pixel 1801 is set to "1". The determination level can be arbitrarily adjusted by adjusting the values of N1 and N2. In this embodiment, N1 = 3 and N2 = 6.

図10(A)の内エッジ信号1810の場合、黒画素判定は有効(一致数=4)であり、かつ、白画素判定は有効(一致数=8)であるので、孤立量判定信号は「1」となる。 In the case of the inner edge signal 1810 of FIG. 10A, the black pixel determination is valid (match number = 4) and the white pixel determination is valid (match number = 8), so that the isolation amount determination signal is ". 1 ”.

図10(B)の内エッジ信号1820の場合、黒画素判定は有効(一致数=4)であり、かつ、白画素判定は有効(一致数=7)であるので、孤立量判定信号は「1」となる。 In the case of the inner edge signal 1820 of FIG. 10B, the black pixel determination is valid (match number = 4) and the white pixel determination is valid (match number = 7), so that the isolation amount determination signal is ". 1 ”.

図10(C)の内エッジ信号1830の場合、黒画素判定は有効(一致数=3)であり、かつ、白画素判定は有効(一致数=8)であるので、孤立量判定信号は「1」となる。 In the case of the inner edge signal 1830 of FIG. 10C, the black pixel determination is valid (match number = 3) and the white pixel determination is valid (match number = 8), so that the isolation amount determination signal is ". 1 ”.

図10(D)の内エッジ信号1840の場合、黒画素判定は無効(一致数=2)であり、かつ、白画素判定は有効(一致数=8)であるので、孤立量判定信号は「0」となる。 In the case of the inner edge signal 1840 of FIG. 10 (D), the black pixel determination is invalid (match number = 2) and the white pixel determination is valid (match number = 8), so that the isolation amount determination signal is ". It becomes "0".

このようなパターンマッチングを複数のサイズの判定パターンを用いて行う。実施例では、内エッジ信号について説明したが、外エッジ信号についても同様のパターンマッチングを行う。その際、判定パターンや判定レベルの調整値は任意に設定できる。 Such pattern matching is performed using determination patterns of a plurality of sizes. In the embodiment, the inner edge signal has been described, but the same pattern matching is performed for the outer edge signal. At that time, the determination pattern and the adjustment value of the determination level can be arbitrarily set.

さて、孤立量判定部1205、1206から出力される孤立量判定信号は、図7のOR処理部1207に入力される。OR処理部1207では、縦3画素×横3画素の範囲内で孤立量判定信号の論理和をとり、該範囲内に孤立量判定信号が「1」である画素があるか否かを判定する。OR処理部1207は、判定の結果、孤立量判定信号が「1」である画素が、該範囲内に1個以上あれば、判定対象の注目画素のOR処理信号を「1」とし、孤立量判定信号が「1」である画素が、該範囲内に1個もなければ、判定対象の注目画素のOR処理信号を「0」とする。 By the way, the isolation amount determination signal output from the isolation amount determination units 1205 and 1206 is input to the OR processing unit 1207 of FIG. 7. The OR processing unit 1207 takes the logical sum of the isolation amount determination signals within the range of 3 vertical pixels × 3 horizontal pixels, and determines whether or not there is a pixel whose isolation amount determination signal is “1” in the range. .. As a result of the determination, the OR processing unit 1207 sets the OR processing signal of the pixel of interest to be determined to be "1" if there is one or more pixels in the range in which the isolation amount determination signal is "1", and the isolation amount. If there is no pixel in the range in which the determination signal is "1", the OR processing signal of the pixel of interest to be determined is set to "0".

図11は、OR処理部1207による処理の説明図である。図11(A)の例では、縦3画素×横3画素の範囲のうち、中心の注目画素の孤立量判定信号だけが「1」である。従って、出力されるOR処理信号は、「1」である。図11(B)の例では、中心の注目画素の孤立量判定信号は「0」であるが、縦3画素×横3画素の範囲内の右上の画素の孤立量判定信号は、「1」である。従って、出力されるOR処理信号は、「1」である。図11(C)の例では、中心の注目画素の孤立量判定信号は「0」であるが、その周囲の8個の画素の孤立量判定信号は、「1」である。従って、出力されるOR処理信号は、「1」である。 FIG. 11 is an explanatory diagram of processing by the OR processing unit 1207. In the example of FIG. 11A, only the isolation amount determination signal of the central attention pixel in the range of 3 vertical pixels × 3 horizontal pixels is “1”. Therefore, the output OR processing signal is "1". In the example of FIG. 11B, the isolation amount determination signal of the central attention pixel is "0", but the isolation amount determination signal of the upper right pixel within the range of 3 vertical pixels x 3 horizontal pixels is "1". Is. Therefore, the output OR processing signal is "1". In the example of FIG. 11C, the isolation amount determination signal of the central pixel of interest is “0”, but the isolation amount determination signal of the eight pixels around it is “1”. Therefore, the output OR processing signal is "1".

OR処理部1207から出力されるOR処理信号は、積算処理部1209に入力される。図12は、積算処理部1209と、閾値判定部1211と、の構成を示すブロック図である。 The OR processing signal output from the OR processing unit 1207 is input to the integration processing unit 1209. FIG. 12 is a block diagram showing the configuration of the integration processing unit 1209 and the threshold value determination unit 1211.

積算処理部1209は、注目画素を中心とする複数種類のサイズの積算範囲内の画素に対応する複数個のOR処理信号を積算した積算信号を、画素ごとに出力する。OR処理信号の信号を複数の積算範囲を用いて積算する。例えば、第1積算部2011は、積算範囲として、縦9画素×横9画素の範囲を用いる。したがって、第1積算部2011から出力される積算判定信号は、0以上81以下の範囲となる。第2積算部2012、第3積算部2013は、積算範囲として、それぞれ、縦15画素×横15画素の範囲、縦21画素×横21画素の範囲を用いる。したがって、第2積算部2012、第3積算部2013から出力される積算信号は、それぞれ、0以上225以下の範囲、0以上441以下の範囲となる。第1積算部2011、第2積算部2012、第3積算部2013から出力される積算信号は、それぞれ、閾値判定部1211の第1判定部2021、第2判定部2022、第3判定部2023に、入力される。 The integration processing unit 1209 outputs an integration signal obtained by integrating a plurality of OR processing signals corresponding to pixels within the integration range of a plurality of types of sizes centered on the pixel of interest for each pixel. The signal of the OR processing signal is integrated using a plurality of integration ranges. For example, the first integration unit 2011 uses a range of 9 vertical pixels × 9 horizontal pixels as the integration range. Therefore, the integration determination signal output from the first integration unit 2011 is in the range of 0 or more and 81 or less. The second integration unit 2012 and the third integration unit 2013 use a range of vertical 15 pixels × horizontal 15 pixels and a range of vertical 21 pixels × horizontal 21 pixels, respectively, as the integration range. Therefore, the integrated signals output from the second integrating unit 2012 and the third integrating unit 2013 are in the range of 0 or more and 225 or less and 0 or more and 441 or less, respectively. The integrated signals output from the first integrating unit 2011, the second integrating unit 2012, and the third integrating unit 2013 are sent to the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 of the threshold value determination unit 1211, respectively. , Is entered.

第1判定部2021、第2判定部2022、第3判定部2023は、それぞれに入力される積算信号が示す値と、閾値と、を比較して、その結果を示す積算判定信号を出力する。を行う。具体的には、第1判定部2021、第2判定部2022、第3判定部2023から出力される積算判定信号は、積算信号が示す値が、設定された閾値以上である場合には、「1」とされ、該閾値未満である場合には、「0」とされる。第1判定部2021、第2判定部2022、第3判定部2023で用いられる閾値は、互いに異なる値であり、本実施例では、それぞれ、「5」、「12」、「23」に設定されている。これによって、各判定部2021、2022、2023は、積算信号が示す値が、積算範囲内の画素数の約5%を超える場合に、「1」を示す積算判定信号を出力し、積算信号が示す値が、積算範囲内の画素数の約5%以下である場合に、「0」を示す積算判定信号を出力する。 The first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 compare the value indicated by the integration signal input to each with the threshold value, and output an integration determination signal indicating the result. I do. Specifically, when the value indicated by the integration signal is equal to or greater than the set threshold value, the integration determination signal output from the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 is ". It is set to "1", and if it is less than the threshold value, it is set to "0". The threshold values used in the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 are different values from each other, and are set to "5", "12", and "23", respectively, in this embodiment. ing. As a result, each determination unit 2021, 2022, 2023 outputs an integration determination signal indicating "1" when the value indicated by the integration signal exceeds about 5% of the number of pixels in the integration range, and the integration signal is generated. When the indicated value is about 5% or less of the number of pixels in the integration range, an integration determination signal indicating "0" is output.

第1判定部2021、第2判定部2022、第3判定部2023から出力される積算判定信号は、総合判定部1213(図7、図12)に入力される。総合判定部1213は、入力される3個の積算判定信号に基づいて、網点判定部1004の判定結果を示す結果信号である網点判定信号1215を生成する。網点判定信号1215は、注目画素が網点画素であることを示す値「1」と、注目画素が網点画素でないことを示す値「0」と、のいずれかである。 The integrated determination signals output from the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 are input to the comprehensive determination unit 1213 (FIGS. 7 and 12). The comprehensive determination unit 1213 generates a halftone dot determination signal 1215, which is a result signal indicating the determination result of the halftone dot determination unit 1004, based on the three input integration determination signals. The halftone dot determination signal 1215 is either a value “1” indicating that the pixel of interest is a halftone dot pixel or a value “0” indicating that the pixel of interest is not a halftone dot pixel.

図13〜図15は、閾値判定部1211と、総合判定部1213と、の処理の一例を示す図である。図13(A)には、OR処理部1207によって出力されるOR処理信号2100が概念的に図示されている。このOR処理信号2100は、比較的低い濃度を示す網点を含む領域を処理した場合の例である。クロスハッチングされた画素は、対応するOR処理信号が「1」である画素を示し、クロスハッチングされていない画素は、対応するOR処理信号が「0」である画素を示す。図には、注目画素2101を中心とした、縦9画素×横9画素の積算範囲2102と、縦15画素×横15画素の積算範囲2103と、縦21画素×横21画素の積算範囲2104と、がそれぞれ示されている。それぞれの積算範囲での積算結果、すなわち、第1積算部2011、第2積算部2012、第3積算部2013から出力される積算信号の値が、図13(B)に示されている。第1積算部2011(9×9)の積算結果は、12画素であり、第2積算部2012(15×15)の積算結果は、40画素であり、第3積算部2013の積算結果は、76画素である。 13 to 15 are diagrams showing an example of processing of the threshold value determination unit 1211 and the comprehensive determination unit 1213. FIG. 13A conceptually illustrates the OR processing signal 2100 output by the OR processing unit 1207. The OR processing signal 2100 is an example in which a region including halftone dots showing a relatively low density is processed. The cross-hatched pixel indicates a pixel whose corresponding OR processing signal is "1", and the non-cross-hatched pixel indicates a pixel whose corresponding OR processing signal is "0". In the figure, the integration range 2102 of 9 pixels vertically × 9 pixels horizontally, the integration range 2103 of 15 pixels vertically × 15 pixels horizontally, and the integration range 2104 of 21 pixels vertically × 21 pixels horizontally, centered on the pixel of interest 2101. , Are shown respectively. The integration results in each integration range, that is, the values of the integration signals output from the first integration unit 2011, the second integration unit 2012, and the third integration unit 2013 are shown in FIG. 13 (B). The integration result of the first integration unit 2011 (9 × 9) is 12 pixels, the integration result of the second integration unit 2012 (15 × 15) is 40 pixels, and the integration result of the third integration unit 2013 is. It has 76 pixels.

したがって、図13(B)に示すように、第1積算部2011(9×9)の積算結果の「12」は閾値「5」以上であるので、第1判定部2021(9×9)が出力する積算判定信号は、「1」(網点)になる。同様に、第2積算部2012(15×15)の積算結果の「40」も閾値「12」以上であり、第3積算部2013(21×21)の積算結果の「76」も閾値「23」以上であるので、対応する第2判定部2022、第3判定部2023が出力する積算判定信号は、両方とも「1」になる。 Therefore, as shown in FIG. 13B, the integration result “12” of the first integration unit 2011 (9 × 9) is equal to or higher than the threshold value “5”, so that the first determination unit 2021 (9 × 9) The integrated determination signal to be output is "1" (halftone dot). Similarly, the integration result “40” of the second integration unit 2012 (15 × 15) is also the threshold value “12” or more, and the integration result “76” of the third integration unit 2013 (21 × 21) is also the threshold value “23”. Therefore, the integration determination signals output by the corresponding second determination unit 2022 and third determination unit 2023 are both “1”.

総合判定部1213は、上記3種類の結果を元に、注目画素が最終的に網点かどうかを判定し、該判定結果を示す網点判定信号1215を生成する。本実施例では、総合判定部1213は、図13(C)に示すように、3種類の結果から二組のペアを作る。例えば、第1判定部2021と第2判定部2022との積算判定信号で第1のペアを作り、第2判定部2022と第3判定部2023との積算判定信号で第2のペアを作る。総合判定部1213は、それぞれの組の積算判定信号の論理積(AND)を算出する。第1のペアの論理積は、「1」(網点)であり、第2のペアの論理積も「1」(網点)である。総合判定部1213は、さらに、第1のペアの論理積と、第2のペアの論理積と、の論理和を、網点判定信号1215として生成する。図13の例では、いずれの論理積も「1」であるので、注目画素の網点判定信号1215は、「1」(網点)になる。 Based on the above three types of results, the comprehensive determination unit 1213 finally determines whether or not the pixel of interest is a halftone dot, and generates a halftone dot determination signal 1215 indicating the determination result. In this embodiment, the comprehensive determination unit 1213 makes two pairs from the three types of results, as shown in FIG. 13 (C). For example, the integration determination signal of the first determination unit 2021 and the second determination unit 2022 makes a first pair, and the integration determination signal of the second determination unit 2022 and the third determination unit 2023 makes a second pair. The comprehensive determination unit 1213 calculates the logical product (AND) of each set of integration determination signals. The logical product of the first pair is "1" (halftone dots), and the logical product of the second pair is also "1" (halftone dots). The comprehensive determination unit 1213 further generates the logical sum of the logical product of the first pair and the logical product of the second pair as the halftone dot determination signal 1215. In the example of FIG. 13, since each logical product is “1”, the halftone dot determination signal 1215 of the pixel of interest becomes “1” (halftone dot).

図14(A)には、図13と同程度の濃度を示す網点を含み、かつ、文字のエッジ2205を含む領域に対応するOR処理信号2200が概念的に図示されている。図示のように、文字のエッジ2205がある場合は、該エッジ近傍には、孤立したドットが発生しないため、文字エッジ近傍のOR処理信号は「0」になる。この場合には、図14(B)に示すように、第1積算部2011(9×9)の積算結果は、4画素であり、第2積算部2012(15×15)の積算結果は、32画素であり、第3積算部2013の積算結果は、60画素である。 FIG. 14 (A) conceptually illustrates an OR processing signal 2200 that includes halftone dots showing the same density as that of FIG. 13 and corresponds to a region including a character edge 2205. As shown in the figure, when there is a character edge 2205, an isolated dot is not generated in the vicinity of the edge, so that the OR processing signal in the vicinity of the character edge becomes “0”. In this case, as shown in FIG. 14B, the integration result of the first integration unit 2011 (9 × 9) is 4 pixels, and the integration result of the second integration unit 2012 (15 × 15) is. It has 32 pixels, and the integration result of the third integration unit 2013 is 60 pixels.

したがって、図14(B)に示すように、第1積算部2011(9×9)の積算結果の「4」は閾値「5」未満であるので、第1判定部2021(9×9)が出力する積算判定信号は、「0」(非網点)になる。第2積算部2012(15×15)の積算結果の「32」は閾値「12」以上であり、第3積算部2013(21×21)の積算結果の「60」も、閾値「23」以上であるので、対応する第2判定部2022、第3判定部2023が出力する積算判定信号は、両方とも「1」(網点)になる。 Therefore, as shown in FIG. 14B, the integration result “4” of the first integration unit 2011 (9 × 9) is less than the threshold value “5”, so that the first determination unit 2021 (9 × 9) The integrated determination signal to be output is "0" (non-halftone dot). The integration result "32" of the second integration unit 2012 (15 × 15) is the threshold value “12” or more, and the integration result “60” of the third integration unit 2013 (21 × 21) is also the threshold value “23” or more. Therefore, the integration determination signals output by the corresponding second determination unit 2022 and third determination unit 2023 are both "1" (halftone dots).

図14(C)に示すように、第1のペアの論理積は、「0」(非網点)であり、第2のペアの論理積は「1」(網点)である。第1のペアの論理積と、第2のペアの論理積と、の論理和は、すなわち、注目画素の網点判定信号1215は、「1」(網点)になる。このように、文字のエッジを含むために、1つの積算範囲の積算結果が、非網点を示しても、最終的には、網点と判定される。このように、複数の積算範囲と、複数個の閾値を用いることで、網点として適切に検出できる。 As shown in FIG. 14C, the logical product of the first pair is "0" (non-halftone dots), and the logical product of the second pair is "1" (halftone dots). The logical sum of the logical product of the first pair and the logical product of the second pair is, that is, the halftone dot determination signal 1215 of the pixel of interest becomes "1" (halftone dot). As described above, since the edge of the character is included, even if the integration result of one integration range indicates a non-halftone dot, it is finally determined to be a halftone dot. In this way, by using a plurality of integration ranges and a plurality of threshold values, it can be appropriately detected as halftone dots.

図15(A)には、図13(A)と同程度の濃度を示す網点を含む領域の縁の外側に注目画素がある場合のOR処理信号2300が概念的に図示されている。この場合には、図15(B)に示すように、第1積算部2011(9×9)の積算結果は、0画素であり、第2積算部2012(15×15)の積算結果は、12画素であり、第3積算部2013の積算結果は、20画素である。 FIG. 15A conceptually illustrates the OR processing signal 2300 when the pixel of interest is outside the edge of the region including the halftone dots showing the same density as that of FIG. 13A. In this case, as shown in FIG. 15B, the integration result of the first integration unit 2011 (9 × 9) is 0 pixels, and the integration result of the second integration unit 2012 (15 × 15) is. There are 12 pixels, and the integration result of the third integration unit 2013 is 20 pixels.

したがって、図15(B)に示すように、第1積算部2011(9×9)の積算結果の「0」は閾値「5」未満であるので、第1判定部2021(9×9)が出力する積算判定信号は、「0」(非網点)になる。第2積算部2012(15×15)の積算結果の「12」は閾値「12」以上であるので、第2判定部2022(15×15)が出力する積算判定信号は、「1」(網点)になる。第3積算部2013(21×21)の積算結果の「20」は閾値「23」未満であるので、第3判定部2023(21×21)が出力する積算判定信号は、「0」(非網点)になる。 Therefore, as shown in FIG. 15B, the “0” of the integration result of the first integration unit 2011 (9 × 9) is less than the threshold value “5”, so that the first determination unit 2021 (9 × 9) The integrated determination signal to be output is "0" (non-halftone dot). Since the integration result “12” of the second integration unit 2012 (15 × 15) is equal to or greater than the threshold value “12”, the integration determination signal output by the second determination unit 2022 (15 × 15) is “1” (net). Point). Since the integration result “20” of the third integration unit 2013 (21 × 21) is less than the threshold value “23”, the integration determination signal output by the third determination unit 2023 (21 × 21) is “0” (non-). It becomes a halftone dot).

図15(C)に示すように、第1のペアの論理積は、「0」(非網点)であり、第2のペアの論理積も「0」(非網点)である。第1のペアの論理積と、第2のペアの論理積と、の論理和は、すなわち、注目画素の網点判定信号1215は、「0」(非網点)になる。図14の例のように、積算範囲に含まれる網点領域内に文字のエッジが含まれる場合、文字のエッジに重なる位置の網点が文字のエッジによって除かれるので、積算範囲内の網点の総数が少なくなる。ここで、積算範囲を拡張すると、積算範囲に含まれる網点の総数が多くなるので、網点の総数に対する文字のエッジによって除かれる網点の数の割合が小さくなる。この結果、網点領域内の画素を網点として適切に判定できる。しかし、積算範囲を拡張すると、網点を含む領域の縁から外側に遠く離れた画素も、網点であると判定され得るので、網点と判断される領域が拡張され得る。本実施例では、複数の積算範囲と、複数個の閾値を用いることで、網点の縁の外側の画素を、非網点として適切に検出できる。 As shown in FIG. 15C, the logical product of the first pair is "0" (non-halftone dots), and the logical product of the second pair is also "0" (non-halftone dots). The logical sum of the logical product of the first pair and the logical product of the second pair is, that is, the halftone dot determination signal 1215 of the pixel of interest is "0" (non-halftone dot). When the edge of the character is included in the halftone dot area included in the integration range as in the example of FIG. 14, the halftone dot at the position overlapping the edge of the character is removed by the edge of the character, so that the halftone dot in the integration range is excluded. The total number of Here, when the integration range is expanded, the total number of halftone dots included in the integration range increases, so that the ratio of the number of halftone dots excluded by the character edge to the total number of halftone dots decreases. As a result, the pixels in the halftone dot region can be appropriately determined as halftone dots. However, when the integration range is expanded, pixels far outward from the edge of the region including the halftone dots can also be determined to be halftone dots, so that the region determined to be halftone dots can be expanded. In this embodiment, by using a plurality of integration ranges and a plurality of threshold values, pixels outside the edge of halftone dots can be appropriately detected as non-halftone dots.

ここで説明した積算処理の組み合わせは一例に過ぎず、これに限るものではない。目的に応じて自由に組み合わせを構成できる。また、説明では3種類の積算処理の結果を用いたため二組の論理積を用いたが、これに限るものではない。入力数とその論理演算部は自由に構成できるものである。さらに、論理積と論理輪の組み合わせも一例に過ぎず、これに限るものではない。論理積や論理和を自由に組み合わせることができる。 The combination of integration processing described here is only an example, and is not limited to this. The combination can be freely configured according to the purpose. Further, in the explanation, since the results of three types of integration processing are used, two sets of logical products are used, but the present invention is not limited to this. The number of inputs and its logical operation unit can be freely configured. Further, the combination of the logical product and the logical ring is only an example, and is not limited to this. You can freely combine logical products and ORs.

A−3−2.網点内文字判定部1005の説明
図16は、網点内文字判定部1005の構成を示すブロック図である。
A-3-2. Explanation of Halftone Halftone Character Determination Unit 1005 FIG. 16 is a block diagram showing a configuration of halftone dot character determination unit 1005.

適応的スムージング処理部2401は、輝度データ取得部1002からの判定信号を入力し、適応的なスムージング処理を行なう。ここでは、適応的に文字/細線を除外しつつ、スキャンデータの所望の周波数成分を平滑化するデジタルフィルタ処理が行われる。 The adaptive smoothing processing unit 2401 inputs a determination signal from the luminance data acquisition unit 1002 and performs adaptive smoothing processing. Here, digital filtering is performed to smooth the desired frequency component of the scan data while adaptively excluding characters / thin lines.

適応的スムージング処理部2401から出力されたスムージング信号は、エッジ強調部2402に入力される。エッジ強調部2402は、スムージング信号に対して、エッジ強調処理を行い、エッジ強調信号を出力する。エッジ強調部2402によるエッジ強調処理は、図3のエッジ強調部1102によるエッジ強調処理と同様の処理であり、例えば、ラプラシアンフィルタなどの2次微分フィルタを用いたフィルタ処理である。 The smoothing signal output from the adaptive smoothing processing unit 2401 is input to the edge enhancing unit 2402. The edge enhancement unit 2402 performs edge enhancement processing on the smoothing signal and outputs the edge enhancement signal. The edge enhancement process by the edge enhancement unit 2402 is the same process as the edge enhancement process by the edge enhancement unit 1102 in FIG. 3, and is, for example, a filter process using a second derivative filter such as a Laplacian filter.

エッジ強調部2402から出力されたエッジ強調信号は、閾値判定部2403に入力される。閾値判定部2403には正の値の閾値が設定されている。 The edge enhancement signal output from the edge enhancement unit 2402 is input to the threshold value determination unit 2403. A positive threshold value is set in the threshold value determination unit 2403.

図4を参照して説明したように、エッジ強調処理において2次微分フィルタを用いた場合、エッジ強調信号によって示される画素の値は、正の値である場合と、負の値である場合がある。図4(B)に示すように、文字が暗い色で表され、下地が明るい色で表されている場合には、2次微分フィルタを用いエッジ強調処理を行って得られるエッジ抽出データ1507(すなわち、エッジ強調信号によって示されるデータ)は、文字1502側では正の値1508となり、下地1503側では負の値1509となる。逆に、文字が明るい色で表され、下地が暗い色で表されている場合には、エッジ抽出データは、文字側で外エッジに対応する負の値となり、下地側で内エッジに対応する正の値となる(図示省略)。 As described with reference to FIG. 4, when a second-order differential filter is used in the edge enhancement processing, the pixel value indicated by the edge enhancement signal may be a positive value or a negative value. is there. As shown in FIG. 4B, when the characters are represented by a dark color and the background is represented by a light color, the edge extraction data 1507 (1507) obtained by performing edge enhancement processing using a second-order differential filter. That is, the data indicated by the edge enhancement signal) has a positive value 1508 on the character 1502 side and a negative value 1509 on the base 1503 side. On the contrary, when the character is represented by a light color and the background is represented by a dark color, the edge extraction data has a negative value corresponding to the outer edge on the character side and corresponds to the inner edge on the background side. It becomes a positive value (not shown).

網点内文字判定では、エッジが文字側であるのか下地側であるのかを区別することを目的とするのではなく、網点領域内の文字自体を抽出することを目的としている。この場合、正のエッジ(すなわち、内エッジ)と負のエッジ(すなわち、外エッジ)とのうちの一方を検出すればよい。本実施例では、内エッジを検出することとする。具体的には、閾値判定部2403は、エッジ強調信号によって示される値が、正の閾値を超えた場合に、「1」を示す内エッジ信号を出力し、正の閾値以下である場合に、「0」を示す内エッジ信号を出力する。ただし、閾値判定部2403は、正のエッジ(内エッジ)を検出せずに負のエッジ(外エッジ)を検出してもよく、正のエッジ(内エッジ)と負のエッジ(外エッジ)との両方を検出してもよい。以下、上記処理を更に詳しく説明する。 The halftone dot character determination does not aim to distinguish whether the edge is on the character side or the base side, but aims to extract the character itself in the halftone dot area. In this case, one of a positive edge (that is, an inner edge) and a negative edge (that is, an outer edge) may be detected. In this embodiment, the inner edge is detected. Specifically, the threshold value determination unit 2403 outputs an inner edge signal indicating "1" when the value indicated by the edge emphasis signal exceeds the positive threshold value, and when it is equal to or less than the positive threshold value, the threshold value determination unit 2403 outputs an inner edge signal indicating "1". The inner edge signal indicating "0" is output. However, the threshold value determination unit 2403 may detect a negative edge (outer edge) without detecting a positive edge (inner edge), and the positive edge (inner edge) and the negative edge (outer edge) Both may be detected. Hereinafter, the above processing will be described in more detail.

図17は、適応的スムージング処理部2401の構成を示すブロック図である。輝度データ取得部1002からの判定信号2501(輝度値)は、4つに分岐され、平滑化処理部2502と、セレクタ2504と、暗線判定部2503aと、明線判定部2503bと、にそれぞれ入力される。 FIG. 17 is a block diagram showing the configuration of the adaptive smoothing processing unit 2401. The determination signal 2501 (luminance value) from the luminance data acquisition unit 1002 is branched into four and input to the smoothing processing unit 2502, the selector 2504, the dark line determination unit 2503a, and the bright line determination unit 2503b, respectively. To.

平滑化処理部2502は、判定信号2501に対して、処理対象の注目画素を中心とする縦M画素×横M画素(Mは、2以上の整数)のフィルタ範囲内の複数個の画素の値を用いて平滑化処理を実行する。平滑化処理は、特定周波数帯域の感度を落とすことを目的とする処理であり、例えば、ガウシアンフィルタを用いた処理であっても良いし、平均値フィルタを用いた処理であっても良い。処理部2502は、平滑化処理の結果を示す平滑化信号を、セレクタ2504に供給する。 The smoothing processing unit 2502 sets the value of a plurality of pixels within the filter range of vertical M pixels × horizontal M pixels (M is an integer of 2 or more) centered on the pixel of interest to be processed with respect to the determination signal 2501. Is used to execute the smoothing process. The smoothing process is a process for reducing the sensitivity of a specific frequency band. For example, the smoothing process may be a process using a Gaussian filter or a process using an average value filter. The processing unit 2502 supplies a smoothing signal indicating the result of the smoothing process to the selector 2504.

セレクタ2504に入力される判定信号2501は、平滑化処理部2502による処理の処理ライン数に応じた画像遅延に対応するために、図示しない遅延メモリを経由することで、遅延された後に、セレクタ2504に入力される。 The determination signal 2501 input to the selector 2504 is delayed by passing through a delay memory (not shown) in order to correspond to an image delay corresponding to the number of processing lines processed by the smoothing processing unit 2502, and then the selector 2504 Is entered in.

暗線判定部2503aは、平滑化処理部2502による処理のM本のライン分の処理バッファを利用して、縦N画素×横L画素(L、Nは、2以上の整数、N≦Mが好ましい)の処理領域にて、注目画素について、暗い色で表された縦線、横線、斜め線上の画素であるか否かの判定を行う。暗線判定部2503aは、これらの暗い線についての判定結果に応じて、セレクタ2504に対して暗線切替信号を出力する。暗線判定部2503aは、注目画素が、これらの暗い線上の画素(暗線画素とも呼ぶ)であると判定した場合には、「1」を示す暗線切替信号を出力し、注目画素が暗線画素でないと判定した場合には、「0」を示す暗線切替信号を出力する。 The dark line determination unit 2503a utilizes the processing buffer for M lines processed by the smoothing processing unit 2502, and is preferably vertical N pixels × horizontal L pixels (L and N are integers of 2 or more, N ≦ M). In the processing area of), it is determined whether or not the pixel of interest is a pixel on a vertical line, a horizontal line, or an oblique line represented by a dark color. The dark line determination unit 2503a outputs a dark line switching signal to the selector 2504 according to the determination result for these dark lines. When the dark line determination unit 2503a determines that the pixel of interest is a pixel on these dark lines (also referred to as a dark line pixel), it outputs a dark line switching signal indicating "1", and the pixel of interest is not a dark line pixel. If it is determined, a dark line switching signal indicating "0" is output.

明線判定部2503bは、平滑化処理部2502による処理のM本のライン分の処理バッファを利用して、縦N画素×横L画素(L、Nは、2以上の整数、N≦Mが好ましい)の処理領域にて、注目画素について、明るい色で表された縦線、横線、斜め線上の画素であるか否かの判定を行う。明線判定部2503bは、これらの明るい線についての判定結果に応じて、セレクタ2504に対して明線切替信号を出力する。明線判定部2503bは、注目画素が、これらの明るい線上の画素(明線画素とも呼ぶ)であると判定した場合には、「1」を示す明線切替信号を出力し、注目画素が明線画素でないと判定した場合には、「0」を示す明線切替信号を出力する。 The bright line determination unit 2503b utilizes the processing buffer for M lines of processing by the smoothing processing unit 2502, and has vertical N pixels × horizontal L pixels (L and N are integers of 2 or more, and N ≦ M. In the processing area of (preferably), it is determined whether or not the pixel of interest is a pixel on a vertical line, a horizontal line, or an oblique line represented by a bright color. The bright line determination unit 2503b outputs a bright line switching signal to the selector 2504 according to the determination result for these bright lines. When the bright line determination unit 2503b determines that the pixel of interest is a pixel on these bright lines (also referred to as a bright line pixel), it outputs a bright line switching signal indicating "1", and the pixel of interest is bright. If it is determined that the pixel is not a line pixel, a bright line switching signal indicating "0" is output.

セレクタ2504は、暗線判定部2503aと明線判定部2503bからそれぞれ出力される暗線切替信号と明線切替信号とに基づき、平滑化処理部2502から出力される平滑化信号と、フィルタ処理されていない判定信号2501と、のいずれかを出力する。セレクタ2504は、暗線切替信号と明線切替信号との少なくとも一方が「1」である場合、すなわち、暗線判定部2503aにて注目画素が暗線画素であると判定されたときと、明線判定部2503bにて注目画素が明線画素であると判定されたときと、のそれぞれにおいて、フィルタ処理されない判定信号2501を出力する。セレクタ2504は、暗線切替信号と明線切替信号との両方が「0」である場合、すなわち、注目画素が暗線画素と明線画素とのいずれでもないと判定されたときは、平滑化信号を出力する。 The selector 2504 is based on the dark line switching signal and the bright line switching signal output from the dark line determination unit 2503a and the bright line determination unit 2503b, respectively, and the smoothing signal output from the smoothing processing unit 2502 is not filtered. Either the determination signal 2501 or the determination signal 2501 is output. The selector 2504 determines when at least one of the dark line switching signal and the bright line switching signal is "1", that is, when the dark line determination unit 2503a determines that the pixel of interest is a dark line pixel. The determination signal 2501 that is not filtered is output in each of the case where the pixel of interest is determined to be a bright line pixel in 2503b. The selector 2504 sets a smoothing signal when both the dark line switching signal and the bright line switching signal are "0", that is, when it is determined that the pixel of interest is neither a dark line pixel nor a bright line pixel. Output.

暗線判定部2503aについて説明する。暗線判定部2503aは、図18(A)〜(D)に示すような線パターンを用いて、注目画素が暗線画素であるか否かを判定する。線パターンのサイズは、上述した縦N画素×横L画素のサイズである。図18の例では、N=5、L=7である。縦方向(副走査方向)の画素数Nは、平滑化処理部2502の処理によるフィルタ範囲の副走査方向の画素数Mより小さい方がメモリを共有する観点から好ましいが、それに限られない。横方向(主走査方向)の画素数Lは、Mより大きくても構わない。 The dark line determination unit 2503a will be described. The dark line determination unit 2503a determines whether or not the pixel of interest is a dark line pixel by using a line pattern as shown in FIGS. 18A to 18D. The size of the line pattern is the size of the above-mentioned vertical N pixels × horizontal L pixels. In the example of FIG. 18, N = 5 and L = 7. The number of pixels N in the vertical direction (sub-scanning direction) is preferably smaller than the number of pixels M in the sub-scanning direction of the filter range processed by the smoothing processing unit 2502 from the viewpoint of sharing memory, but is not limited thereto. The number of pixels L in the lateral direction (main scanning direction) may be larger than M.

図18(A)の線パターン2600は、縦線について判定するための線パターンを示し、図18(B)の線パターン2610は、横線について判定するための線パターンを示す。図18(C)、(D)の線パターン2620、2630は、延びる方向が互いに異なる斜め線について判定するための線パターンを表している。ここでは、線パターン2600を用いて、縦線についての判定方法を説明する。画素2601、2611、2621、2631は、注目画素を示している。 The line pattern 2600 of FIG. 18A shows a line pattern for determining a vertical line, and the line pattern 2610 of FIG. 18B shows a line pattern for determining a horizontal line. The line patterns 2620 and 2630 in FIGS. 18 (C) and 18 (D) represent line patterns for determining diagonal lines having different extending directions. Here, a method for determining vertical lines will be described using the line pattern 2600. Pixels 2601, 2611, 2621, 2631 indicate pixels of interest.

パターン2600は縦5画素×横7画素のサイズを有する。線パターン2600は、縦5画素×横1画素のブロック2602、2603、2604を含む。注目画素2601は、横方向に並ぶブロック2602、2603、2604のうちの中央のブロック2603の中心に配置されている。暗線判定部2503aは、それぞれのブロックについて、判定信号2501によって示される値の総和(ALL)、最大値(MAX)、最小値(MIN)を算出する。すなわち、それぞれのブロックについて、ブロック内の画素の輝度値の総和、最大値、最小値が、算出される。 The pattern 2600 has a size of 5 pixels in the vertical direction and 7 pixels in the horizontal direction. The line pattern 2600 includes blocks 2602, 2603, and 2604 having 5 vertical pixels and 1 horizontal pixel. The pixel of interest 2601 is arranged at the center of the central block 2603 of the blocks 2602, 2603, and 2604 arranged in the horizontal direction. The dark line determination unit 2503a calculates the total sum (ALL), maximum value (MAX), and minimum value (MIN) of the values indicated by the determination signal 2501 for each block. That is, for each block, the sum total, maximum value, and minimum value of the brightness values of the pixels in the block are calculated.

暗線判定部2503aは、以下の条件式を評価する。
(1)MAX(2602)− MIN(2602) ≦ 閾値1
(2)MAX(2603)− MIN(2603) ≦ 閾値1
(3)ALL(2603)≦ ALL(2602)− 閾値2
条件(1)は、ブロック2602内の5画素について、画素の値の差がないことを評価する。条件(2)は、ブロック2603内の5画素について、画素の値の差がないことを評価する。条件(3)は、ブロック2602内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2602に対して、画素の値が相対的に低いことを評価する。条件(1)〜(3)が全て満たされる場合には、画素ブロック2603は、暗い色の縦線を構成すると判定される。画素ブロック2603の領域が、平均的な輝度が低い複数の画素が連続する領域である場合に、条件(1)〜(3)は、満たされる。
The dark line determination unit 2503a evaluates the following conditional expression.
(1) MAX (2602) -MIN (2602) ≤ threshold value 1
(2) MAX (2603) -MIN (2603) ≤ threshold value 1
(3) ALL (2603) ≤ ALL (2602) -threshold value 2
Condition (1) evaluates that there is no difference in pixel values for 5 pixels in the block 2602. Condition (2) evaluates that there is no difference in pixel values for the five pixels in the block 2603. Condition (3) compares the sum of the pixel values in the block 2602 with the sum of the pixel values in the pixel block 2603, and the pixel block 2603 is relative to the pixel block 2602 in terms of pixel values. Evaluate that it is low. When all the conditions (1) to (3) are satisfied, the pixel block 2603 is determined to form a dark vertical line. Conditions (1) to (3) are satisfied when the region of the pixel block 2603 is a region in which a plurality of pixels having low average brightness are continuous.

暗線判定部2503aは、以下の条件式を評価する。
(4)MAX(2604)− MIN(2604) ≦ 閾値1
(5)MAX(2603)− MIN(2603) ≦ 閾値1
(6)ALL(2603)≦ ALL(2604)− 閾値2
条件(4)は、ブロック2604内の5画素について、画素の値の差がないことを評価する。条件(5)は、ブロック2603内の5画素について、画素の値の差がないことを評価する。条件(6)は、ブロック2604内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2604に対して、画素の値が相対的に低いことを評価する。条件(4)〜(6)が全て満たされる場合には、画素ブロック2603は、暗い色の縦線を構成すると判定される。画素ブロック2603の領域が、平均的な輝度が低い複数の画素が連続する領域である場合に、条件(4)〜(6)は、満たされる。
The dark line determination unit 2503a evaluates the following conditional expression.
(4) MAX (2604) -MIN (2604) ≤ threshold value 1
(5) MAX (2603) -MIN (2603) ≤ Threshold 1
(6) ALL (2603) ≤ ALL (2604) -threshold value 2
Condition (4) evaluates that there is no difference in pixel values for the five pixels in the block 2604. Condition (5) evaluates that there is no difference in pixel values for 5 pixels in the block 2603. Condition (6) compares the sum of the pixel values in the block 2604 with the sum of the pixel values in the pixel block 2603, and the pixel block 2603 is relative to the pixel block 2604 in terms of pixel values. Evaluate that it is low. When all the conditions (4) to (6) are satisfied, the pixel block 2603 is determined to form a dark vertical line. Conditions (4) to (6) are satisfied when the region of the pixel block 2603 is a region in which a plurality of pixels having low average brightness are continuous.

条件(1)〜(3)、または、条件(4)〜(6)を評価した結果、いずれか一方において、ブロック2603は暗い色の縦線を構成すると判定された場合には、暗線判定部2503aは、注目画素2601は、暗い色の縦線上に位置する暗線画素である、と判定する。 As a result of evaluating the conditions (1) to (3) or the conditions (4) to (6), if it is determined that the block 2603 constitutes a dark vertical line in any one of the conditions, the dark line determination unit is used. 2503a determines that the attention pixel 2601 is a dark line pixel located on a dark vertical line.

図19は、図18(A)の線パターン2600を用いた判定の例を示す図である。図19(A)〜(C)には、線パターン2600に対応する縦5画素×横7画素領域内の判定信号(輝度値)2700、2710、2720が示されている。判定信号2700は、白地に暗い色の縦線がある部分の画像を示す。ハッチングされた複数個の画素は、縦線を構成している。説明の便宜上、判定信号が、0〜255の256階調の値を示す場合に、白の画素は、対応する判定信号の値が「255」であり、シングルハッチングされた画素は、対応する判定信号の値が「128」であり、クロスハッチングされた画素は、対応する判定信号の値が「0」であるとする。また、上記条件(1)〜(6)の閾値1は20であり、閾値2は200であるとする。 FIG. 19 is a diagram showing an example of determination using the line pattern 2600 of FIG. 18 (A). 19 (A) to 19 (C) show determination signals (luminance values) 2700, 2710, and 2720 in a region of 5 vertical pixels and 7 horizontal pixels corresponding to the line pattern 2600. The determination signal 2700 indicates an image of a portion having a dark vertical line on a white background. The plurality of hatched pixels form a vertical line. For convenience of explanation, when the determination signal shows a value of 256 gradations from 0 to 255, the white pixel has the corresponding determination signal value of "255", and the single-hatched pixel has the corresponding determination. It is assumed that the value of the signal is "128" and the cross-hatched pixel has the value of the corresponding determination signal "0". Further, it is assumed that the threshold value 1 of the above conditions (1) to (6) is 20 and the threshold value 2 is 200.

判定信号2700に上記条件(1)〜(6)を適用して、真偽を判定した結果は、以下の通りである。
(1)MAX(2702)− MIN(2702) ≦ 閾値1
128−128 ≦ 20 → 真
(2)MAX(2703)− MIN(2703) ≦ 閾値1
0−0 ≦ 20 → 真
(3)ALL(2703)≦ ALL(2702)− 閾値2
0×5 ≦ 128×5 − 200 → 真
(4)MAX(2704)− MIN(2704) ≦ 閾値1
128−128 ≦ 20 → 真
(5)MAX(2703)− MIN(2703) ≦ 閾値1
0−0 ≦ 20 → 真
(6)ALL(2703)≦ ALL(2704)− 閾値2
0×5 ≦ 128×5 − 200 → 真
このように、条件(1)〜(3)がすべて真のため、注目画素は、暗い色の縦線上に位置する暗線画素であると判定される。また、条件(4)〜(6)もすべて真であるので、こちらの条件からも、注目画素は、暗い色の縦線上に位置する暗線画素であると判定される。
The results of applying the above conditions (1) to (6) to the determination signal 2700 and determining the authenticity are as follows.
(1) MAX (2702) -MIN (2702) ≤ threshold value 1
128-128 ≤ 20 → True (2) MAX (2703) -MIN (2703) ≤ Threshold 1
0-0 ≤ 20 → True (3) ALL (2703) ≤ ALL (2702) -Threshold 2
0 × 5 ≤ 128 × 5-200 → True (4) MAX (2704) -MIN (2704) ≤ Threshold 1
128-128 ≤ 20 → True (5) MAX (2703) -MIN (2703) ≤ Threshold 1
0-0 ≤ 20 → True (6) ALL (2703) ≤ ALL (2704) -Threshold 2
0 × 5 ≦ 128 × 5-200 → True As described above, since the conditions (1) to (3) are all true, it is determined that the pixel of interest is a dark line pixel located on the vertical line of the dark color. Further, since the conditions (4) to (6) are all true, it is determined from this condition that the pixel of interest is a dark line pixel located on a vertical line of a dark color.

図19(B)の判定信号2710は、白地に暗い色の横線がある部分の画像を示す。判定信号2710に上記条件(1)〜(6)を適用して、真偽を判定した結果は、以下の通りである。(1)偽、(2)偽、(3)偽、(4)偽、(5)偽、(6)偽
この結果、注目画素は、暗い色の縦線上に位置する暗線画素でないと判定される。
The determination signal 2710 in FIG. 19B shows an image of a portion having a dark horizontal line on a white background. The results of applying the above conditions (1) to (6) to the determination signal 2710 and determining the authenticity are as follows. (1) False, (2) False, (3) False, (4) False, (5) False, (6) False As a result, it is determined that the pixel of interest is not a dark line pixel located on a dark vertical line. To.

図19(C)の判定信号2720は、白地に暗い色の斜め線がある部分の画像を示す。判定信号2720に上記条件(1)〜(6)を適用して、真偽を判定した結果は、以下の通りである。
(1)偽、(2)偽、(3)真、(4)偽、(5)偽、(6)真
この結果、注目画素は、暗い色の縦線上に位置する暗線画素でないと判定される。
The determination signal 2720 of FIG. 19C shows an image of a portion having a dark diagonal line on a white background. The results of applying the above conditions (1) to (6) to the determination signal 2720 and determining the authenticity are as follows.
(1) False, (2) False, (3) True, (4) False, (5) False, (6) True As a result, it is determined that the pixel of interest is not a dark line pixel located on a dark vertical line. To.

図20は、図18(B)〜(D)の線パターン2610〜2630を用いた判定の例を示す図である。図20(A)の判定信号2810は、白地に横線がある部分の画像を示す。図20(B)、(C)の判定信号2820、2830は、白地に斜め線がある部分の画像を示す。線パターン2610〜2630においても、注目画素2611、2621、2631は、線の延びる方向とは垂直な方向に並ぶ3個のブロックのうちの中央のブロック2613、2623、2633の中心に配置されている。そして、図20(A)〜(C)の例では、詳細は省略するが、注目画素は、いずれも暗線画素であると判定される。 FIG. 20 is a diagram showing an example of determination using the line patterns 261 to 2630 of FIGS. 18 (B) to 18 (D). The determination signal 2810 in FIG. 20A shows an image of a portion having a horizontal line on a white background. The determination signals 2820 and 2830 of FIGS. 20 (B) and 20 (C) show images of portions having diagonal lines on a white background. Also in the line patterns 261 to 2630, the pixels of interest 2611, 2621, and 2631 are arranged at the center of the central blocks 2613, 2623, and 2633 of the three blocks arranged in the direction perpendicular to the extending direction of the line. .. Then, in the examples of FIGS. 20A to 20C, although details are omitted, it is determined that all the pixels of interest are dark line pixels.

次に、明線判定部2503bについて説明する。明線判定部2503bは、暗線判定部2503aと同じく、図18(A)〜(D)に示す線パターンを用いて、注目画素が明線画素であるか否かを判定する。以下、線パターン2600を用いて、縦線についての判定方法を説明する。 Next, the bright line determination unit 2503b will be described. Like the dark line determination unit 2503a, the bright line determination unit 2503b determines whether or not the pixel of interest is a bright line pixel by using the line patterns shown in FIGS. 18A to 18D. Hereinafter, a method for determining vertical lines will be described using the line pattern 2600.

明線判定部2503bは、線パターン2600のブロック2602、2603、2604のそれぞれについて、判定信号2501によって示される値の総和(ALL)、最大値(MAX)、最小値(MIN)を算出する。すなわち、それぞれのブロックについて、ブロック内の画素の輝度値の総和、最大値、最小値が、算出される。 The bright line determination unit 2503b calculates the total value (ALL), maximum value (MAX), and minimum value (MIN) of the values indicated by the determination signal 2501 for each of the blocks 2602, 2603, and 2604 of the line pattern 2600. That is, for each block, the sum total, maximum value, and minimum value of the brightness values of the pixels in the block are calculated.

明線判定部2503bは、以下の条件式を評価する。
(1)MAX(2602)− MIN(2602) ≦ 閾値1
(2)MAX(2603)− MIN(2603) ≦ 閾値1
(7)ALL(2603)≧ ALL(2602)+ 閾値2
条件(1)は、ブロック2602内の5画素について、画素の値の差がないことを評価する。条件(2)は、ブロック2603内の5画素について、画素の値の差がないことを評価する。条件(7)は、ブロック2602内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2602に対して、画素の値が相対的に高いことを評価する。条件(1)(2)(7)が全て満たされる場合には、画素ブロック2603は、明るい色の縦線を構成すると判定される。画素ブロック2603の領域が、平均的な輝度が高い複数の画素が連続する領域である場合に、条件(1)(2)(7)は、満たされる。
The bright line determination unit 2503b evaluates the following conditional expression.
(1) MAX (2602) -MIN (2602) ≤ threshold value 1
(2) MAX (2603) -MIN (2603) ≤ threshold value 1
(7) ALL (2603) ≧ ALL (2602) + Threshold 2
Condition (1) evaluates that there is no difference in pixel values for 5 pixels in the block 2602. Condition (2) evaluates that there is no difference in pixel values for the five pixels in the block 2603. Condition (7) compares the sum of the pixel values in the block 2602 and the sum of the pixel values in the pixel block 2603, and the pixel block 2603 is relative to the pixel block 2602 in terms of the pixel values. Evaluate that it is high. When all the conditions (1), (2), and (7) are satisfied, it is determined that the pixel block 2603 constitutes a bright colored vertical line. The conditions (1), (2), and (7) are satisfied when the region of the pixel block 2603 is a region in which a plurality of pixels having high average brightness are continuous.

明線判定部2503bは、以下の条件式を評価する。
(4)MAX(2604)− MIN(2604) ≦ 閾値1
(5)MAX(2603)− MIN(2603) ≦ 閾値1
(8)ALL(2603)≧ ALL(2604)+ 閾値2
条件(4)は、ブロック2604内の5画素について、画素の値の差がないことを評価する。条件(5)は、ブロック2603内の5画素について、画素の値の差がないことを評価する。条件(8)は、ブロック2604内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2604に対して、画素の値が相対的に高いことを評価する。条件(4)(5)(8)が全て満たされる場合には、画素ブロック2603は、明るい色の縦線を構成すると判定される。画素ブロック2603の領域が、平均的な輝度が高い複数の画素が連続する領域である場合に、条件(4)(5)(8)は、満たされる。
The bright line determination unit 2503b evaluates the following conditional expression.
(4) MAX (2604) -MIN (2604) ≤ threshold value 1
(5) MAX (2603) -MIN (2603) ≤ Threshold 1
(8) ALL (2603) ≧ ALL (2604) + Threshold 2
Condition (4) evaluates that there is no difference in pixel values for the five pixels in the block 2604. Condition (5) evaluates that there is no difference in pixel values for 5 pixels in the block 2603. Condition (8) compares the sum of the pixel values in the block 2604 with the sum of the pixel values in the pixel block 2603, and the pixel block 2603 is relative to the pixel block 2604 in terms of pixel values. Evaluate that it is high. When all the conditions (4), (5), and (8) are satisfied, it is determined that the pixel block 2603 constitutes a brightly colored vertical line. The conditions (4), (5), and (8) are satisfied when the region of the pixel block 2603 is a region in which a plurality of pixels having high average brightness are continuous.

条件(1)(2)(7)、または、条件(4)(5)(8)を評価した結果、いずれか一方において、ブロック2603は明るい色の縦線を構成すると判定された場合には、明線判定部2503bは、注目画素は、明るい色の縦線上に位置する明線画素である、と判定する。 As a result of evaluating the conditions (1), (2), (7), or the conditions (4), (5), and (8), if it is determined that the block 2603 constitutes a bright vertical line in either of the conditions (1) (2) (7) The bright line determination unit 2503b determines that the pixel of interest is a bright line pixel located on a vertical line of a bright color.

図21は、図18(A)の線パターン2600を用いた判定の例を示す図である。図21(A)〜(C)には、線パターン2600に対応する縦5画素×横7画素領域内の判定信号(輝度値)2700w、2710w、2720wが示されている。判定信号2700wは、黒地に明るい色の縦線がある部分の画像を示す。ハッチングの無い複数個の画素は、縦線を構成している。図19の例と同様に、判定信号が0〜255の256階調の値を示し、白の画素は、対応する判定信号の値が「255」であり、シングルハッチングされた画素は、対応する判定信号の値が「128」であり、クロスハッチングされた画素は、対応する判定信号の値が「0」であるとする。また、上記条件(1)(2)(7)(4)(5)(8)の閾値1は20であり、閾値2は200であるとする。 FIG. 21 is a diagram showing an example of determination using the line pattern 2600 of FIG. 18 (A). 21 (A) to 21 (C) show determination signals (luminance values) 2700w, 2710w, and 2720w in a region of 5 vertical pixels and 7 horizontal pixels corresponding to the line pattern 2600. The determination signal 2700w indicates an image of a portion having a bright color vertical line on a black background. A plurality of pixels without hatching form a vertical line. Similar to the example of FIG. 19, the determination signal shows a value of 256 gradations from 0 to 255, the white pixel has the corresponding determination signal value of “255”, and the single-hatched pixel corresponds. It is assumed that the value of the determination signal is "128" and the value of the corresponding determination signal is "0" for the cross-hatched pixels. Further, it is assumed that the threshold value 1 of the above conditions (1), (2), (7), (4), (5), and (8) is 20, and the threshold value 2 is 200.

判定信号2700に上記条件(1)(2)(7)(4)(5)(8)を適用して、真偽を判定した結果は、以下の通りである。
(1)MAX(2702w)− MIN(2702w) ≦ 閾値1
128−128 ≦ 20 → 真
(2)MAX(2703w)− MIN(2703w) ≦ 閾値1
255−255 ≦ 20 → 真
(7)ALL(2703w)≧ ALL(2702w)+ 閾値2
255×5 ≧ 128×5 + 200 → 真
(4)MAX(2704w)− MIN(2704w) ≦ 閾値1
128−128 ≦ 20 → 真
(5)MAX(2703w)− MIN(2703w) ≦ 閾値1
255−255 ≦ 20 → 真
(8)ALL(2703w)≧ ALL(2704w)+ 閾値2
255×5 ≧ 128×5 + 200 → 真
このように、条件(1)(2)(7)がすべて真のため、注目画素は、明るい色の縦線上に位置する明線画素であると判定される。また、条件(4)(5)(8)もすべて真であるので、こちらの条件からも、注目画素は、明るい色の縦線上に位置する明線画素であると判定される。
The results of applying the above conditions (1), (2), (7), (4), (5), and (8) to the determination signal 2700 and determining the authenticity are as follows.
(1) MAX (2702w) -MIN (2702w) ≤ threshold value 1
128-128 ≤ 20 → True (2) MAX (2703w) -MIN (2703w) ≤ Threshold 1
255-255 ≤ 20 → True (7) ALL (2703w) ≥ ALL (2702w) + Threshold 2
255 × 5 ≧ 128 × 5 + 200 → True (4) MAX (2704w) -MIN (2704w) ≤ Threshold 1
128-128 ≤ 20 → True (5) MAX (2703w) -MIN (2703w) ≤ Threshold 1
255-255 ≤ 20 → True (8) ALL (2703w) ≥ ALL (2704w) + Threshold 2
255 × 5 ≧ 128 × 5 + 200 → True As described above, since the conditions (1), (2), and (7) are all true, it is determined that the pixel of interest is a bright line pixel located on the vertical line of the bright color. Will be done. Further, since the conditions (4), (5), and (8) are all true, it is determined from this condition that the pixel of interest is a bright line pixel located on the vertical line of a bright color.

図21(B)の判定信号2710wは、黒地に明るい色の横線がある部分の画像を示す。判定信号2710wに上記条件(1)(2)(7)(4)(5)(8)を適用して、真偽を判定した結果は、以下の通りである。(1)偽、(2)偽、(7)偽、(4)偽、(5)偽、(8)偽
この結果、注目画素は、明るい色の縦線上に位置する明線画素でないと判定される。
The determination signal 2710w in FIG. 21B shows an image of a portion having a bright colored horizontal line on a black background. The results of applying the above conditions (1), (2), (7), (4), (5), and (8) to the determination signal 2710w and determining the authenticity are as follows. (1) False, (2) False, (7) False, (4) False, (5) False, (8) False As a result, it is determined that the pixel of interest is not a bright line pixel located on a bright vertical line. Will be done.

図21(C)の判定信号2720wは、黒地に明るい色の斜め線がある部分の画像を示す。判定信号2720wに上記条件(1)(2)(7)(4)(5)(8)を適用して、真偽を判定した結果は、以下の通りである。
(1)偽、(2)偽、(7)真、(4)偽、(5)偽、(8)真
この結果、注目画素は、明るい色の縦線上に位置する明線画素でないと判定される。
The determination signal 2720w in FIG. 21C shows an image of a portion having a bright colored diagonal line on a black background. The results of applying the above conditions (1), (2), (7), (4), (5), and (8) to the determination signal 2720w and determining the authenticity are as follows.
(1) False, (2) False, (7) True, (4) False, (5) False, (8) True As a result, it is determined that the pixel of interest is not a bright line pixel located on a bright vertical line. Will be done.

図22は、図18(B)〜(D)の線パターン2610〜2630を用いた判定の例を示す図である。図22(A)の判定信号2810wは、黒地に明るい色の横線がある部分の画像を示す。図22(B)、(C)の判定信号2820w、2830wは、黒地に明るい色の斜め線がある部分の画像を示す。図22(A)〜(C)の例では、詳細は省略するが、注目画素は、いずれも明線画素であると判定される。 FIG. 22 is a diagram showing an example of determination using the line patterns 261 to 2630 of FIGS. 18 (B) to 18 (D). The determination signal 2810w in FIG. 22A shows an image of a portion having a bright horizontal line on a black background. The determination signals 2820w and 2830w in FIGS. 22B and 22C show images of a portion having a bright color diagonal line on a black background. In the examples of FIGS. 22 (A) to 22 (C), although details are omitted, it is determined that all the pixels of interest are bright line pixels.

図23は、適応的スムージング処理部2401による平滑化の周波数特性2900の一例を示している。横軸は空間周波数特性を示し、縦軸はそれに対応する周波数応答を示す。高周波の帯域になればなるほど周波数応答が小さくなり、ある空間周波数以上(2902)では応答はない。このような平滑化の周波数特定を有する適応的スムージング処理部2401による処理を含む、網点内文字判定を行ったときの例を、図24を用いて説明する。 FIG. 23 shows an example of the frequency characteristic 2900 of smoothing by the adaptive smoothing processing unit 2401. The horizontal axis shows the spatial frequency characteristics, and the vertical axis shows the corresponding frequency response. The higher the frequency band, the smaller the frequency response, and there is no response above a certain spatial frequency (2902). An example of performing halftone dot character determination including processing by the adaptive smoothing processing unit 2401 having such smoothing frequency specification will be described with reference to FIG. 24.

図24は、網点内文字判定部1005による網点文字判定の例を示す図である。図24(A)の画像3000は、網点画像の一部を抽出したものである。この網点の出力線数は高く、図23に示すフィルタの周波数特性で言えば、空間周波数が2903の位置にあるような特性を持つ網点である。よって、網点画像3000に図23の空間周波数特性を持つフィルタにてフィルタ処理を施すと、網点の周期構造は消滅し、平滑化画像3010を得る。 FIG. 24 is a diagram showing an example of halftone dot character determination by the halftone dot character determination unit 1005. Image 3000 of FIG. 24 (A) is a part of a halftone dot image extracted. The number of output lines of this halftone dot is high, and in terms of the frequency characteristic of the filter shown in FIG. 23, it is a halftone dot having a characteristic that the spatial frequency is at the position of 2903. Therefore, when the halftone dot image 3000 is filtered by the filter having the spatial frequency characteristic of FIG. 23, the periodic structure of the halftone dots disappears and a smoothed image 3010 is obtained.

同じ線数の網点内に暗い色の文字がある場合を図24(B)で説明する。網点画像3020内には暗い色(例えば、黒色)の文字が印字されていて、この画像に対して適応的スムージング処理部2401による処理を実施すると、平滑化画像3030が得られる。網点部は平滑化されて網点の周期構造が消滅し、文字部は適応処理により平滑化が除外され、文字領域3031が明瞭に残る。この画像をエッジ強調部2402にてエッジ強調すると図24(C)の画像3040が得られる。画像3040では、文字のエッジ(具体的には、文字側のエッジ)が強調される。エッジ強調された画像を閾値判定部2403にて閾値判定処理すると、網点内文字信号3050を得る。黒い部分が網点内文字として判定された領域である。実施例では細い文字を例に示したため、文字全体を網点内文字として抽出している。図示しないが、文字サイズが大きくなると、文字全体ではなく、文字のエッジ部(輪郭)を抽出するようになる。 A case where there are dark-colored characters in halftone dots having the same number of lines will be described with reference to FIG. 24 (B). Dark color (for example, black) characters are printed in the halftone dot image 3020, and when this image is processed by the adaptive smoothing processing unit 2401, a smoothed image 3030 is obtained. The halftone dot portion is smoothed and the periodic structure of the halftone dot disappears, the smoothing of the character portion is excluded by the adaptive processing, and the character area 3031 remains clearly. When this image is edge-enhanced by the edge-enhancing portion 2402, the image 3040 of FIG. 24C is obtained. In the image 3040, the edge of the character (specifically, the edge on the character side) is emphasized. When the edge-enhanced image is subjected to the threshold value determination process by the threshold value determination unit 2403, the halftone dot character signal 3050 is obtained. The black part is the area determined as a character in halftone dots. In the embodiment, since thin characters are shown as an example, the entire characters are extracted as halftone dot characters. Although not shown, when the character size becomes large, the edge portion (outline) of the character is extracted instead of the entire character.

図24(A)の例と同じ線数の網点内に明るい色の文字がある場合を図25(A)で説明する。網点画像3020w内には明るい色(例えば、白色)の文字が印字されていて、この画像に対して適応的スムージング処理部2401による処理を実施すると、平滑化画像3030wが得られる。網点部は平滑化されて網点の周期構造が消滅し、文字部は適応処理により平滑化が除外され、文字領域3031wが明瞭に残る。この画像をエッジ強調部2402にてエッジ強調すると図25(B)の画像3040wが得られる。画像3040wでは、文字のエッジ(具体的には、網点側のエッジ)が強調される。エッジ強調された画像を閾値判定部2403にて閾値判定処理すると、網点内文字信号3050wを得る。黒い部分が網点内文字として判定された領域である。網点内に、平滑化された網点領域よりも明るい文字が配置される場合、文字の輪郭を表すエッジ部として、網点領域側のエッジ部が抽出される。 A case where brightly colored characters are within the halftone dots having the same number of lines as the example of FIG. 24 (A) will be described with reference to FIG. Bright color (for example, white) characters are printed in the halftone dot image 3020w, and when this image is processed by the adaptive smoothing processing unit 2401, a smoothed image 3030w is obtained. The halftone dot portion is smoothed and the periodic structure of the halftone dot disappears, the smoothing of the character portion is excluded by the adaptive processing, and the character area 3031w remains clearly. When this image is edge-enhanced by the edge-enhancing portion 2402, the image 3040w of FIG. 25 (B) is obtained. In the image 3040w, the edge of the character (specifically, the edge on the halftone dot side) is emphasized. When the edge-enhanced image is subjected to threshold value determination processing by the threshold value determination unit 2403, a halftone dot character signal 3050w is obtained. The black part is the area determined as a character in halftone dots. When a character brighter than the smoothed halftone dot region is arranged in the halftone dot, the edge portion on the halftone dot region side is extracted as the edge portion representing the outline of the character.

A−3−4.属性フラグ生成部1006の説明
属性フラグ生成部1006(図2)は、文字判定部1003から入力される文字判定信号と、網点判定部1004から入力される網点判定信号と、網点内文字判定部1005から入力される網点内文字判定信号と、に基づいて、画素ごとに属性フラグを生成する。生成される属性フラグは、次のようにして決定される。
(1)網点判定信号が「1」であり、かつ、文字判定信号が「0」であり、かつ、網点文字判定信号が「0」である場合には、属性フラグは「網点」を示す値に決定され、網点フラグ1008がONとなり、文字フラグ1007と網点内文字フラグ1009はOFFとなる。
(2)網点判定信号が「0」であり、かつ、文字判定信号が「1」である場合には、属性フラグは、「文字」を示す値に決定され、文字フラグ1007がONとなり、網点フラグ1008と網点内文字フラグ1009はOFFとなる。
(3)網点判定信号が「1」であり、かつ、網点内文字判定信号が「1」である場合には、属性フラグは、「網点内文字」を示す値に決定され、網点内文字フラグ1009がONとなり、文字フラグ1007と網点フラグ1008はOFFとなる。
(4)上記以外の場合には、属性フラグは、「自然画、写真画、階調画像」を示す値に決定され、文字フラグ1007と網点フラグ1008と網点内文字フラグ1009は全てOFFとなる。
A-3-4. Explanation of attribute flag generation unit 1006 The attribute flag generation unit 1006 (FIG. 2) includes a character determination signal input from the character determination unit 1003, a net point determination signal input from the net point determination unit 1004, and characters in the net point. An attribute flag is generated for each pixel based on the character determination signal in the net point input from the determination unit 1005. The attribute flag to be generated is determined as follows.
(1) When the halftone dot determination signal is "1", the character determination signal is "0", and the halftone dot character determination signal is "0", the attribute flag is "halftone dot". The halftone dot flag 1008 is turned ON, and the halftone dot flag 1007 and the halftone dot inside character flag 1009 are turned OFF.
(2) When the halftone dot determination signal is "0" and the character determination signal is "1", the attribute flag is determined to be a value indicating "character", and the character flag 1007 is turned ON. The halftone dot flag 1008 and the halftone dot in-character flag 1009 are turned off.
(3) When the halftone dot determination signal is "1" and the halftone dot character determination signal is "1", the attribute flag is determined to be a value indicating "halftone dot character", and the net is determined. The in-point character flag 1009 is turned on, and the character flag 1007 and the halftone dot flag 1008 are turned off.
(4) In cases other than the above, the attribute flag is determined to be a value indicating "natural image, photographic image, gradation image", and the character flag 1007, the halftone dot flag 1008, and the halftone dot in-character flag 1009 are all OFF. It becomes.

このように画素ごとの属性フラグを示すフラグデータが生成されるので、該フラグデータを用いることで、画素ごとの属性に応じて、エッジ強調量、色再現方法、画像形成方法などの種々の画像処理方法を制御することができる。 Since flag data indicating the attribute flag for each pixel is generated in this way, various images such as an edge enhancement amount, a color reproduction method, and an image formation method can be used according to the attribute for each pixel by using the flag data. The processing method can be controlled.

A−3−5.印刷処理の説明
以上を踏まえて、具体的な印刷処理について説明する。上述したように、第2入力処理部104(図1)によってスキャンデータから生成される処理済データと、領域分離処理部103によって生成されるフラグデータとは、圧縮されてメインメモリ113に格納される。ここで説明するのは、圧縮済みの処理済画像データおよび圧縮済みのフラグデータ用いて実行される印刷処理である。
A-3-5. Explanation of printing process Based on the above, a specific printing process will be described. As described above, the processed data generated from the scan data by the second input processing unit 104 (FIG. 1) and the flag data generated by the area separation processing unit 103 are compressed and stored in the main memory 113. To. What is described here is a printing process executed using the compressed processed image data and the compressed flag data.

データ復号部109は、印刷実行部140の印刷可能になったタイミングに合わせて、メインメモリ113に格納された圧縮済みの処理済画像データおよび圧縮済みのフラグデータを読出し、復号処理を行なう。復号された処理済画像データは、第2画像メモリ116に格納され、復号されたフラグデータについては、第2フラグメモリ115に格納される。 The data decoding unit 109 reads the compressed processed image data and the compressed flag data stored in the main memory 113 at the timing when the print execution unit 140 becomes printable, and performs the decoding process. The decoded processed image data is stored in the second image memory 116, and the decoded flag data is stored in the second flag memory 115.

出力処理部110は、第2画像メモリ116に格納された処理済画像データと、第2フラグメモリ115に格納されたフラグデータと、に基づいて、印刷データを生成し、印刷実行部140に出力する。 The output processing unit 110 generates print data based on the processed image data stored in the second image memory 116 and the flag data stored in the second flag memory 115, and outputs the print data to the print execution unit 140. To do.

図26は、出力処理部110の構成を示すブロック図である。第2画像メモリ116および第2フラグメモリ115に、印刷可能となる予め設定されたデータ量の処理済画像データおよびフラグデータが格納されると、該処理済画像データおよびフラグデータは、出力処理部110に転送される。 FIG. 26 is a block diagram showing the configuration of the output processing unit 110. When the processed image data and the flag data of a preset amount of data that can be printed are stored in the second image memory 116 and the second flag memory 115, the processed image data and the flag data are output to the output processing unit. Transferred to 110.

第2画像メモリ114から転送された処理済画像データ(RGB画像データ)は、RGB→CMYK変換部601、602にて、CMYK画像データに変換される。CMYK画像データは、印刷に用いられる色材に対応する色成分を含む表色系、本実施例では、C(シアン)、M(マゼンタ)、Y(イエロ)、およびK(ブラック)の成分を含むCMYK表色系の色値(CMYK値とも呼ぶ)で、各画素の色を示す画像データである。RGB→CMYK変換部601と602の違いは、前者が文字画像用の変換を行い、後者が写真画、網点用の変換を行なう点である。 The processed image data (RGB image data) transferred from the second image memory 114 is converted into CMYK image data by the RGB → CMYK conversion units 601 and 602. The CMYK image data is a color system containing color components corresponding to the color materials used for printing, and in this embodiment, C (cyan), M (magenta), Y (yellow), and K (black) components are used. It is image data indicating the color of each pixel by the color value (also called the CMYK value) of the included CMYK color system. The difference between the RGB → CMYK conversion units 601 and 602 is that the former performs conversion for character images and the latter performs conversion for photographic images and halftone dots.

通常、原稿中に印刷された文字の色は、黒単色か、白単色か、せいぜい数色の程度である。そこで実施例では、このRGB→YMCK変換部601は、予め定義された色(C、M、Y、K)のパターンのうち、最も近似する色に変換する。例えば、R≒G≒B≒0の場合には、着目画素が黒であると判定してよいので、C=M=Y=0、K=255というパターンに変換する。R≒G≒B≒255の場合には、着目画素が白であると判定してよいので、C=M=Y=K=0というパターンに変換する。RGB→YMCK変換部601は、入力したR、G、Bが8ビットで表現されている場合、それぞれの上位数ビット(2ビット程度で良いであろう)を入力し、CMYK(各8ビット)のデータを出力するルックアップテーブル(LUT)を用いて行われる。 Usually, the color of the characters printed in the original is black, white, or at most several colors. Therefore, in the embodiment, the RGB → YMCK conversion unit 601 converts to the most approximate color among the predefined color (C, M, Y, K) patterns. For example, in the case of R≈G≈B≈0, it may be determined that the pixel of interest is black, so the pattern is converted to C = M = Y = 0 and K = 255. In the case of R≈G≈B≈255, it may be determined that the pixel of interest is white, so the pattern is converted to C = M = Y = K = 0. When the input R, G, and B are represented by 8 bits, the RGB → YMCK conversion unit 601 inputs each upper number of bits (about 2 bits may be sufficient) and CMYK (8 bits each). This is done using a look-up table (LUT) that outputs the data of.

RGB→YMCK変換部602は、高い精度でRGB→YMCKへの変換を行なう。この変換は、例えば、マトリクス演算で行われる。あるいは、RGBの計24ビットアドレス入力、YMCKの32ビット出力のLUTを用いて行われる。 The RGB → YMCK conversion unit 602 converts RGB to YMCK with high accuracy. This conversion is performed, for example, by a matrix operation. Alternatively, it is performed using a total of 24-bit address input of RGB and a 32-bit output LUT of YMCK.

合成部603は、第2フラグメモリ115からの転送されるフラグデータに基づき、上記2つの変換部601、602から出力されるCMYK画像データを合成する。具体的には、フラグデータに含まれる注目画素の属性フラグが「文字」を示す場合には、RGB→CMYK変換部601から出力された注目画素のCMYK値を選択し、出力する。また、注目画素の属性フラグが、「自然画」、または、「網点」を示す場合には、RGB→CMYK変換部602から出力された注目画素のCMYK値を選択し、出力する。そして、注目画素の属性フラグが、「網点内文字」を示す場合には、2つの変換部601、602から出力される2個のCMYK値を、所定の重みに従って合成して得られる値(例えば、平均値)を生成し、出力する。 The synthesis unit 603 synthesizes the CMYK image data output from the two conversion units 601 and 602 based on the flag data transferred from the second flag memory 115. Specifically, when the attribute flag of the pixel of interest included in the flag data indicates "character", the CMYK value of the pixel of interest output from the RGB → CMYK conversion unit 601 is selected and output. When the attribute flag of the pixel of interest indicates "natural image" or "halftone dot", the CMYK value of the pixel of interest output from the RGB → CMYK conversion unit 602 is selected and output. Then, when the attribute flag of the pixel of interest indicates "characters in halftone dots", a value obtained by synthesizing two CMYK values output from the two conversion units 601 and 602 according to a predetermined weight ( For example, the average value) is generated and output.

合成部603から出力された各画素のCMYK値を示す信号は、フィルタ処理部604〜606に供給される。これらフィルタ処理部604〜606は、内部に数ライン分のバッファを有し、2次元フィルタ処理を行なう。フィルタ処理部604〜606の違いは、フィルタ処理のエッジ強調の度合を決定する係数が異なる点である。 The signal indicating the CMYK value of each pixel output from the synthesis unit 603 is supplied to the filter processing units 604 to 606. These filter processing units 604 to 606 have buffers for several lines inside and perform two-dimensional filter processing. The difference between the filtering units 604 to 606 is that the coefficients that determine the degree of edge enhancement in the filtering processing are different.

フィルタ処理部604は、「文字」に適したフィルタ処理を行なう。フィルタ処理部605は、「網点内文字」に適したフィルタ処理を行なう。フィルタ処理部606は、「写真画」又は「網点」に適したフィルタ処理を行なう。各フィルタ処理部のエッジ強調の度合は、フィルタ処理部604>フィルタ処理部605>フィルタ処理部606の順である。ただし、上記エッジ強調の度合は一例に過ぎず、必ずしもこれに限るものではない。 The filter processing unit 604 performs a filter process suitable for "characters". The filter processing unit 605 performs filter processing suitable for "characters in halftone dots". The filter processing unit 606 performs filter processing suitable for "photographs" or "halftone dots". The degree of edge enhancement of each filter processing unit is in the order of filter processing unit 604> filter processing unit 605> filter processing unit 606. However, the degree of edge enhancement is only an example, and is not necessarily limited to this.

上記は、平滑化処理の強度が、フィルタ処理部604<フィルタ処理部605<フィルタ処理部606の順であると言い換えることもできる。 In the above, it can be said that the strength of the smoothing process is in the order of filter processing unit 604 <filter processing unit 605 <filter processing unit 606.

セレクタ607は、注目画素の属性フラグが「文字」を示す場合に、フィルタ処理部604から出力された処理済みのCMYK値を選択し、出力する。セレクタ607は、注目画素の属性フラグが「網点内文字」を示す場合に、フィルタ処理部605からから出力された処理済みのCMYK値を選択し、出力する。セレクタ607は、注目画素の属性フラグが「写真」又は「網点」を示す場合に、フィルタ処理部606からから出力された処理済みのCMYK値を選択し、出力する。 The selector 607 selects and outputs the processed CMYK value output from the filter processing unit 604 when the attribute flag of the pixel of interest indicates “character”. The selector 607 selects and outputs the processed CMYK value output from the filter processing unit 605 when the attribute flag of the pixel of interest indicates "characters in halftone dots". The selector 607 selects and outputs the processed CMYK value output from the filter processing unit 606 when the attribute flag of the pixel of interest indicates “photograph” or “halftone dot”.

セレクタ607から出力された処理済みのCMYK値は、ガンマ補正部608、610に入力される。ガンマ補正部608は、「文字」、「網点内文字」に適した補正を行ない、ガンマ補正部610は「網点」、「写真画」に適した補正を行なう。 The processed CMYK values output from the selector 607 are input to the gamma correction units 608 and 610. The gamma correction unit 608 makes corrections suitable for "characters" and "characters in halftone dots", and the gamma correction unit 610 makes corrections suitable for "halftone dots" and "photographic images".

ガンマ補正部608から出力される補正済みのCMYK値は、誤差拡散処理部609に入力される。誤差拡散処理部609は、入力されるCMYK値を、誤差拡散法に従うハーフトーン処理によって、ドットの形成状態を示すドット値に変換し、出力する。文字の場合には、印刷時に生成されるドットが分散されにくいことが望ましいので、ハーフトーン処理には、誤差拡散法が用いられることが好ましい。 The corrected CMYK value output from the gamma correction unit 608 is input to the error diffusion processing unit 609. The error diffusion processing unit 609 converts the input CMYK value into a dot value indicating a dot formation state by halftone processing according to the error diffusion method, and outputs the dot value. In the case of characters, it is desirable that the dots generated during printing are difficult to disperse, so it is preferable to use the error diffusion method for the halftone processing.

ガンマ補正部610から出力される補正済みのCMYK値は、ディザ処理部611に入力される。ディザ処理部611は、入力されるCMYK値を、ディザマトリクスを用いるディザ法に従うハーフトーン処理によって、ドットの形成状態を示すドット値に変換し、出力する。写真画、網点の場合には、階調性が重視されるので、ハーフトーン処理には、ディザ法が用いられることが好ましい。 The corrected CMYK value output from the gamma correction unit 610 is input to the dither processing unit 611. The dither processing unit 611 converts the input CMYK value into a dot value indicating a dot formation state by halftone processing according to a dither method using a dither matrix, and outputs the dot value. In the case of photographic images and halftone dots, gradation is important, so it is preferable to use the dither method for halftone processing.

セレクタ612は、注目画素の属性フラグが「文字」または「網点内文字」を示す場合には、誤差拡散処理部609から出力されるドット値を選択し、印刷実行部140に出力する。また、セレクタ612は、注目画素の属性フラグが「写真」または「網点」を示す場合には、ディザ処理部611から出力されるドット値を選択し、印刷実行部140に出力する。 When the attribute flag of the pixel of interest indicates "character" or "character in halftone dots", the selector 612 selects a dot value output from the error diffusion processing unit 609 and outputs it to the print execution unit 140. Further, when the attribute flag of the pixel of interest indicates "photograph" or "halftone dot", the selector 612 selects the dot value output from the dither processing unit 611 and outputs it to the print execution unit 140.

以上のように、文字、網点、および、網点内文字の領域を適切に抽出することで、その属性に応じた画像処理を実施可能となる。従って、文字は鮮明に、写真は滑らかな再現をすることが可能となる。特に、網点を含む原稿内で、網点と文字とを識別し、文字に平滑化処理を施すことなく、網点を平滑化することが可能なため、好適なモアレ除去が可能となる。その結果、網点を含む原稿内の写真にはスムージング処理を施し、モアレ除去した上でディザ処理を実施することで階調性の高い画像を印刷できる。また、網点を含む原稿内の文字には、エッジ強調処理を施した上で誤差拡散系の処理を実施することで、くっきりとした読みやすい文字を印刷できる。 As described above, by appropriately extracting the areas of characters, halftone dots, and characters within the halftone dots, it is possible to perform image processing according to the attributes. Therefore, it is possible to reproduce the characters clearly and the photograph smoothly. In particular, it is possible to distinguish between halftone dots and characters in a document containing halftone dots and smooth the halftone dots without performing smoothing processing on the characters, so that suitable moire removal is possible. As a result, it is possible to print an image with high gradation by performing smoothing processing on the photograph in the document including halftone dots, removing moire, and then performing dither processing. In addition, clear and easy-to-read characters can be printed on the characters in the document including halftone dots by performing edge enhancement processing and then performing error diffusion processing.

また、以上説明した第1実施例によれば、第1入力処理部102(図1)は、処理対象の入力画像を表す入力画像データであるスキャンデータを取得する。そして、領域分離処理部103(図2)の輝度データ取得部1002は、第1入力処理部102からの画像データを用いて、複数の画素のそれぞれの明るさの度合いである複数個の輝度値を含む輝度画像データを取得する。網点内文字判定部1005(図16)の適応的スムージング処理部2401は、輝度データ取得部1002からの輝度画像データを用いて、注目画素が、複数の画素が連続する第1種の特定領域に含まれるか否かと、注目画素が、複数の画素が連続する第2種の特定領域に含まれるか否かを判断する(ここで、第1種の特定の領域の明るさは、第2種の特定の領域の明るさと比べて、暗い)。具体的には、適応的スムージング処理部2401(図17)の暗線判定部2503aは、図18〜図20で説明したように、注目画素が、図19(A)のブロック2703や、図20(A)〜図20(C)のブロック2813、2823、2833のように、低輝度の複数の画素が連続する特定の領域に含まれるか否かを判断する(第1種の特定領域の例である)。また、適応的スムージング処理部2401(図17)の明線判定部2503bは、図18、図21、図22で説明したように、注目画素が、図21(A)のブロック2703wや、図22(A)〜図22(C)のブロック2813w、2823w、2833wのように、高輝度の複数の画素が連続する特定の領域に含まれるか否かを判断する(第2種の特定領域の例である)。また、適応的スムージング処理部2401(図17)の平滑化処理部2502とセレクタ2504とは、第1種の特定領域に含まれると判断される画素(ここでは、暗線画素)の輝度値と第2種の特定領域に含まれると判断される画素(ここでは、明線画素)の輝度値とを平滑化せずに、第1種の特定領域に含まれると判断されず、かつ、第2種の特定領域に含まれると判断されない画素の輝度値を平滑化することによって、平滑化信号である適応的スムージング信号2505(平滑化データとも呼ぶ)を生成する。そして、網点内文字判定部1005(図16)のエッジ強調部2402と閾値判定部2403とは、適応的スムージング処理部2401からの平滑化データを用いて、入力画像内のエッジを表すエッジ画素を検出する。 Further, according to the first embodiment described above, the first input processing unit 102 (FIG. 1) acquires scan data which is input image data representing an input image to be processed. Then, the luminance data acquisition unit 1002 of the region separation processing unit 103 (FIG. 2) uses the image data from the first input processing unit 102 to obtain a plurality of luminance values which are the degree of brightness of each of the plurality of pixels. Acquire the luminance image data including. The adaptive smoothing processing unit 2401 of the halftone dot character determination unit 1005 (FIG. 16) uses the luminance image data from the luminance data acquisition unit 1002, and the pixel of interest is a specific region of the first type in which a plurality of pixels are continuous. It is determined whether or not the pixel of interest is included in the second type specific region in which a plurality of pixels are continuous (here, the brightness of the first type specific region is the second type). Darker than the brightness of a particular area of the species). Specifically, in the dark line determination unit 2503a of the adaptive smoothing processing unit 2401 (FIG. 17), as described with reference to FIGS. 18 to 20, the attention pixel is the block 2703 of FIG. 19 (A) or FIG. As shown in blocks 2813, 2823, and 2833 of A) to 20 (C), it is determined whether or not a plurality of low-luminance pixels are included in a continuous specific region (in the example of the first type specific region). is there). Further, in the bright line determination unit 2503b of the adaptive smoothing processing unit 2401 (FIG. 17), as described with reference to FIGS. 18, 21, and 22, the attention pixel is the block 2703w of FIG. 21 (A) or FIG. 22. It is determined whether or not a plurality of high-luminance pixels are included in a continuous specific region as in the blocks 2813w, 2823w, and 2833w of FIGS. 22 (A) to 22 (C) (example of a specific region of the second type). Is). Further, the smoothing processing unit 2502 and the selector 2504 of the adaptive smoothing processing unit 2401 (FIG. 17) are the brightness values of the pixels (here, dark line pixels) determined to be included in the specific area of the first type and the first. Without smoothing the brightness values of the pixels (here, bright line pixels) that are determined to be included in the two specific regions, they are not determined to be included in the first type of specific region, and the second By smoothing the brightness values of pixels that are not determined to be included in a specific region of the species, an adaptive smoothing signal 2505 (also referred to as smoothing data), which is a smoothing signal, is generated. Then, the edge enhancement unit 2402 and the threshold value determination unit 2403 of the halftone dot character determination unit 1005 (FIG. 16) use the smoothing data from the adaptive smoothing processing unit 2401 to represent the edge pixels in the input image. Is detected.

このように、第1種の特定領域に含まれると判断される画素(ここでは、暗線画素)の輝度値と、第2種の特定領域に含まれると判断される画素(ここでは、明線画素)の輝度値と、を平滑化せずに、エッジ画素が検出されるので、明るい背景中に暗い色(すなわち、低輝度の色)で表される文字のエッジを表す画素と、暗い背景中に明るい色(すなわち、高輝度の色)で表される文字のエッジを表す画素と、の両方を、適切に検出できる。 In this way, the brightness value of the pixel determined to be included in the first type specific area (here, the dark line pixel) and the pixel determined to be included in the second type specific area (here, the bright line). Since edge pixels are detected without smoothing the brightness value of (pixels), pixels representing the edges of characters represented by dark colors (that is, low-brightness colors) in a bright background and dark backgrounds. Both pixels that represent the edges of characters represented by bright colors (ie, bright colors) inside can be properly detected.

また、本実施例では、暗線判定部2503aは、暗線画素を検出するための条件として、上記の条件(1)〜(3)と条件(4)〜(6)とを用い、明線判定部2503bは、明線画素を検出するための条件として、上記の条件(1)(2)(7)と条件(4)(5)(8)とを用いる。これらの条件を用いる場合、図19(A)のブロック2703と、図21(A)のブロック2703wとのように、暗線画素が属する第1種の特定領域としては、複数の画素が連続する領域であって、明線画素が属する第2種の特定領域と比べて明るさが暗い領域を用いることができ、第2種の特定領域としては、複数の画素が連続する領域であって、第1種の特定領域と比べて明るさが明るい領域を用いることができる。なお、暗線判定部2503aによって検出される複数の暗線画素が連続する領域は、暗線画素を含む第1種の特定領域の少なくとも一部に相当し、明線判定部2503bによって検出される複数の明線画素が連続する領域は、明線画素を含む第2種の特定領域の少なくとも一部に相当する。複数の暗線画素が連続する領域の平均的な輝度が、複数の明線画素が連続する領域の平均的な輝度と比べて低い場合、第1種の特定領域は、第2種の特定領域と比べて明るさが暗い領域であると言え、第2種の特定領域は、第1種の特定領域と比べて明るさが明るい領域であると言える。 Further, in the present embodiment, the dark line determination unit 2503a uses the above conditions (1) to (3) and conditions (4) to (6) as the conditions for detecting the dark line pixels, and the bright line determination unit 2503a. 2503b uses the above conditions (1), (2), and (7) and conditions (4), (5), and (8) as conditions for detecting bright line pixels. When these conditions are used, as the first type specific region to which the dark line pixels belong, such as the block 2703 in FIG. 19A and the block 2703w in FIG. 21A, a region in which a plurality of pixels are continuous is used. Therefore, a region whose brightness is darker than that of the second type specific region to which the bright line pixels belong can be used, and the second type specific region is a region in which a plurality of pixels are continuous and is the first. A region whose brightness is brighter than that of one specific region can be used. The region where the plurality of dark line pixels detected by the dark line determination unit 2503a is continuous corresponds to at least a part of the first type specific region including the dark line pixels, and the plurality of bright lines detected by the bright line determination unit 2503b. The region where the line pixels are continuous corresponds to at least a part of the second type specific region including the bright line pixels. When the average brightness of the region where the plurality of dark line pixels are continuous is lower than the average brightness of the region where the plurality of bright line pixels are continuous, the specific region of the first type is the specific region of the second type. It can be said that the specific region of the second type is a region having a brighter brightness than the specific region of the first type.

なお、通常は、明るい背景中に暗い色で文字が表される場合が多く、暗い背景中に明るい色で文字が表される場合は少ない。しかし、ユーザは、画像処理の品質を評価する場合には、暗い背景中に明るい色で文字が表される場合の画質も、明るい背景中に暗い色で文字が表される場合の画質と同様に、重要視し得る。従って、本実施例のように、明るい背景中に暗い色で表される文字のエッジと、暗い背景中に明るい色で表される文字のエッジと、の両方を検出して画像処理に利用することによって、高画質な画像処理を実現できる。 Normally, characters are often represented in a dark color on a light background, and characters are rarely represented in a light color on a dark background. However, when the user evaluates the quality of image processing, the image quality when the characters are represented by a light color on a dark background is the same as the image quality when the characters are represented by a dark color on a light background. It can be emphasized. Therefore, as in this embodiment, both the edge of the character represented by the dark color in the light background and the edge of the character represented by the light color in the dark background are detected and used for image processing. As a result, high-quality image processing can be realized.

B.第2実施例:
図27は、第1種の特定領域の画素と第2種の特定領域の画素とを検出する処理の別の実施例を示すフローチャートである。この処理は、適応的スムージング処理部2401(図17)の暗線判定部2503aと明線判定部2503bとによって行われる。上記の第1実施例との差異は、互いに異なる太さの線に対応付けられた複数のフィルタが用いられる点である。第1実施例では、図18に示すように、複数のフィルタ(具体的には、複数の線パターン2600〜2630)の間で、線の延びる方向が異なるものの、線の太さはおおよそ同じである。この場合、入力画像に含まれる線の太さによっては、図18〜図22の実施例では、適切な判定ができない場合がある。例えば、太い線分上の注目画素は、図18(A)〜(D)に示すいずれのフィルタによっても、線画素(暗線画素、または、明線画素)であると判定されない場合がある。そこで、第2実施例では、暗線判定部2503aと明線判定部2503bとは、互いに異なる太さの線に対応付けられた複数のフィルタを用いる。
B. Second Example:
FIG. 27 is a flowchart showing another embodiment of the process of detecting the pixels of the first type specific region and the pixels of the second type specific region. This processing is performed by the dark line determination unit 2503a and the bright line determination unit 2503b of the adaptive smoothing processing unit 2401 (FIG. 17). The difference from the first embodiment is that a plurality of filters associated with lines having different thicknesses are used. In the first embodiment, as shown in FIG. 18, although the extending directions of the lines are different among the plurality of filters (specifically, the plurality of line patterns 2600 to 2630), the thickness of the lines is approximately the same. is there. In this case, depending on the thickness of the line included in the input image, an appropriate determination may not be possible in the examples of FIGS. 18 to 22. For example, the pixel of interest on a thick line segment may not be determined to be a line pixel (dark line pixel or bright line pixel) by any of the filters shown in FIGS. 18A to 18D. Therefore, in the second embodiment, the dark line determination unit 2503a and the bright line determination unit 2503b use a plurality of filters associated with lines having different thicknesses.

図28は、複数のフィルタの例を示す説明図である。図28(A)は、線幅Wdが1画素であるフィルタ2660を示し、図28(B)は、線幅Wdが2画素であるフィルタ2670を示し、図28(C)は、線幅Wdが3画素であるフィルタ2680を示し、図28(D)は、線幅Wdが4画素であるフィルタ2690を示している。これらのフィルタ2660〜2690は、いずれも、図18(A)の線パターン2600と同様に、縦線について判定するための線パターンを示している。 FIG. 28 is an explanatory diagram showing an example of a plurality of filters. FIG. 28A shows a filter 2660 having a line width Wd of 1 pixel, FIG. 28B shows a filter 2670 having a line width Wd of 2 pixels, and FIG. 28C shows a line width Wd. 2680 shows a filter having 3 pixels, and FIG. 28 (D) shows a filter 2690 having a line width Wd of 4 pixels. Each of these filters 2660 to 2690 shows a line pattern for determining a vertical line, similar to the line pattern 2600 of FIG. 18 (A).

図28(A)のフィルタ2660は、縦19画素×横1画素の3個のブロック2662、2663、2664を含む。これらのブロック2662、2663、2664は、線幅Wdと同じ幅の隙間をあけて、横方向に並んで配置されている。注目画素2661は、中央のブロック2663の中心に配置されている。 The filter 2660 of FIG. 28A includes three blocks 2662, 2663, and 2664 having 19 pixels in the vertical direction and 1 pixel in the horizontal direction. These blocks 2662, 2663, and 2664 are arranged side by side in the horizontal direction with a gap having the same width as the line width Wd. The pixel of interest 2661 is located in the center of the central block 2663.

同様に、図28(B)のフィルタ2670は、縦19画素×横2画素の3個のブロック2672、2673、2674を含む。図28(C)のフィルタ2680は、縦19画素×横3画素の3個のブロック2682、2683、2684を含む。図28(D)のフィルタ2690は、縦19画素×横4画素の3個のブロック2692、2693、2694を含む。いずれのフィルタ2670〜2690においても、3個のブロックは、線幅Wdと同じ幅の隙間をあけて、横方向に並んで配置されている。そして、注目画素2671、2681、2691は、中央のブロック2673、2683、2693の中心に配置されている(線幅Wdが偶数である場合、注目画素は、ブロックの中心の左側の画素位置に配置されている)。 Similarly, the filter 2670 of FIG. 28B includes three blocks 2672, 2673, 2674 of 19 pixels in length × 2 pixels in width. The filter 2680 of FIG. 28C includes three blocks 2682, 2683, 2864 having 19 pixels in the vertical direction and 3 pixels in the horizontal direction. The filter 2690 of FIG. 28 (D) includes three blocks 2692, 2693, and 2694 having 19 pixels in the vertical direction and 4 pixels in the horizontal direction. In any of the filters 2670 to 2690, the three blocks are arranged side by side with a gap having the same width as the line width Wd. The attention pixels 2671, 2681, and 2691 are arranged at the center of the central blocks 2673, 2683, and 2693 (when the line width Wd is an even number, the attention pixels are arranged at the pixel positions on the left side of the center of the block. Has been).

図示を省略するが、利用可能な複数のフィルタは、図18(B)〜図18(D)のフィルタ2610〜2630と同様に、横線について判定するための線パターンを示すフィルタと、2つの方向の斜め線について判定するための2種類の線パターンを示すフィルタと、を含んでいる。そして、線の延びる方向が互いに異なる4種類のフィルタのそれぞれとしては、互いに線幅が異なる複数のフィルタを利用可能である。いずれのフィルタにおいても、3個のブロックは、ブロックの延びる方向に垂直な方向に、線幅と同じ幅の隙間をあけて、並んで配置される。そして、注目画素は、中央のブロックの中心に配置される。 Although not shown, the plurality of available filters are, like the filters 261 to 2630 of FIGS. 18 (B) to 18 (D), a filter showing a line pattern for determining a horizontal line and two directions. Includes a filter showing two types of line patterns for determining the diagonal lines of. As each of the four types of filters in which the extending directions of the lines are different from each other, a plurality of filters having different line widths can be used. In any of the filters, the three blocks are arranged side by side in the direction perpendicular to the extending direction of the blocks with a gap having the same width as the line width. Then, the pixel of interest is arranged at the center of the central block.

暗線判定部2503a(図17)と明線判定部2503bとは、図18のフィルタ2600〜2630を用いる場合と同様に、各フィルタを用いて、注目画素が線画素であるか否かを判断する。暗線判定部2503aは、上記の条件(1)〜(3)と条件(4)〜(6)を、各フィルタの3個のブロック(例えば、図28のフィルタ2660の3個のブロック2662、2663、2664)に適用することによって、評価し、注目画素が、暗い色の線上に位置する暗線画素であるか否かを判断する。同様に、明線判定部2503bは、上記の条件(1)(2)(7)と条件(4)(5)(8)を評価することによって、注目画素が、明るい色の線上に位置する明線画素であるか否かを判断する。各条件の閾値1と閾値2とは、適切な判断ができるように、予め実験的に決定されてよい。 The dark line determination unit 2503a (FIG. 17) and the bright line determination unit 2503b use each filter to determine whether or not the pixel of interest is a line pixel, as in the case of using the filters 2600 to 2630 of FIG. .. The dark line determination unit 2503a applies the above conditions (1) to (3) and conditions (4) to (6) to three blocks of each filter (for example, three blocks 2662 and 2663 of the filter 2660 of FIG. 28). , 2664) to evaluate and determine whether or not the pixel of interest is a dark line pixel located on a dark line. Similarly, the bright line determination unit 2503b evaluates the above conditions (1), (2), (7) and (4), (5), and (8) so that the pixel of interest is located on the brightly colored line. It is determined whether or not the pixel is a bright line pixel. The threshold value 1 and the threshold value 2 of each condition may be experimentally determined in advance so that an appropriate judgment can be made.

暗線判定部2503a(図17)と明線判定部2503bとは、図27の手順に従って、注目画素が線画素であるか否かを判断する。図27の例では、暗線判定部2503aと明線判定部2503bとが、協働して、線切替信号を出力することとしている。図中において、符号2503aが付された枠で囲まれる処理は、暗線判定部2503aの処理を示し、符号2503bが付された枠で囲まれる処理は、明線判定部2503bの処理を示している。S190、S195は、暗線判定部2503aと明線判定部2503bとのいずれかによって、実行され得る。なお、暗線判定部2503aと明線判定部2503bとは、第1実施例と同様に、独立に、暗線切替信号と明線切替信号とを出力してもよい。 The dark line determination unit 2503a (FIG. 17) and the bright line determination unit 2503b determine whether or not the pixel of interest is a line pixel according to the procedure of FIG. 27. In the example of FIG. 27, the dark line determination unit 2503a and the bright line determination unit 2503b cooperate to output a line switching signal. In the figure, the process surrounded by the frame with the reference numeral 2503a indicates the process of the dark line determination unit 2503a, and the process surrounded by the frame with the reference numeral 2503b indicates the process of the bright line determination unit 2503b. .. S190 and S195 can be executed by either the dark line determination unit 2503a and the bright line determination unit 2503b. The dark line determination unit 2503a and the bright line determination unit 2503b may independently output the dark line switching signal and the bright line switching signal, as in the first embodiment.

S100では、暗線判定部2503aは、線切替フラグをオフに初期化する。S105では、暗線判定部2503aは、現行の線幅Wdを、利用可能なフィルタの線幅Wdのうちの最小値(ここでは、1)に初期化する。S110では、暗線判定部2503aは、現行の線幅Wdに対応付けられたフィルタを選択する。上述したように、本実施例では、1つの線幅Wdに、線の延びる方向が異なる4個のフィルタが対応付けられている。S110では、4個のフィルタが選択される。S115では、暗線判定部2503aは、S110で選択した4個のフィルタを用いて、フィルタ毎に、注目画素が暗線画素であるか否かを判断する。S120では、暗線判定部2503aは、4個のフィルタのうちの少なくとも1つのフィルタによって注目画素が暗線画素であると判断されたか否かを判断する。 In S100, the dark line determination unit 2503a initializes the line switching flag off. In S105, the dark line determination unit 2503a initializes the current line width Wd to the minimum value (here, 1) of the line width Wd of the available filter. In S110, the dark line determination unit 2503a selects a filter associated with the current line width Wd. As described above, in the present embodiment, one line width Wd is associated with four filters having different lines extending directions. In S110, four filters are selected. In S115, the dark line determination unit 2503a uses the four filters selected in S110 to determine whether or not the pixel of interest is a dark line pixel for each filter. In S120, the dark line determination unit 2503a determines whether or not the pixel of interest is determined to be a dark line pixel by at least one of the four filters.

少なくとも1つのフィルタによって注目画素が暗線画素であると判断された場合(S120:Yes)、S190で、暗線判定部2503aは、線切替フラグをオンに設定する。S195では、暗線判定部2503aは、線切替フラグに対応付けられた線切替信号(ここでは、「1」の線切替信号)を、セレクタ2504に対して、出力する。そして、図27の処理が、終了する。 When the pixel of interest is determined to be a dark line pixel by at least one filter (S120: Yes), the dark line determination unit 2503a sets the line switching flag to ON in S190. In S195, the dark line determination unit 2503a outputs a line switching signal (here, the line switching signal of “1”) associated with the line switching flag to the selector 2504. Then, the process of FIG. 27 ends.

4個のフィルタのいずれを用いても、注目画素が暗線画素であると判断されなかった場合(S120:No)、S125で、暗線判定部2503aは、利用可能な全ての線幅Wdの処理が終了したか否かを判断する。図27の例では、現行の線幅Wdが、利用可能なフィルタの線幅Wdの最大値WdMax以上であるか否かが、判断される。本実施例では、図28で説明したように、最大値WdMaxは、4である。 If it is not determined that the pixel of interest is a dark line pixel (S120: No) by using any of the four filters, in S125, the dark line determination unit 2503a processes all available line widths Wd. Determine if it is finished. In the example of FIG. 27, it is determined whether or not the current line width Wd is equal to or greater than the maximum value WdMax of the line width Wd of the available filter. In this embodiment, as described with reference to FIG. 28, the maximum value WdMax is 4.

未処理の線幅Wdが残っている場合(S125:No)、S130で、暗線判定部2503aは、現行の線幅Wdを、1段階大きい線幅Wdに更新する(本実施例では、線幅Wdに1が加算される)。そして、暗線判定部2503aは、S110へ移行し、更新済の線幅Wdの処理を実行する。 When the unprocessed line width Wd remains (S125: No), in S130, the dark line determination unit 2503a updates the current line width Wd to a line width Wd one step larger (in this embodiment, the line width Wd). 1 is added to Wd). Then, the dark line determination unit 2503a shifts to S110 and executes the processing of the updated line width Wd.

全ての線幅Wdの処理が終了した場合(S125:Yes)、処理は、S155へ移行する。 When the processing of all the line widths Wd is completed (S125: Yes), the processing shifts to S155.

S155では、明線判定部2503bは、現行の線幅Wdを、明線用の初期値Wdiwに初期化する。明線用の初期値Wdiwは、暗線用の初期値(ここでは、1)よりも、大きい値に設定されている。明線判定部2503bは、この明線用の初期値Wdiw未満の線幅Wdのフィルタを用いずに、初期値Wdiw以上の線幅Wdのフィルタを利用して、判断を行う。この理由は、以下の通りである。明るい色の線の幅が細い場合には、印刷済の画像において、線の周囲の暗い色の下地を表す色材の滲みや位置ズレなどに起因して、細い線が潰れ易い。細い線が潰れると、その線の視認性が低下するので、網点内文字のための画像処理の画質改善の効果が低くなる。一方、暗い色の線の幅が細い場合は、印刷済の画像において、暗い色の線を表す色材の滲みや位置ズレが生じる場合であっても、その線を容易に視認できる。従って、網点内文字のための画像処理の画質改善の効果が高い。以上により、暗線用の処理で用いられるフィルタの最小の線幅Wd(ここでは、1)は、明線用の処理で用いられるフィルタの最小の線幅Wdiwよりも、小さい。 In S155, the bright line determination unit 2503b initializes the current line width Wd to the initial value Wdiw for the bright line. The initial value Wdiw for the bright line is set to a value larger than the initial value for the dark line (here, 1). The bright line determination unit 2503b makes a determination by using a filter having a line width Wd equal to or more than the initial value Wdiw without using a filter having a line width Wd less than the initial value Wdiw for the bright line. The reason for this is as follows. When the width of a bright color line is narrow, the thin line is likely to be crushed in the printed image due to bleeding or misalignment of the coloring material representing the dark background around the line. When a thin line is crushed, the visibility of the line is lowered, so that the effect of improving the image quality of the image processing for the halftone dot characters is reduced. On the other hand, when the width of the dark color line is narrow, the line can be easily visually recognized even when the color material representing the dark color line is blurred or misaligned in the printed image. Therefore, the effect of improving the image quality of the image processing for the characters in halftone dots is high. As described above, the minimum line width Wd of the filter used in the processing for dark lines (here, 1) is smaller than the minimum line width Wd of the filter used in the processing for bright lines.

S160では、明線判定部2503bは、現行の線幅Wdに対応付けられたフィルタを選択する。S160は、S110と同様に、行われる。S165では、明線判定部2503bは、S160で選択した4個のフィルタを用いて、フィルタ毎に、注目画素が明線画素であるか否かを判断する。S170では、明線判定部2503bは、4個のフィルタのうちの少なくとも1つのフィルタによって注目画素が明線画素であると判断されたか否かを判断する。 In S160, the bright line determination unit 2503b selects a filter associated with the current line width Wd. S160 is performed in the same manner as S110. In S165, the bright line determination unit 2503b uses the four filters selected in S160 to determine whether or not the pixel of interest is a bright line pixel for each filter. In S170, the bright line determination unit 2503b determines whether or not the pixel of interest is determined to be a bright line pixel by at least one of the four filters.

少なくとも1つのフィルタによって注目画素が明線画素であると判断された場合(S170:Yes)、S190で、明線判定部2503bは、線切替フラグをオンに設定する。S195では、明線判定部2503bは、線切替フラグに対応付けられた線切替信号(ここでは、「1」の線切替信号)を、セレクタ2504に対して、出力する。そして、図27の処理が、終了する。 When the pixel of interest is determined to be a bright line pixel by at least one filter (S170: Yes), in S190, the bright line determination unit 2503b sets the line switching flag to ON. In S195, the bright line determination unit 2503b outputs a line switching signal (here, the line switching signal of “1”) associated with the line switching flag to the selector 2504. Then, the process of FIG. 27 ends.

4個のフィルタのいずれを用いても、注目画素が明線画素であると判断されない場合(S170:No)、S175で、明線判定部2503bは、利用可能な全ての線幅Wdの処理が終了したか否かを判断する。具体的には、現行の線幅Wdが、利用可能なフィルタの線幅Wdの最大値WdMax以上であるか否かが、判断される。 When it is not determined that the pixel of interest is a bright line pixel (S170: No) by using any of the four filters, in S175, the bright line determination unit 2503b processes all available line widths Wd. Determine if it is finished. Specifically, it is determined whether or not the current line width Wd is equal to or greater than the maximum value WdMax of the line width Wd of the available filter.

未処理の線幅Wdが残っている場合(S175:No)、S180で、明線判定部2503bは、現行の線幅Wdを、1段階大きい線幅Wdに更新する(本実施例では、線幅Wdに1が加算される)。そして、明線判定部2503bは、S160へ移行し、更新済の線幅Wdの処理を実行する。 When the unprocessed line width Wd remains (S175: No), in S180, the bright line determination unit 2503b updates the current line width Wd to a line width Wd one step larger (in this embodiment, the line). 1 is added to the width Wd). Then, the bright line determination unit 2503b shifts to S160 and executes the processing of the updated line width Wd.

全ての線幅Wdの処理が終了した場合(S175:Yes)、S195で、明線判定部2503bは、線切替フラグに対応付けられた線切替信号(ここでは、「0」の線切替信号)を、セレクタ2504に対して、出力する。そして、明線判定部2503bは、図27の処理を終了する。 When the processing of all the line widths Wd is completed (S175: Yes), in S195, the bright line determination unit 2503b is the line switching signal associated with the line switching flag (here, the line switching signal of "0"). Is output to the selector 2504. Then, the bright line determination unit 2503b ends the process of FIG. 27.

なお、本実施例では、セレクタ2504(図17)は、暗線判定部2503aと明線判定部2503bとのいずれか一方からS195で出力される線切替信号を受信する。そして、セレクタ2504は、線切替信号が「1」である場合、すなわち、暗線判定部2503aにて注目画素が暗線画素であると判定されたときと、明線判定部2503bにて注目画素が明線画素であると判定されたときと、のそれぞれにおいて、フィルタ処理されない判定信号2501を出力する。セレクタ2504は、線切替信号が「0」である場合、すなわち、注目画素が暗線画素と明線画素とのいずれでもないと判定されたときは、平滑化信号を出力する。 In this embodiment, the selector 2504 (FIG. 17) receives the line switching signal output in S195 from either the dark line determination unit 2503a or the bright line determination unit 2503b. Then, in the selector 2504, when the line switching signal is "1", that is, when the dark line determination unit 2503a determines that the attention pixel is a dark line pixel, and when the bright line determination unit 2503b determines that the attention pixel is a bright line pixel. A determination signal 2501 that is not filtered is output in each of the cases where it is determined that the pixel is a line pixel. The selector 2504 outputs a smoothing signal when the line switching signal is "0", that is, when it is determined that the pixel of interest is neither a dark line pixel nor a bright line pixel.

図29は、明線用の初期値Wdiw(すなわち、利用可能なフィルタ)を決定する処理の説明図である。図29(A)は、決定処理のフローチャートを示している。S200では、線幅Wdが互いに異なる複数のフィルタのそれぞれに対応するテストパターンデータが生成される。図29(B)〜図29(E)は、テストパターンデータによって表されるテストパターンの例を示す説明図である。図29(B)〜図29(E)は、それぞれ、Wd=1、2、3、4のためのテストパターンTP1、TP2、TP3、TP4を、示している。各テストパターンTP1〜TP4は、黒色の下地BGと白色の縦線WL1〜WL4とを、それぞれ表している。白縦線WL1〜WL4は、対応する線幅Wdの白縦線を表すデータで、表されている。例えば、Wd=1のためのテストパターンTP1の白縦線WL1は、線幅が1である白縦線を表すデータによって、表される。テストパターンデータの生成方法としては、任意の方法を採用可能である。本実施例では、図示しないコンピュータが、プログラムに従って、テストパターンデータを生成する。 FIG. 29 is an explanatory diagram of a process for determining an initial value Wdiw (that is, an available filter) for a bright line. FIG. 29A shows a flowchart of the determination process. In S200, test pattern data corresponding to each of a plurality of filters having different line widths Wd is generated. 29 (B) to 29 (E) are explanatory views showing an example of a test pattern represented by the test pattern data. 29 (B) to 29 (E) show test patterns TP1, TP2, TP3, and TP4 for Wd = 1, 2, 3, and 4, respectively. Each test pattern TP1 to TP4 represents a black base BG and white vertical lines WL1 to WL4, respectively. The white vertical lines WL1 to WL4 are data representing white vertical lines having a corresponding line width Wd. For example, the white vertical line WL1 of the test pattern TP1 for Wd = 1 is represented by data representing a white vertical line having a line width of 1. Any method can be adopted as the method for generating the test pattern data. In this embodiment, a computer (not shown) generates test pattern data according to a program.

S210では、複合機100の制御部120は、テストパターンデータを用いて、印刷実行部140に、テストパターンTP1〜TP4を印刷させる。S220では、ユーザは、印刷されたテストパターンTP1〜TP4を目視で観察することによって、白線を識別できるか否かを判断する。上述したように、印刷される白線の線幅が小さい場合、色材の滲みなどに起因して、白線が潰れ得る。細い白線が潰れる場合、ユーザは、白線を識別できない。そして、ユーザは、識別可能な白線のうち、最も細い白線を特定する。特定された白線に対応付けられた線幅Wdを、最小幅Wminと呼ぶ。 In S210, the control unit 120 of the multifunction device 100 causes the print execution unit 140 to print the test patterns TP1 to TP4 using the test pattern data. In S220, the user determines whether or not the white line can be identified by visually observing the printed test patterns TP1 to TP4. As described above, when the line width of the printed white line is small, the white line may be crushed due to bleeding of the coloring material or the like. If the thin white line is crushed, the user cannot identify the white line. Then, the user identifies the thinnest white line among the identifiable white lines. The line width Wd associated with the specified white line is called the minimum width Wmin.

S230では、明線用の初期値Wdiwが、最小幅Wminに設定される。設定された最小幅Wminを表すデータは、明線判定部2503b(図17)に、組み込まれる(例えば、最小幅Wminを表すデータは、明線判定部2503bの図示しない不揮発性メモリに書き込まれる)。そして、図29(A)の処理は終了する。これにより、明線判定部2503bは、印刷される場合に識別可能な明るい色の線の画素を、適切に、検出できる。 In S230, the initial value Wdiw for bright lines is set to the minimum width Wmin. The data representing the set minimum width Wmin is incorporated in the bright line determination unit 2503b (FIG. 17) (for example, the data representing the minimum width Wmin is written in the non-volatile memory (not shown) of the bright line determination unit 2503b). .. Then, the process of FIG. 29 (A) is completed. As a result, the bright line determination unit 2503b can appropriately detect pixels of bright color lines that can be identified when printed.

以上のように、第2実施例では、暗線判定部2503aと明線判定部2503bとは、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられた複数のフィルタを用いて、注目画素が、線を表す特定領域に含まれるか否かを判断する。従って、種々の太さの線で表される文字のエッジを表す画素を、適切に、検出できる。 As described above, in the second embodiment, the dark line determination unit 2503a and the bright line determination unit 2503b are filters for detecting pixels representing lines, and are associated with lines having different thicknesses. It is determined whether or not the pixel of interest is included in a specific region representing a line by using the filter of. Therefore, pixels representing the edges of characters represented by lines of various thicknesses can be appropriately detected.

また、明線用の線幅Wdの初期値Wdiwは、暗線用の線幅Wdの初期値(ここでは、1)よりも、大きい。従って、暗線判定部2503aによって利用され得るフィルタの総数Pは、明線判定部2503bによって利用され得るフィルタの総数Qよりも、多い(本実施例では、総数P=16(線幅Wdの総数4×線の方向の種類数4)、総数Qは、1以上、Pとは異なる整数)。これにより、低輝度の画素が連続する線で表される細い文字のエッジを、適切に検出できる。また、高輝度の画素が連続する線で表される文字のエッジも、適切に検出できる。 Further, the initial value Wdiw of the line width Wd for the bright line is larger than the initial value (here, 1) of the line width Wd for the dark line. Therefore, the total number P of filters that can be used by the dark line determination unit 2503a is larger than the total number Q of filters that can be used by the bright line determination unit 2503b (in this embodiment, the total number P = 16 (total number of line widths Wd 4). The number of types in the direction of the × line 4), the total number Q is 1 or more, and an integer different from P). As a result, the edges of thin characters represented by continuous lines of low-luminance pixels can be appropriately detected. In addition, the edge of a character represented by a continuous line of high-luminance pixels can be appropriately detected.

また、暗線判定部2503aによって用いられる複数のフィルタに対応付けられる複数の線のうちの最も細い線の線幅Wd(ここでは、1)は、明線判定部2503bによって用いられる複数のフィルタに対応付けられる複数の線のうちの最も細い線の線幅Wdiwよりも、細い。従って、低輝度の画素が連続する細い線で表される文字のエッジを、適切に、検出できる。 Further, the line width Wd (here, 1) of the thinnest line among the plurality of lines associated with the plurality of filters used by the dark line determination unit 2503a corresponds to the plurality of filters used by the bright line determination unit 2503b. It is thinner than the line width Wdiw of the thinnest line among the plurality of attached lines. Therefore, the edge of a character represented by a continuous thin line of low-luminance pixels can be appropriately detected.

また、領域分離処理部103(図1)と第2入力処理部104と出力処理部110とは、第1入力処理部102によって取得された入力画像データに、領域分離処理部103の網点内文字判定部1005(図16)によって検出されたエッジ画素を用いる画像処理を行うことによって、印刷用の画像データである印刷データを生成する。そして、出力処理部110は、生成された印刷データを、印刷実行部140に供給する。ここで、図29(A)で説明したように、明線用の複数のフィルタに対応付けられる複数種類の線のうちの最も細い線の線幅Wdiwは、印刷実行部140によって利用される色材の滲み特定に基づいて、予め決定されている。従って、印刷実行部140によって利用される色材の滲み特性に適した太さの線で表される文字のエッジを、検出できる。 Further, the area separation processing unit 103 (FIG. 1), the second input processing unit 104, and the output processing unit 110 combine the input image data acquired by the first input processing unit 102 with the inside of the mesh point of the area separation processing unit 103. Print data, which is image data for printing, is generated by performing image processing using the edge pixels detected by the character determination unit 1005 (FIG. 16). Then, the output processing unit 110 supplies the generated print data to the print execution unit 140. Here, as described with reference to FIG. 29A, the line width Wdiw of the thinnest line among the plurality of types of lines associated with the plurality of filters for bright lines is the color used by the print execution unit 140. It is determined in advance based on the identification of bleeding of the material. Therefore, it is possible to detect the edge of a character represented by a line having a thickness suitable for the bleeding characteristic of the color material used by the print execution unit 140.

C.変形例:
(1)暗線判定部2503a(図17)によって注目画素が第1種の特定領域(比較的暗い領域)に含まれると判断されるための条件は、上述した条件(1)〜(3)と条件(4)〜(6)とに限らず、種々の条件であってよい。同様に、明線判定部2503bによって注目画素が第2種の特定領域(比較的明るい領域)に含まれると判断されるための条件は、上述した条件(1)(2)(7)と条件(4)(5)(8)とに限らず、種々の条件であってよい。例えば、注目画素が第1種の特定領域に含まれると判断されるための条件は、注目画素を含む画素ブロック(例えば、図18(A)のブロック2603)の輝度値の平均値が、予め決められた第1閾値(例えば、128)よりも小さいこと、を含んでもよい。同様に、注目画素が第2種の特定領域に含まれると判断されるための条件は、注目画素を含む画素ブロック(例えば、図18(A)のブロック2603)の輝度値の平均値が、予め決められた第2閾値(例えば、128)よりも大きいこと、を含んでもよい(第2閾値は、第1閾値以上)。
C. Modification example:
(1) The conditions for determining that the pixel of interest is included in the specific region (relatively dark region) of the first type by the dark line determination unit 2503a (FIG. 17) are the above-mentioned conditions (1) to (3). The conditions (4) to (6) are not limited to various conditions. Similarly, the conditions for the bright line determination unit 2503b to determine that the pixel of interest is included in the second type specific region (relatively bright region) are the above-mentioned conditions (1), (2), and (7). Not limited to (4), (5) and (8), various conditions may be used. For example, the condition for determining that the pixel of interest is included in the specific region of the first type is that the average value of the brightness values of the pixel block containing the pixel of interest (for example, block 2603 in FIG. 18A) is set in advance. It may include that it is smaller than the determined first threshold value (for example, 128). Similarly, the condition for determining that the pixel of interest is included in the specific region of the second type is that the average value of the brightness values of the pixel block containing the pixel of interest (for example, block 2603 in FIG. 18A) is set. It may include that it is larger than a predetermined second threshold value (for example, 128) (the second threshold value is equal to or higher than the first threshold value).

一般的には、注目画素が第1種の特定領域に含まれると判断するための条件(暗領域条件と呼ぶ)は、第2種の特定領域と比べて平均的な輝度が低い複数の画素が連続する領域である第1種の特定領域に注目画素が含まれることを示す種々の条件であってよい。そして、注目画素が第2種の特定領域に含まれると判断するための条件(明領域条件と呼ぶ)は、第1種の特定領域と比べて平均的な輝度が高い複数の画素が連続する領域である第2種の特定領域に注目画素が含まれることを示す種々の条件であってよい。例えば、暗領域条件と明領域条件としては、第1種の特定領域における輝度値の平均が第2種の特定領域における輝度値の平均よりも暗くなるように構成された種々の条件を、採用してよい。 In general, the condition for determining that the pixel of interest is included in the specific area of the first type (called the dark area condition) is a plurality of pixels having a lower average brightness than the specific area of the second type. It may be various conditions indicating that the pixel of interest is included in the specific region of the first type, which is a continuous region. The condition for determining that the pixel of interest is included in the specific region of the second type (referred to as the bright region condition) is that a plurality of pixels having a higher average brightness than the specific region of the first type are continuous. It may be various conditions indicating that the pixel of interest is included in the second type specific region which is a region. For example, as the dark region condition and the bright region condition, various conditions configured so that the average of the luminance values in the specific region of the first type is darker than the average of the luminance values in the specific region of the second type are adopted. You can do it.

(2)暗線判定部2503aによって利用され得る1以上のフィルタと、明線判定部2503bによって利用され得る1以上のフィルタとしては、図18、図27〜図29で説明したフィルタに代えて、他の種々のフィルタであってよい。例えば、1個のフィルタに含まれる3個のブロック(例えば、図28(A)の3個のブロック2662、2663、2664)の間隔は、各ブロックの幅と異なっていてもよい。一般的には、フィルタとしては、特定の太さの線を表す画素を検出することが可能な種々のフィルタ、すなわち、特定の太さの線を表す領域に含まれる画素を検出することが可能な種々のフィルタを、採用可能である。 (2) One or more filters that can be used by the dark line determination unit 2503a and one or more filters that can be used by the bright line determination unit 2503b include other filters instead of the filters described in FIGS. 18 and 27 to 29. It may be various filters of. For example, the spacing between the three blocks included in one filter (eg, the three blocks 2662, 2663, 2664 in FIG. 28A) may differ from the width of each block. Generally, as a filter, it is possible to detect various filters capable of detecting pixels representing a line of a specific thickness, that is, pixels included in a region representing a line of a specific thickness. Various filters can be adopted.

また、明線判定部2503bによって利用され得るフィルタの総数Qは、暗線判定部2503aによって利用され得るフィルタの総数Pと同じであってよく、これに代えて、総数Pとは異なる任意の整数であってよい。ここで、P>Qであってもよく、P<Qであってもよい。 Further, the total number Q of filters that can be used by the bright line determination unit 2503b may be the same as the total number P of filters that can be used by the dark line determination unit 2503a, and instead, an arbitrary integer different from the total number P may be used. It may be there. Here, P> Q may be satisfied, or P <Q may be satisfied.

また、暗線判定部2503aによって利用され得る暗線用の1以上のフィルタの最小の線幅が、明線判定部2503bによって利用され得る明線用の1以上のフィルタの最小の線幅よりも太くてもよい。また、明線判定部2503bによって利用され得る1以上のフィルタの最小の線幅は、色材の滲み特性とは独立に決定されてもよい。 Further, the minimum line width of one or more filters for dark lines that can be used by the dark line determination unit 2503a is thicker than the minimum line width of one or more filters for bright lines that can be used by the bright line determination unit 2503b. May be good. Further, the minimum line width of one or more filters that can be used by the bright line determination unit 2503b may be determined independently of the bleeding characteristic of the coloring material.

また、フィルタとしては、特定の方向に延びる線状の領域と、その線状の領域を挟む両側の領域の少なくとも一方と、の間に輝度値の差が生じているか否かを判断するための、種々のフィルタを採用してよい。 Further, as a filter, it is for determining whether or not there is a difference in luminance value between a linear region extending in a specific direction and at least one of two regions sandwiching the linear region. , Various filters may be adopted.

なお、暗線判定部2503aは、そのようなフィルタを用いずに、注目画素が第1種の特定領域に含まれるか否かを判断してもよい。例えば、暗線判定部2503aは、輝度画像データを解析することによって輝度値が所定の暗閾値未満である画素が連続する領域を特定し、特定された領域を第1種の特定領域として採用してもよい。同様に、明線判定部2503bは、そのようなフィルタを用いずに、注目画素が第2種の特定領域に含まれるか否かを判断してもよい。例えば、明線判定部2503bは、輝度画像データを解析することによって輝度値が所定の明閾値を超える画素が連続する領域を特定し、特定された領域を第2種の特定領域として採用してもよい(ここで、明閾値は、暗閾値以上)。 The dark line determination unit 2503a may determine whether or not the pixel of interest is included in the specific region of the first type without using such a filter. For example, the dark line determination unit 2503a identifies a region in which pixels whose luminance value is less than a predetermined dark threshold value is continuous by analyzing the luminance image data, and adopts the identified region as the first type specific region. May be good. Similarly, the bright line determination unit 2503b may determine whether or not the pixel of interest is included in the specific region of the second type without using such a filter. For example, the bright line determination unit 2503b identifies a region in which pixels having a luminance value exceeding a predetermined brightness threshold are continuous by analyzing the luminance image data, and adopts the identified region as a second type specific region. (Here, the light threshold is equal to or higher than the dark threshold).

(3)上記各実施例では、処理済画像データは、印刷実行部140によって、処理済画像を印刷するために用いられている(図26)。これに限らず、処理済画像データは、処理済画像を液晶ディスプレイなどの表示部に表示するために用いられても良い。 (3) In each of the above embodiments, the processed image data is used by the print execution unit 140 to print the processed image (FIG. 26). Not limited to this, the processed image data may be used to display the processed image on a display unit such as a liquid crystal display.

(4)上記各実施例では、入力信号1001(図1)は、RGB値である。これに代えて、他の表色系の色値が用いられても良い。例えば、スキャンデータの各画素の値は、CMY表色系の色値に変換された後に、入力信号1001として、領域分離処理部103に入力されても良い。 (4) In each of the above embodiments, the input signal 1001 (FIG. 1) is an RGB value. Instead of this, color values of other color systems may be used. For example, the value of each pixel of the scan data may be input to the area separation processing unit 103 as an input signal 1001 after being converted into a color value of the CMY color system.

(5)上記各実施例の領域分離処理部103に含まれる各部、例えば、文字判定部1003、網点判定部1004、網点内文字判定部1005が実行する具体的な処理は、一例であり、適宜に変更される。例えば、図3のエリア積算部1105、1106が用いる縦3画素×横3画素の周辺範囲は、他のサイズの範囲、例えば、縦3画素×横5画素あるいは縦5画素×横5画素の範囲であっても良い。また、図12の積算処理部1209は、3種類の積算範囲を用いているが、これらの積算範囲のサイズや種類数は、適宜に変更され得る。また、閾値判定部1211が、積算結果を判定するための閾値は、用いる積算範囲のサイズ等によって適宜に調整される。図12の総合判定部1213が、これらの閾値判定部1211によって積算範囲ごとに出力される複数個の判定結果を用いて、網点判定信号を生成する際には、例えば、論理和、論理積の論理演算を、どのように組み合わせるかは、適宜に変更され得る。 (5) Specific processing executed by each unit included in the area separation processing unit 103 of each of the above embodiments, for example, the character determination unit 1003, the halftone dot determination unit 1004, and the halftone dot in-character determination unit 1005, is an example. , Will be changed accordingly. For example, the peripheral range of vertical 3 pixels × horizontal 3 pixels used by the area integration unit 1105 and 1106 in FIG. 3 is a range of other sizes, for example, a range of vertical 3 pixels × horizontal 5 pixels or vertical 5 pixels × horizontal 5 pixels. It may be. Further, the integration processing unit 1209 of FIG. 12 uses three types of integration ranges, and the size and number of types of these integration ranges can be appropriately changed. Further, the threshold value for the threshold value determination unit 1211 to determine the integration result is appropriately adjusted according to the size of the integration range to be used and the like. When the comprehensive determination unit 1213 of FIG. 12 uses a plurality of determination results output for each integration range by these threshold value determination units 1211 to generate a halftone dot determination signal, for example, a logical sum or a logical product. How to combine the logical operations of can be changed as appropriate.

(6)出力処理部110が、印刷データを生成する処理(図26)は、一例であり適宜に変更され得る。例えば、出力処理部110は、ハーフトーン処理として、誤差拡散法、ディザ法を採用する例を示したがこれに限られない。例えば、誤差拡散法のみを用いる場合、文字(網点内文字を含む)と写真(網点を含む)とでは、前者の誤差拡散マトリクスサイズを小さくし、後者の誤差拡散マトリクスサイズを大きくすることが好ましい。また、ディザ処理のみを用いる場合には、文字と写真とで異なるディザマトリクスパターンを採用しても良い。また、ハーフトーン処理の方法として、これ以外の方法を採用しても構わない。 (6) The process of generating print data by the output processing unit 110 (FIG. 26) is an example and can be changed as appropriate. For example, the output processing unit 110 has shown an example of adopting an error diffusion method or a dither method as halftone processing, but the present invention is not limited to this. For example, when only the error diffusion method is used, the error diffusion matrix size of the former is reduced and the error diffusion matrix size of the latter is increased for characters (including characters in halftone dots) and photographs (including halftone dots). Is preferable. Further, when only the dither processing is used, different dither matrix patterns may be adopted for the characters and the photograph. Further, as the halftone processing method, other methods may be adopted.

(7)上記実施例では、入力画像データは、スキャンデータであるが、これに限られない。入力画像データは、印刷物などの原稿を、2次元イメージセンサを備えるデジタルカメラによって光学的に撮影して生成される撮像画像データであっても良い。また、ワードプロセッサなどのアプリケーションプログラムを用いて生成された画像データであってもよい。 (7) In the above embodiment, the input image data is scan data, but is not limited to this. The input image data may be captured image data generated by optically photographing a document such as a printed matter with a digital camera provided with a two-dimensional image sensor. Further, the image data may be generated by using an application program such as a word processor.

(8)エッジ強調部2402と閾値判定部2403とによって検出されるエッジ画素は、任意の処理に利用されてよい。例えば、エッジを表すエッジ画像データの生成に利用されてもよい。 (8) The edge pixels detected by the edge enhancement unit 2402 and the threshold value determination unit 2403 may be used for arbitrary processing. For example, it may be used to generate edge image data representing an edge.

(9)図1の複合機100が実行する処理、例えば、領域分離処理部103や第2入力処理部104や出力処理部110が実行する処理の全部または一部は、複合機100に限らず、種々の装置によって実行されても良い。例えば、スキャナやデジタルカメラが、自身で生成された入力画像データを用いて、領域分離処理部103や第2入力処理部104が実行する処理を実行しても良い。また、例えば、スキャナやプリンタと通信可能な接続される端末装置(図示省略)やサーバ(図示省略)が、スキャナから取得したスキャンデータを用いて、領域分離処理部103や第2入力処理部104および出力処理部110が実行する処理を実行しても良い。そして、その結果生成される印刷データがプリンタに供給されても良い。また、ネットワークを介して互いに通信可能な複数個のコンピュータ(例えば、クラウドサーバ)が、領域分離処理部103や第2入力処理部104および出力処理部110が実行する処理を一部ずつ分担して、全体として、画像処理を実行してもよい。この場合、複数個のコンピュータの全体が、画像処理装置の例である。 (9) All or part of the processing executed by the multifunction device 100 of FIG. 1, for example, the processing executed by the area separation processing unit 103, the second input processing unit 104, and the output processing unit 110 is not limited to the multifunction device 100. , May be performed by various devices. For example, the scanner or the digital camera may execute the process executed by the area separation processing unit 103 or the second input processing unit 104 using the input image data generated by itself. Further, for example, a connected terminal device (not shown) or a server (not shown) that can communicate with the scanner or the printer uses the scan data acquired from the scanner to use the area separation processing unit 103 or the second input processing unit 104. And the process executed by the output processing unit 110 may be executed. Then, the print data generated as a result may be supplied to the printer. Further, a plurality of computers (for example, a cloud server) capable of communicating with each other via a network partially share the processing executed by the area separation processing unit 103, the second input processing unit 104, and the output processing unit 110. , As a whole, image processing may be performed. In this case, the entire plurality of computers is an example of an image processing device.

なお、上記各実施例では、領域分離処理部103や第2入力処理部104および出力処理部110が実行する処理の全部または一部は、これらのハードウエア回路によって実行されるが、CPUであるメインプロセッサ101によって実行されても良い。この場合には、領域分離処理部103や第2入力処理部104や出力処理部110が実行する処理のうち、メインプロセッサ101が実行する処理のためのプログラムは、コンピュータプログラムPGに含まれる。例えば、第1実施例では、メインプロセッサ101は、領域分離処理部103によって実行される輝度画像データを生成する処理と、輝度画像データを用いて、注目画素が、第1種の特定領域に含まれるか否かを判断する処理と、輝度画像データを用いて、注目画素が、第2種の特定領域に含まれるか否かを判断する処理と、判断結果を用いて輝度画像データを平滑化することによって平滑化データを生成する処理と、平滑化データを用いて、入力画像内のエッジを表すエッジ画素を検出する処理と、を、コンピュータプログラムPGを実行することによって、実現しても良い。 In each of the above embodiments, all or part of the processing executed by the area separation processing unit 103, the second input processing unit 104, and the output processing unit 110 is executed by these hardware circuits, but is a CPU. It may be executed by the main processor 101. In this case, among the processes executed by the area separation processing unit 103, the second input processing unit 104, and the output processing unit 110, the program for the processing executed by the main processor 101 is included in the computer program PG. For example, in the first embodiment, the main processor 101 uses the process of generating the brightness image data executed by the area separation processing unit 103 and the brightness image data to include the pixel of interest in the specific area of the first type. The process of determining whether or not the pixel of interest is included in the specific area of the second type using the brightness image data, and the process of determining whether or not the pixel of interest is included in the specific area of the second type, and the brightness image data are smoothed using the judgment result. The process of generating smoothed data by performing the process and the process of detecting edge pixels representing edges in the input image using the smoothed data may be realized by executing the computer program PG. ..

このように、上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部あるいは全部をハードウェアに置き換えるようにしてもよい。 In this way, in each of the above embodiments, a part of the configuration realized by the hardware may be replaced with software, and conversely, a part or all of the configuration realized by the software may be replaced with the hardware. It may be replaced.

以上、実施例、変形例に基づき本発明について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。 Although the present invention has been described above based on Examples and Modifications, the above-described embodiments of the invention are for facilitating the understanding of the present invention and do not limit the present invention. The present invention can be modified and improved without departing from the spirit and claims, and the present invention includes equivalents thereof.

100…複合機、101…メインプロセッサ、102…第1入力処理部、103…領域分離処理部、104…第2入力処理部、106…インタープリタ、107…データ圧縮部、108…解像度変換部、109…データ復号部、110…出力処理部、111…第1画像メモリ、112…第1フラグメモリ、113…メインメモリ、114…第2画像メモリ、115…第2フラグメモリ、116…第2画像メモリ、117…不揮発性メモリ、120…制御部、130…読取実行部、140…印刷実行部、200…複合機、601…変換部、603…合成部、604…フィルタ処理部、604…フィルタ処理部、605…フィルタ処理部、606…フィルタ処理部、607…セレクタ、608…ガンマ補正部、609…誤差拡散処理部、610…ガンマ補正部、611…ディザ処理部、612…セレクタ、1001…入力信号、1002…輝度データ取得部、1003…文字判定部、1004…網点判定部、1005…網点内文字判定部、1006…属性フラグ生成部、1007…文字フラグ、1008…網点フラグ、1009…網点内文字フラグ、1102…エッジ強調部、1103…閾値判定部、1104…閾値判定部、1105…エリア積算部、1106…エリア積算部、1107…閾値判定部、1108…閾値判定部、1109…総合判定部、1110…文字判定信号、1202…エッジ強調部、1203…閾値判定部、1204…閾値判定部、1205…孤立量判定部、1206…孤立量判定部、1209…積算処理部、1211…閾値判定部、1213…総合判定部、1215…網点判定信号、1302…外エッジ領域、1303…内エッジ領域、1304…領域、1305…領域、1306…領域、1501…エッジ境界部、1502…文字、1503…下地、1504…輝度画像データ、1507…エッジ抽出データ、1510…断面、1601…網点エッジ境界部、1601…エッジ境界部、1602…網点、1603…下地、1604…輝度画像データ、1607…エッジ抽出データ、1610…断面、1700…内エッジ信号、1710…判定パターン、1712…黒画素、1713…白画素、1810…内エッジ信号、1820…内エッジ信号、1830…内エッジ信号、1840…内エッジ信号、2011…第1積算部、2012…第2積算部、2013…第3積算部、2021…第1判定部、2022…第2判定部、2023…第3判定部、2101…注目画素、2102…積算範囲、2103…積算範囲、2104…積算範囲、2205…エッジ、2401…適応的スムージング処理部、2402…エッジ強調部、2403…閾値判定部、2501…判定信号、2502…平滑化処理部、2503a…暗線判定部、2503b…明線判定部、2504…セレクタ、2505…適応的スムージング信号、PG…コンピュータプログラム 100 ... Complex machine, 101 ... Main processor, 102 ... First input processing unit, 103 ... Area separation processing unit, 104 ... Second input processing unit, 106 ... Interpreter, 107 ... Data compression unit, 108 ... Resolution conversion unit, 109 ... Data decoding unit, 110 ... Output processing unit, 111 ... First image memory, 112 ... First flag memory, 113 ... Main memory, 114 ... Second image memory, 115 ... Second flag memory, 116 ... Second image memory , 117 ... Non-volatile memory, 120 ... Control unit, 130 ... Read execution unit, 140 ... Print execution unit, 200 ... Composite machine, 601 ... Conversion unit, 603 ... Synthesis unit, 604 ... Filter processing unit, 604 ... Filter processing unit , 605 ... Filter processing unit, 606 ... Filter processing unit, 607 ... Selector, 608 ... Gamma correction unit, 609 ... Error diffusion processing unit, 610 ... Gamma correction unit, 611 ... Data processing unit, 612 ... Selector, 1001 ... Input signal , 1002 ... Brightness data acquisition unit, 1003 ... Character determination unit, 1004 ... Halftone dot determination unit, 1005 ... In-halftone dot character determination unit, 1006 ... Attribute flag generation unit, 1007 ... Character flag, 1008 ... Halftone dot flag, 1009 ... Halftone dot character flag 1102 ... Edge enhancement unit 1103 ... Threshold determination unit 1104 ... Threshold determination unit 1105 ... Area integration unit 1106 ... Area integration unit 1107 ... Threshold determination unit 1108 ... Threshold determination unit 1109 ... Comprehensive determination unit 1110 ... Character determination signal 1202 ... Edge enhancement unit 1203 ... Threshold determination unit 1204 ... Threshold determination unit 1205 ... Isolation amount determination unit 1206 ... Isolation amount determination unit, 1209 ... Integration processing unit, 1211 ... Threshold determination unit, 1213 ... Comprehensive determination unit, 1215 ... Halftone dot determination signal, 1302 ... Outer edge region, 1303 ... Inner edge region, 1304 ... Region, 1305 ... Region, 1306 ... Region, 1501 ... Edge boundary portion, 1502 ... Character , 1503 ... background, 1504 ... brightness image data, 1507 ... edge extraction data, 1510 ... cross section, 1601 ... halftone dot edge boundary, 1601 ... edge boundary, 1602 ... halftone dot, 1603 ... background, 1604 ... brightness image data, 1607 ... Edge extraction data, 1610 ... Cross section, 1700 ... Inner edge signal, 1710 ... Judgment pattern, 1712 ... Black pixel, 1713 ... White pixel, 1810 ... Inner edge signal, 1820 ... Inner edge signal, 1830 ... Inner edge signal, 1840 ... Inner edge signal, 2011 ... 1st integration unit, 2012 ... 2nd integration unit, 2013 ... 3rd integration unit, 2021 ... 1st judgment unit, 20 22 ... 2nd determination unit, 2023 ... 3rd determination unit, 2101 ... Attention pixel, 2102 ... Integration range, 2103 ... Integration range, 2104 ... Integration range, 2205 ... Edge, 2401 ... Adaptive smoothing processing unit, 2402 ... Edge enhancement Unit, 2403 ... Threshold determination unit, 2501 ... Judgment signal, 2502 ... Smoothing processing unit, 2503a ... Dark line determination unit, 2503b ... Bright line determination unit, 2504 ... Selector, 2505 ... Adaptive smoothing signal, PG ... Computer program

Claims (7)

画像処理装置であって、
入力画像を表す入力画像データを取得する入力画像データ取得部と、
前記入力画像データを用いて、複数の画素のそれぞれの明るさの度合いである複数個の輝度値を含む輝度画像データを取得する輝度画像データ取得部と、
前記輝度画像データを用いて、注目画素が、第1種の特定領域に含まれるか否かを判断する第1判断部であって、前記第1種の特定領域は複数の画素が連続する領域であり、前記第1種の特定領域は第2種の特定領域と比べて明るさが暗い領域である、前記第1判断部と、
前記輝度画像データを用いて、前記注目画素が、前記第2種の特定領域に含まれるか否かを判断する第2判断部であって、前記第2種の特定領域は複数の画素が連続する領域であり、前記第2種の特定領域は前記第1種の特定領域と比べて明るさが明るい領域である、前記第2判断部と、
前記輝度画像データを平滑化することによって平滑化データを生成する平滑化データ生成部であって、前記複数の画素のうち、前記第1種の特定領域に含まれると判断される画素の輝度値と前記第2種の特定領域に含まれると判断される画素の輝度値とを平滑化せずに、前記第1種の特定領域に含まれると判断されず、かつ、前記第2種の特定領域に含まれると判断されない画素の輝度値を平滑化することによって、前記平滑化データを生成する、前記平滑化データ生成部と、
前記平滑化データを用いて、前記入力画像内のエッジを表すエッジ画素を検出する検出部と、
を備える、画像処理装置。
It is an image processing device
An input image data acquisition unit that acquires input image data that represents an input image,
A luminance image data acquisition unit that acquires luminance image data including a plurality of luminance values, which is the degree of brightness of each of the plurality of pixels, using the input image data.
A first determination unit that determines whether or not a pixel of interest is included in a specific area of the first type using the luminance image data, and the specific area of the first type is an area in which a plurality of pixels are continuous. The first determination unit and the first determination unit, wherein the specific area of the first type is a region whose brightness is darker than that of the specific area of the second type.
It is a second determination unit that determines whether or not the pixel of interest is included in the specific region of the second type using the luminance image data, and a plurality of pixels are continuous in the specific region of the second type. The second determination unit, which is a region to be used, and the specific region of the second type is a region whose brightness is brighter than that of the specific region of the first type.
A smoothing data generation unit that generates smoothed data by smoothing the brightness image data, and is a brightness value of a pixel determined to be included in the specific region of the first type among the plurality of pixels. And the brightness value of the pixel determined to be included in the specific area of the second type are not smoothed, are not determined to be included in the specific area of the first type, and are specified to be the second type. The smoothing data generation unit, which generates the smoothing data by smoothing the brightness value of a pixel that is not determined to be included in the region,
Using the smoothed data, a detection unit that detects edge pixels representing edges in the input image, and
An image processing device.
請求項1に記載の画像処理装置であって、
前記第1判断部と前記第2判断部との少なくとも一方は、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられた複数のフィルタを用いて、前記注目画素が、線を表す前記特定領域に含まれるか否かを判断する、
画像処理装置。
The image processing apparatus according to claim 1.
At least one of the first determination unit and the second determination unit is a filter for detecting a pixel representing a line, and the plurality of filters associated with lines having different thicknesses are used. It is determined whether or not the pixel of interest is included in the specific area representing the line.
Image processing device.
請求項2に記載の画像処理装置であって、
前記第1判断部は、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられたP個(Pは以上の整数)のフィルタの少なくとも1つを用いて、前記注目画素が、線を表す前記第1種の特定領域に含まれるか否かを判断し、
前記第2判断部は、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられたQ個(Qは、以上、かつ、Pとは異なる整数)のフィルタの少なくとも1つを用いて、前記注目画素が、線を表す前記第2種の特定領域に含まれるか否かを判断する、
画像処理装置。
The image processing apparatus according to claim 2.
The first determination unit is a filter for detecting pixels representing lines, and uses at least one of P filters (P is an integer of 2 or more) associated with lines having different thicknesses. Then, it is determined whether or not the pixel of interest is included in the specific area of the first type representing the line.
The second determination unit is a filter for detecting pixels representing lines, and has Q pieces (Q is 2 or more and an integer different from P) associated with lines having different thicknesses. At least one of the filters is used to determine if the pixel of interest is included in the particular region of the second type representing a line.
Image processing device.
請求項3に記載の画像処理装置であって、
P>Qである、
画像処理装置。
The image processing apparatus according to claim 3.
P> Q,
Image processing device.
請求項4に記載の画像処理装置であって、
前記第1判断部によって用いられ得る前記P個のフィルタに対応付けられるP種類の線のうち最も細い線の幅は、前記第2判断部によって用いられ得る前記Q個のフィルタに対応付けられるQ種類の線のうち最も細い線の幅よりも、細い、
画像処理装置。
The image processing apparatus according to claim 4.
The width of the thinnest line among the P-type lines associated with the P filters that can be used by the first determination unit is the Q associated with the Q filters that can be used by the second determination unit. Thinner than the width of the thinnest of the types of lines,
Image processing device.
請求項5に記載の画像処理装置であって、
前記入力画像データに前記エッジ画素を用いる画像処理を行うことによって、印刷用の画像データである出力データを生成する出力データ生成部と、
前記出力データを、色材を利用して画像を印刷する印刷実行部に供給する供給部と、
を備え、
前記第2判断部によって用いられ得る前記Q個のフィルタに対応付けられるQ種類の線のうち最も細い線の幅は、前記印刷実行部によって利用される色材の滲み特性に基づいて、予め決定されている、
画像処理装置。
The image processing apparatus according to claim 5.
An output data generation unit that generates output data, which is image data for printing, by performing image processing using the edge pixels for the input image data.
A supply unit that supplies the output data to a print execution unit that prints an image using a color material, and a supply unit.
With
The width of the thinnest line among the Q type lines associated with the Q filters that can be used by the second determination unit is determined in advance based on the bleeding characteristics of the color material used by the print execution unit. Has been,
Image processing device.
画像処理のためのコンピュータプログラムであって、
入力画像を表す入力画像データを取得する入力画像データ取得機能と、
前記入力画像データを用いて、複数の画素のそれぞれの明るさの度合いである複数個の輝度値を含む輝度画像データを取得する輝度画像データ取得機能と、
前記輝度画像データを用いて、注目画素が、第1種の特定領域に含まれるか否かを判断する第1判断機能であって、前記第1種の特定領域は複数の画素が連続する領域であり、前記第1種の特定領域は第2種の特定領域と比べて明るさが暗い領域である、前記第1判断機能と、
前記輝度画像データを用いて、前記注目画素が、前記第2種の特定領域に含まれるか否かを判断する第2判断機能であって、前記第2種の特定領域は複数の画素が連続する領域であり、前記第2種の特定領域は前記第1種の特定領域と比べて明るさが明るい領域である、前記第2判断機能と、
前記輝度画像データを平滑化することによって平滑化データを生成する平滑化データ生成機能であって、前記複数の画素のうち、前記第1種の特定領域に含まれると判断される画素の輝度値と前記第2種の特定領域に含まれると判断される画素の輝度値とを平滑化せずに、前記第1種の特定領域に含まれると判断されず、かつ、前記第2種の特定領域に含まれると判断されない画素の輝度値を平滑化することによって、前記平滑化データを生成する、前記平滑化データ生成機能と、
前記平滑化データを用いて、前記入力画像内のエッジを表すエッジ画素を検出する検出機能と、
をコンピュータに実現させる、コンピュータプログラム。
A computer program for image processing
Input image data acquisition function to acquire input image data representing the input image,
A luminance image data acquisition function that acquires luminance image data including a plurality of luminance values, which is the degree of brightness of each of the plurality of pixels, using the input image data.
This is a first determination function for determining whether or not a pixel of interest is included in a specific area of the first type using the luminance image data, and the specific area of the first type is an area in which a plurality of pixels are continuous. The first determination function and the first determination function, wherein the first type specific area is a region whose brightness is darker than that of the second type specific area.
It is a second determination function that determines whether or not the pixel of interest is included in the specific area of the second type using the luminance image data, and a plurality of pixels are continuous in the specific area of the second type. The second determination function, which is a region to be used, and the specific region of the second type is a region whose brightness is brighter than that of the specific region of the first type.
A smoothing data generation function that generates smoothed data by smoothing the brightness image data, and is a brightness value of a pixel determined to be included in the specific region of the first type among the plurality of pixels. And the brightness value of the pixel determined to be included in the specific area of the second type are not smoothed, are not determined to be included in the specific area of the first type, and are specified to be the second type. The smoothing data generation function that generates the smoothing data by smoothing the brightness value of a pixel that is not determined to be included in the region.
A detection function that detects edge pixels representing edges in the input image using the smoothed data, and
A computer program that makes a computer realize.
JP2017070795A 2017-03-31 2017-03-31 Image processing equipment and computer programs Active JP6794901B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017070795A JP6794901B2 (en) 2017-03-31 2017-03-31 Image processing equipment and computer programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017070795A JP6794901B2 (en) 2017-03-31 2017-03-31 Image processing equipment and computer programs

Publications (2)

Publication Number Publication Date
JP2018174418A JP2018174418A (en) 2018-11-08
JP6794901B2 true JP6794901B2 (en) 2020-12-02

Family

ID=64108822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017070795A Active JP6794901B2 (en) 2017-03-31 2017-03-31 Image processing equipment and computer programs

Country Status (1)

Country Link
JP (1) JP6794901B2 (en)

Also Published As

Publication number Publication date
JP2018174418A (en) 2018-11-08

Similar Documents

Publication Publication Date Title
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
JP4926568B2 (en) Image processing apparatus, image processing method, and image processing program
JP6031286B2 (en) Image processing apparatus and image processing method
JP4883789B2 (en) Image processing apparatus and image processing method
US9497353B2 (en) Image processing apparatus, image processing method, and image processing system
JP4700721B2 (en) Image processing device
JPH0372778A (en) Area identification system for picture processing unit
JP2008252699A (en) Image processor and image processing method
JP2008017365A (en) Apparatus and method for processing picture, and program
US9253368B2 (en) Image processing device setting binary value without using dither matrix when prescribed condition is satisfied
JP4637054B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP2022145776A (en) Image processing apparatus and image processing method
US6894807B1 (en) Method and apparatus for printing a black-and-white image based on color image information
JP6794901B2 (en) Image processing equipment and computer programs
JP2004350240A (en) Image processing apparatus and image processing method
JP4659789B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6834701B2 (en) Image processing equipment and computer programs
JP2019134232A (en) Image formation device, and method and program for the device
JP2017135690A (en) Image processing device, image processing method, and program
WO2012012447A1 (en) Method and system for automatically detecting and processing halftone regions in scanned documents
JP6995594B2 (en) Information processing equipment, information processing methods and programs
JP5165043B2 (en) Device, method and program capable of detecting line
JP2018174420A (en) Image processing apparatus and computer program
JP4084537B2 (en) Image processing apparatus, image processing method, recording medium, and image forming apparatus
JP3944032B2 (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201026

R150 Certificate of patent or registration of utility model

Ref document number: 6794901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150