JP2010074318A - Image processing apparatus and method, and image processing program - Google Patents

Image processing apparatus and method, and image processing program Download PDF

Info

Publication number
JP2010074318A
JP2010074318A JP2008237203A JP2008237203A JP2010074318A JP 2010074318 A JP2010074318 A JP 2010074318A JP 2008237203 A JP2008237203 A JP 2008237203A JP 2008237203 A JP2008237203 A JP 2008237203A JP 2010074318 A JP2010074318 A JP 2010074318A
Authority
JP
Japan
Prior art keywords
image data
unit
image
character
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008237203A
Other languages
Japanese (ja)
Inventor
Shinji Yamakawa
愼二 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008237203A priority Critical patent/JP2010074318A/en
Publication of JP2010074318A publication Critical patent/JP2010074318A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Facsimiles In General (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To satisfy a request of a user who wants to change setting when being output. <P>SOLUTION: A multifunction machine 100 includes a scanner 101 for input of image data, an area extracting part 121 for recognizing the type of each area included in the image data for the image data, an HDD 106 for storing the image data and the type of each area, a specifying part 146 for specifying one type from area types stored in the HDD 106 on the basis of an image division mode of the image data, and a printer γ part 142 for performing correction processing suitable for the specified type of the image data stored in the HDD 106. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像データに対して画像処理を行う画像処理装置、画像処理方法、及び画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus that performs image processing on image data, an image processing method, and an image processing program.

従来から、光学的に読み取った画像データに対して画像処理を行う際に、画像データの種別に応じて画像処理の内容を異ならせることが行われている。   2. Description of the Related Art Conventionally, when image processing is performed on optically read image data, the content of the image processing is changed according to the type of image data.

例えば、文字が主となる画像データに対しては、エッジが明確になるように二値化処理等を行い、写真等が主となる画像データに対しては、当該画像データの色の階調が保護されるような画像処理を行っている。このため、画像データに記載された内容を適切に判断することが重要となる。   For example, for image data mainly composed of characters, binarization processing or the like is performed so that the edges are clear, and for image data mainly composed of photographs or the like, the gradation of the color of the image data Image processing is performed to protect the image. For this reason, it is important to appropriately determine the contents described in the image data.

例えば、特許文献1に記載された技術では、画像データに線画か、中間調画か、判断するための判定基準を指示している。これにより、利用者の好みを反映した画像の特定を判定することができる。   For example, in the technique described in Patent Document 1, a determination criterion for determining whether image data is a line drawing or a halftone image is instructed. As a result, it is possible to determine whether the image reflects the user's preference.

特開平3−64257号公報JP-A-3-64257

上述したような、特許文献1を含む従来の技術では、記憶装置上に保存した画像データを再印刷する場合に、最初の判定結果で得られた画像データを再度印刷することになる。一方で、一度印刷した画像データであっても、印刷後の用途に応じて判定基準を変更したいという要求がある。   In the conventional technology including Patent Document 1 as described above, when the image data stored on the storage device is reprinted, the image data obtained as the first determination result is printed again. On the other hand, even for image data that has been printed once, there is a demand for changing the determination criterion according to the use after printing.

しかしながら、従来の技術では、一度読み込み処理を行った後の画像データについては、判定基準を変更することができず、判定基準を変更したい場合には、再度原稿を読み込む必要が生じるという問題がある。   However, the conventional technique has a problem in that it is not possible to change the determination criterion for image data that has been read once, and if it is desired to change the determination criterion, it is necessary to read the original again. .

本発明は、上記に鑑みてなされたものであって、一度印刷した画像データであっても、用途に応じて出力される画像データを変更可能な画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides an image processing apparatus, an image processing method, and an image processing program capable of changing image data output according to the use even if the image data has been printed once. The purpose is to provide.

上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置は、画像データを入力する画像データ入力手段と、前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識手段と、前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶する記憶手段と、前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定部と、前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理手段と、を備える。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention includes an image data input unit that inputs image data, and each region included in the image data with respect to the image data. Recognizing means for recognizing a type, storage means for storing the image data, and the type of each area recognized by the recognizing means, and storing in the storage means based on the output setting of the image data. A specifying unit that specifies one type from the type of each of the areas, and an image processing unit that performs image processing suitable for the specified type on the image data stored in the storage unit; .

また、本発明にかかる画像処理方法は、画像データ入力手段が、画像データを入力する画像データ入力ステップと、認識手段が、前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識ステップと、前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶手段に記憶する記憶ステップと、特定手段が、前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定ステップと、画像処理手段が、前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理ステップと、を有することを特徴とする。   The image processing method according to the present invention includes an image data input step in which the image data input means inputs the image data, and a recognition means for each type of each area included in the image data for the image data. A recognition step for recognizing the image data, a storage step for storing the type of each area recognized by the recognition means in a storage means, and a specifying means based on the output setting of the image data, A specifying step for specifying one type from the types of the respective areas stored in the storage unit, and an image processing unit for the specified type of the image data stored in the storage unit. And an image processing step for performing suitable image processing.

また、本発明にかかる画像処理プログラムは、画像データを入力する画像データ入力ステップと、前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識ステップと、前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶手段に記憶する記憶ステップと、前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定ステップと、前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理ステップと、をコンピュータに実行させる。   An image processing program according to the present invention includes an image data input step for inputting image data, a recognition step for recognizing the type of each area included in the image data, and the image data. And a storage step of storing the type of each area recognized by the recognition unit in a storage unit, and a type of each area stored in the storage unit based on an output setting of the image data, A computer is caused to execute a specifying step of specifying one type and an image processing step of performing image processing suitable for the specified type on the image data stored in the storage unit.

本発明によれば、画像データを記憶した後、特定した領域に対して適切な画像処理を行うため、出力を要求する度に画像データの入力が不要であるにも拘わらず、要求に応じて適切な画像データの出力が可能なため、利便性が向上するというという効果を奏する。   According to the present invention, in order to perform appropriate image processing on the specified area after storing the image data, the input of the image data is not required every time an output is requested. Since it is possible to output appropriate image data, there is an effect that convenience is improved.

以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法、及び画像処理プログラムの最良な実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus, an image processing method, and an image processing program according to the present invention are explained in detail below with reference to the accompanying drawings.

以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法、及び画像処理プログラムを適用した画像形成装置の最良な実施の形態を詳細に説明する。なお、以下に示す実施の形態は、画像形成装置に制限するものではなく、例えば、ファクシミリ装置など、さまざまな装置に適用することができる。   Exemplary embodiments of an image processing apparatus, an image processing method, and an image forming apparatus to which an image processing program according to the present invention is applied will be explained below in detail with reference to the accompanying drawings. The embodiment described below is not limited to the image forming apparatus, and can be applied to various apparatuses such as a facsimile apparatus.

本発明の一実施の形態として、画像形成装置であってコピー機能、ファクシミリ(FAX)機能、プリント機能、スキャナ機能及び入力画像(スキャナ機能による読み取り原稿画像やプリンタあるいはFAX機能により入力された画像)を配信する機能等を複合したいわゆるMFP(Multi Function Peripheral)と称される複合機100に適用した例を示す。   According to an embodiment of the present invention, an image forming apparatus includes a copy function, a facsimile (FAX) function, a print function, a scanner function, and an input image (an original image read by the scanner function or an image input by a printer or a FAX function). An example of application to a multifunction device 100 called a so-called MFP (Multi Function Peripheral) that combines functions and the like to distribute the content.

(第1の実施の形態)
図1は、本実施形態にかかる複合機100の概略構成を示したブロック図である。本図に示すように複合機100の内部は、スキャナ101と、スキャナ補正部102と、圧縮処理部103と、コントローラ104と、NIC105と、HDD106と、伸張処理部107と、プリンタ補正部108と、プロッタ109と、入力デバイス110と、を備えると共に、ネットワークを介して外部PC端末130と接続されている。
(First embodiment)
FIG. 1 is a block diagram illustrating a schematic configuration of a multifunction peripheral 100 according to the present embodiment. As shown in the figure, the MFP 100 includes a scanner 101, a scanner correction unit 102, a compression processing unit 103, a controller 104, a NIC 105, an HDD 106, an expansion processing unit 107, and a printer correction unit 108. The plotter 109 and the input device 110 are connected to the external PC terminal 130 via a network.

HDD106は、画像データや各種信号で示された情報等を記憶する。なお、本実施の形態では、HDD(Hard Disk Drive)を用いたが、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶手段により構成することができる。   The HDD 106 stores image data and information indicated by various signals. In this embodiment, an HDD (Hard Disk Drive) is used, but it can be configured by any commonly used storage means such as an optical disc, a memory card, and a RAM (Random Access Memory).

入力デバイス110は、利用者が操作の入力を行うためのデバイスとする。利用者が当該入力デバイス110を操作することで、複合機100が複写処理等を実行することができる。   The input device 110 is a device for a user to input an operation. When the user operates the input device 110, the multi-function device 100 can execute a copy process or the like.

また、複合機100は、原稿をスキャンした画像データをHDD106に格納する。そして、複合機100は、複写処理等を行う際に、入力デバイス110を介して、利用者から画像分離モードの選択を受け付け、受け付けた画像分離モードに従って印刷するための処理を行う。   In addition, the multifunction peripheral 100 stores image data obtained by scanning a document in the HDD 106. When performing the copying process or the like, the multifunction peripheral 100 receives a selection of an image separation mode from the user via the input device 110, and performs a process for printing according to the received image separation mode.

画像分離モードとは、画像データの各領域を文字領域や絵柄領域等として特定する際、各領域について特定される種別の優先度(例えば、ある領域が文字の可能性も絵柄の可能性もある場合に文字領域と特定するのか、絵柄領域と特定するのかを)を指定するためのモードとする。本実施の形態では、利用者は、画像分離モードとして、標準モード、及び文字モードから選択する必要がある。なお、画像分離モードは、画像データを出力するために利用者から入力された設定であり、換言すれば出力設定に相当する。なお、画像分離モードは、入力された画像データに対する設定として利用しても良い。   Image separation mode refers to the priority of the type specified for each area when specifying each area of the image data as a character area or a pattern area (for example, a certain area may be a character or a pattern) In this case, a mode for designating a character area or a picture area is designated. In the present embodiment, the user needs to select from the standard mode and the character mode as the image separation mode. The image separation mode is a setting input from the user for outputting image data, in other words, corresponds to an output setting. The image separation mode may be used as a setting for input image data.

画像分離モードにおいて選択可能な文字モードとは、文字の可能性のある(又は文字を含む)領域を文字エッジ領域として優先的に抽出するモードとし、文字の可能性がある領域であれば絵柄領域の可能性がある場合でも文字領域として画像処理を行う。   The character mode that can be selected in the image separation mode is a mode that preferentially extracts an area that may be a character (or that includes a character) as a character edge area. Even if there is a possibility of image processing, image processing is performed as a character area.

画像分離モードにおいて選択可能な標準モードとは、絵柄の可能性がある(又は図画を含む)領域を絵柄領域として優先的に抽出するモードとし、絵柄の可能性がある領域であれば文字領域の可能性がある場合でも絵柄領域として画像処理を行う。   The standard mode that can be selected in the image separation mode is a mode that preferentially extracts an area having a possibility of a pattern (or including a drawing) as a pattern area. Even if there is a possibility, image processing is performed as a pattern area.

スキャナ101は、複合機100が複写処理を行う場合に、原稿を光学的に読み込み、光学的な読み込みによるアナログ信号をデジタル信号(例えば600dpi)に変換した後、当該デジタル信号を画像データとして出力する。   When the multifunction peripheral 100 performs a copying process, the scanner 101 optically reads a document, converts an analog signal obtained by optical reading into a digital signal (for example, 600 dpi), and then outputs the digital signal as image data. .

スキャナ補正部102は、領域抽出部121と、スキャナγ部122と、フィルタ処理部123とを備え、スキャナ101から出力された画像データから文字、線画、写真などの領域毎の抽出を行うと共に、画像データのRGBデータに対してフィルタ処理などの画像処理を施す。   The scanner correction unit 102 includes an area extraction unit 121, a scanner γ unit 122, and a filter processing unit 123. The scanner correction unit 102 extracts characters, line drawings, photographs, and the like for each area from the image data output from the scanner 101. Image processing such as filter processing is performed on the RGB data of the image data.

領域抽出部121は、入力された画像データ(反射率リニア)に基づき、視覚的に異なる種別毎の領域を抽出する。この抽出手法にはどのような手法を用いても良いが、例えば、特開2003−259115号公報で用いられている抽出手法を用いてもよい。   The region extraction unit 121 extracts regions for each visually different type based on the input image data (reflectance linear). Any method may be used for this extraction method. For example, the extraction method used in Japanese Patent Laid-Open No. 2003-259115 may be used.

これにより、領域抽出部121は、エッジ領域、その他(写真領域)の絵柄領域の2種類の領域を抽出する。そして、領域抽出部121は、抽出された各領域の画素毎に、像域分離信号を付与する。領域抽出部121は、画像データに含まれる各領域について、エッジ領域、その他(写真領域)の絵柄領域であるか否かを認識し、認識結果を像域分離信号として付与している。つまり、領域抽出部121は、換言すれば認識手段として機能していることを意味する。   As a result, the region extraction unit 121 extracts two types of regions, an edge region and other (photo region) pattern regions. Then, the region extraction unit 121 gives an image region separation signal to each pixel of each extracted region. The region extraction unit 121 recognizes whether each region included in the image data is an edge region or other (photo region) pattern region, and gives the recognition result as an image region separation signal. That is, it means that the area extraction unit 121 functions as a recognition unit in other words.

エッジ領域とは、文字と考えられるエッジを検出した領域とする。絵柄領域とは、それ以外の領域とし、例えば写真領域等が含まれる。   The edge region is a region where an edge considered as a character is detected. The picture area is an area other than that, and includes, for example, a photograph area.

像域分離信号は、各領域を識別するための情報が含まれている信号とする。本実施の形態にかかる像域分離信号は、3bitの情報で構成され、具体的には文字分離信号(2bit)及び色領域信号(1bit)で構成される。当該像域分離信号により、各画素の領域の種類が特定できる。   The image area separation signal is a signal including information for identifying each area. The image area separation signal according to the present embodiment is composed of 3-bit information, specifically, a character separation signal (2 bits) and a color area signal (1 bit). The type of the area of each pixel can be specified by the image area separation signal.

文字分離信号は、各画素における文字エッジであるか否かを示す情報(1bit)と、絵柄領域であるか否かを示す情報(1bit)と、を含む信号とする。絵柄領域であるか否かを示す情報においては、白地有り又は網点有りと判定された場合には、絵柄領域を示す情報が設定される。なお、白地の有無の判定手法及び、網点の有無の判定手法については後述する。   The character separation signal is a signal including information (1 bit) indicating whether or not each pixel is a character edge and information (1 bit) indicating whether or not it is a picture area. In the information indicating whether or not it is a picture area, information indicating a picture area is set when it is determined that there is a white background or a halftone dot. A method for determining the presence or absence of a white background and a method for determining the presence or absence of a halftone dot will be described later.

色領域信号は、各画素が色領域(白地上に黒以外の色)なのか否かを示す情報を含む信号とする。   The color area signal is a signal including information indicating whether each pixel is a color area (a color other than black on the white ground).

図2は、各領域の概念を示した説明図である。図2に示すように、入力された画像データ201はそのまま蓄積画像データとしてHDD106に蓄積される。一方、領域抽出部121は、画像データから絵柄領域と、エッジ領域と、を抽出する。そして、抽出された絵柄領域と、エッジ領域と、蓄積画像データは、HDD106に蓄積される。   FIG. 2 is an explanatory diagram showing the concept of each region. As shown in FIG. 2, the input image data 201 is stored as it is in the HDD 106 as stored image data. On the other hand, the region extraction unit 121 extracts a pattern region and an edge region from the image data. The extracted pattern area, edge area, and accumulated image data are accumulated in the HDD 106.

そして、HDD106に蓄積された画像データを用いて印刷する要求を受け付けた場合に、これらエッジ領域及び絵柄領域の各画素について、印刷要求時に利用者により入力された画像分離モードに従って、画素毎に、色文字エッジ領域、黒文字エッジ領域及び絵柄領域のいずれなのか特定する。   Then, when a request for printing using image data stored in the HDD 106 is received, for each pixel in the edge area and the picture area, according to the image separation mode input by the user at the time of printing request, A color character edge region, a black character edge region, or a pattern region is specified.

黒文字エッジ領域とは、白地上に黒の文字エッジを検出した領域とする。色文字エッジ領域とは、白地上に黒以外の色の文字エッジを検出した領域とする。   The black character edge region is a region where a black character edge is detected on the white ground. The color character edge region is a region where a character edge of a color other than black is detected on the white ground.

例えば、画像分離モードとして、文字モードが選択されていた場合、エッジ領域及び色領域である“新発売”を含む領域202が、色文字エッジ領域と判定される。これにより“新発売”が白抜きの文字として処理される。また、画像分離モードとして、標準モードが選択されていた場合、エッジ領域及び色領域である“新発売”を含む領域202が絵柄領域として判定される。このように、本実施の形態においては、画像分離モードが文字モード又は標準モードであるかに従って、判定基準が異なることになる。   For example, when the character mode is selected as the image separation mode, the region 202 including the “new sale” that is the edge region and the color region is determined as the color character edge region. As a result, “new sale” is processed as an outline character. When the standard mode is selected as the image separation mode, the area 202 including the “new sale” that is the edge area and the color area is determined as the pattern area. As described above, in the present embodiment, the determination criterion varies depending on whether the image separation mode is the character mode or the standard mode.

なお、本実施の形態では、色文字エッジ領域と絵柄領域とを、利用者に選択された画像分離モードに従って、切り換え抽出と行っているが、色文字エッジ領域とその他の中間的な処理とによる切り換え抽出を行ってもよい。   In the present embodiment, the color character edge region and the pattern region are switched and extracted according to the image separation mode selected by the user. However, the color character edge region and other intermediate processes are used. Switching extraction may be performed.

このように、画像分離モードが標準モードの場合に“新発売”が絵柄として判定され、小さな文字である時、判読性が低いことがある。そこで、図2に示すように、画像分離モードが文字モードの場合に、“新発売”が文字として判定されるので、文字の可能性がある領域については、文字に適した処理がなされるため、判読性が向上する。   As described above, when the image separation mode is the standard mode, “new sale” is determined as a picture, and when the character is a small character, the legibility may be low. Therefore, as shown in FIG. 2, when the image separation mode is the character mode, “newly released” is determined as a character, and therefore, processing suitable for the character is performed for a region that may be a character. , Improve legibility.

このように、記憶した画像データを再度印刷する際に、画像分離モードを選択することにより、操作者の好みに応じた出力が可能となる。   As described above, when the stored image data is printed again, by selecting the image separation mode, output according to the preference of the operator is possible.

領域抽出部121は、エッジ領域の画像データ、及び絵柄領域を示す画像データ、蓄積画像データ、及び各画素の像域分離信号を出力する。   The area extraction unit 121 outputs image data of an edge area, image data indicating a picture area, accumulated image data, and an image area separation signal of each pixel.

図3は、第1の実施の形態にかかる領域抽出部121の構成を示すブロック図である。領域抽出部121は、フィルタ321と、エッジ抽出部322と、白領域抽出部323と、網点抽出部324と、色判定部325と、総合判定部326とで構成される。   FIG. 3 is a block diagram illustrating a configuration of the region extraction unit 121 according to the first embodiment. The region extraction unit 121 includes a filter 321, an edge extraction unit 322, a white region extraction unit 323, a halftone dot extraction unit 324, a color determination unit 325, and an overall determination unit 326.

フィルタ321は、主に文字のエッジ抽出のために、スキャナが発生するG画像データを強調して補正する。   The filter 321 emphasizes and corrects the G image data generated by the scanner mainly for character edge extraction.

エッジ抽出部322は、3値化部322aと、黒画素連続検出部322bと、白画素連続検出部322cと、近傍画素検出部322dと、孤立点除去部322eと、から構成される。本実施の形態では、エッジ抽出する際にG(Green)画像データを参照する例を示したが、当該G画像データに限らず、輝度データなどの濃淡を表現する信号であれば適応可能とする。   The edge extraction unit 322 includes a ternarization unit 322a, a black pixel continuous detection unit 322b, a white pixel continuous detection unit 322c, a neighboring pixel detection unit 322d, and an isolated point removal unit 322e. In the present embodiment, an example in which G (Green) image data is referred to when performing edge extraction has been described. However, the present invention is not limited to the G image data, and can be applied to any signal that expresses shading such as luminance data. .

ところで、文字領域は、高レベル濃度の画素と、低レベル濃度の画素(以下、黒画素、白画素と呼ぶ)が多く、エッジ部分では、これらの黒画素および白画素が連続しているという特徴を有している。そこで、エッジ抽出部322の黒画素連続検出部322b及び白画素連続検出部322cが黒画素および白画素それぞれの連続性を検出した後、近傍画素検出部322dが近傍の画素を検出し、孤立点除去部322eが孤立している(予め定められた条件と一致する)画素を除去する。その後、エッジ抽出部322、このような処理結果に基づいて、エッジ領域を判定する。   By the way, the character region has many high-level density pixels and low-level density pixels (hereinafter referred to as black pixels and white pixels), and these black pixels and white pixels are continuous at the edge portion. have. Therefore, after the black pixel continuous detection unit 322b and the white pixel continuous detection unit 322c of the edge extraction unit 322 detect the continuity of each of the black pixel and the white pixel, the neighboring pixel detection unit 322d detects the neighboring pixel, The removal unit 322e removes an isolated pixel (matching a predetermined condition). Thereafter, the edge extraction unit 322 determines an edge region based on such a processing result.

白領域抽出部323は、画像データの白地に対して書き込まれた領域を白領域と判定し、濃い黒文字周辺を白領域と判定し、濃度の薄いところを非白領域と判定する。   The white area extraction unit 323 determines that the area written on the white background of the image data is a white area, determines a dark black character periphery as a white area, and determines a low density area as a non-white area.

網点抽出部324は、画像データの網点を抽出し、網点の領域と判定する。   A halftone dot extraction unit 324 extracts a halftone dot of the image data and determines that it is a halftone dot region.

色判定部325は、色相分割部325aと、cメモリ325bと、mメモリ325cと、yメモリ325dと、wメモリ325eと、色画素判定部325fとを備える。そして、色相分割部325aが、各画素を、シアン、マゼンタ、イエロー及びホワイトの色相に分割して、cメモリ325b、mメモリ325c、yメモリ325d及びwメモリ325eに格納する。そして、色画素判定部325fが、各メモリに格納された情報に基づいて、画像データ内の色(有彩)画素や黒(無彩)画素を判定する。   The color determination unit 325 includes a hue division unit 325a, a c memory 325b, an m memory 325c, a y memory 325d, a w memory 325e, and a color pixel determination unit 325f. Then, the hue dividing unit 325a divides each pixel into cyan, magenta, yellow, and white hues, and stores them in the c memory 325b, the m memory 325c, the y memory 325d, and the w memory 325e. Then, the color pixel determination unit 325f determines a color (chromatic) pixel or a black (achromatic) pixel in the image data based on the information stored in each memory.

総合判定部326は、各画素の領域を総合的に判定する。図4は、総合判定部326の構成を示すブロック図である。図4に示すように、総合判定部326は、文字判定部326aと、膨張処理部326bと、デコード部326cとを備える。   The overall determination unit 326 comprehensively determines the area of each pixel. FIG. 4 is a block diagram illustrating a configuration of the comprehensive determination unit 326. As shown in FIG. 4, the comprehensive determination unit 326 includes a character determination unit 326a, an expansion processing unit 326b, and a decoding unit 326c.

文字判定部326aは、エッジ抽出部322の結果がエッジありで、網点抽出部324の結果が網点なしで、白領域抽出部323の結果が白領域ありの場合、文字エッジと判定する。それ以外の場合は、非文字エッジ(絵柄または文字のなか)と判定する。   If the result of the edge extraction unit 322 is that there is an edge, the result of the halftone dot extraction unit 324 is that there is no halftone dot, and the result of the white region extraction unit 323 is that there is a white region, the character determination unit 326a determines that it is a character edge. In other cases, it is determined as a non-character edge (in a pattern or a character).

膨張処理部326bは、文字判定部326aの結果を8×8ブロックのOR(論理和)処理し、その後に3×3ブロックのAND(論理積)処理をして4画素の膨張処理を行う。すなわち、注目画素を中心とする8×8画素のいずれかの画素が文字エッジであった場合、注目画素も文字エッジ領域であると仮定し、該注目画素を中心とする3×3ブロックのすべてが文字エッジ領域であった場合、注目画素を文字エッジと確定し、そして、注目画素とそれに隣接する4画素の計5画素を文字エッジ領域とする。   The expansion processing unit 326b performs an OR (logical sum) process of 8 × 8 blocks on the result of the character determination unit 326a, and then performs an AND (logical product) process of 3 × 3 blocks to perform a 4-pixel expansion process. That is, if any pixel of 8 × 8 pixels centered on the target pixel is a character edge, it is assumed that the target pixel is also a character edge region, and all 3 × 3 blocks centered on the target pixel are assumed. Is a character edge region, the pixel of interest is determined to be a character edge, and a total of five pixels including the pixel of interest and the four pixels adjacent thereto are set as the character edge region.

膨張処理部326bの結果は、文字エッジ信号としてデコード部326cに出力する。このような膨張処理部326bの処理により、分離結果が異なって文字の領域が薄くなることがなくなる。   The result of the expansion processing unit 326b is output to the decoding unit 326c as a character edge signal. Such processing of the expansion processing unit 326b prevents the separation result from being different and the character area from being thinned.

デコード部326cは、最終的に文字分離信号(図4のC/P信号)を出力する。また、総合判定部326は、色判定結果を色領域信号(図4のB/C信号)として出力する。この文字分離信号(画素毎に2bit)と色領域信号(画素毎に1bit)の計3bitの情報が出力される。このようにして、文字分離信号及び色領域信号を含む像域分離信号が出力される。   The decoding unit 326c finally outputs a character separation signal (C / P signal in FIG. 4). The overall determination unit 326 outputs the color determination result as a color area signal (B / C signal in FIG. 4). A total of 3 bits of information including the character separation signal (2 bits for each pixel) and the color area signal (1 bit for each pixel) are output. In this way, an image area separation signal including a character separation signal and a color area signal is output.

図1に戻り、スキャナγ部122は、領域抽出部121から入力された画像データ(蓄積画像データ、エッジ領域、及び絵柄領域の画像データ)に対して、反射率リニアから濃度リニアのデータに変換する。   Returning to FIG. 1, the scanner γ unit 122 converts the image data (accumulated image data, edge region, and pattern region image data) input from the region extraction unit 121 from reflectance linear to density linear data. To do.

フィルタ処理部123は、像域分離信号に従って、画素毎に適用するフィルタ処理を切り換える。このフィルタ処理部123は、文字エッジ領域(黒文字エッジ領域、及び色文字エッジ領域を含む)に対して、判読性を重視して、エッジ強調処理(鮮鋭化処理)を行う。   The filter processing unit 123 switches the filter processing to be applied for each pixel according to the image area separation signal. The filter processing unit 123 performs edge enhancement processing (sharpening processing) on character edge regions (including black character edge regions and color character edge regions) with emphasis on legibility.

また、フィルタ処理部123は、写真領域などの色領域に対して、画像データ内の急峻な濃度変化をエッジ量として、エッジ量に応じて平滑化処理やエッジ強調処理(鮮鋭化処理)を行う。急峻なエッジを強調するのは、写真、図又はグラフに含まれている文字を判読容易にするためである。さらに、文字エッジ領域は、色領域との組み合わせで、色文字エッジ領域と黒文字エッジ領域とで、二値化の閾値を変えることも可能である。   Further, the filter processing unit 123 performs a smoothing process or an edge enhancement process (sharpening process) on a color area such as a photographic area, using a steep density change in the image data as an edge amount, according to the edge amount. . The sharp edges are emphasized in order to make the characters included in the photograph, figure or graph easy to read. Further, the character edge region can be combined with the color region, and the binarization threshold value can be changed between the color character edge region and the black character edge region.

圧縮処理部103は、スキャナ補正後のRGB各8bit画像データと、文字分離信号(2bit)と、色領域信号(1bit)と、を圧縮処理した後、汎用バスに送出する。圧縮後の画像データ及び文字分離信号(2bit)と、色領域信号(1bit)は、汎用バスを介して、コントローラ104に送信される。なお、本実施の形態では、画像データ、文字分離信号(2bit)及び色領域信号(1bit)に対して圧縮を施すが、汎用バスの帯域が十分に広く、蓄積するHDD106の容量が大きければ、非圧縮の状態で扱っても良い。   The compression processing unit 103 compresses the RGB corrected 8-bit image data, the character separation signal (2 bits), and the color area signal (1 bit), and sends them to the general-purpose bus. The compressed image data, character separation signal (2 bits), and color area signal (1 bit) are transmitted to the controller 104 via a general-purpose bus. In this embodiment, the image data, the character separation signal (2 bits), and the color area signal (1 bit) are compressed. If the bandwidth of the general-purpose bus is sufficiently wide and the capacity of the HDD 106 to be stored is large, It may be handled in an uncompressed state.

コントローラ104は、ページメモリ131、圧縮伸張処理部132、出力フォーマット変換部133、入力フォーマット変換部135、データi/f部134、デバイスi/f部136とで構成される。コントローラ104は、HDD106に格納されている画像データを、外部PC端末130に出力したり、外部PC端末130から画像データを入力したりする。また、コントローラ104は、入力デバイス110からの操作の入力処理を行う。   The controller 104 includes a page memory 131, a compression / decompression processing unit 132, an output format conversion unit 133, an input format conversion unit 135, a data i / f unit 134, and a device i / f unit 136. The controller 104 outputs image data stored in the HDD 106 to the external PC terminal 130 or inputs image data from the external PC terminal 130. In addition, the controller 104 performs an operation input process from the input device 110.

デバイスi/f部136は、入力デバイス110から入力された情報の処理を行う。また、デバイスi/f部136は、入力デバイス110から入力された画像分離モードの入力を受け付ける。さらに、デバイスi/f部136は、入力デバイス110から入力された画像処理モードの入力を受け付ける。   The device i / f unit 136 processes information input from the input device 110. In addition, the device i / f unit 136 receives an input of the image separation mode input from the input device 110. Further, the device i / f unit 136 receives an input of the image processing mode input from the input device 110.

画像処理モードとは、読み取った原稿の処理情報で、文字重視の処理を行った文字モード、文字と写真を両立する標準モード、写真重視の処理行った写真モードの3種類がある。   The image processing mode is processing information of the read document, and there are three types, that is, a character mode in which character-oriented processing is performed, a standard mode in which characters and photos are compatible, and a photo mode in which processing with emphasis on photos is performed.

また、デバイスi/f部136は、入力デバイス110に対して画像データを出力することで、入力デバイス110が画像データを表示することもできる。この表示可能な画像データは、どの画像データであっても良く、例えば、プリンタ補正部108で補正された後の画像データであっても良い。   Further, the device i / f unit 136 can display the image data by outputting the image data to the input device 110. The displayable image data may be any image data, for example, image data after being corrected by the printer correction unit 108.

コントローラ104は、入力された画像データを、HDD106に蓄積処理を行う。蓄積されるデータとしては、画像データの他に、書誌情報として画像サイズを含むほか、文字分離信号(2bit)、及び色領域信号(1bit)が保持する情報を格納する。なお、コントローラ104は、画像入力時に、画像分離モード及び画像処理モードの入力を受け付けた場合、入力された各モードについて格納してもよい。   The controller 104 stores the input image data in the HDD 106. As the accumulated data, in addition to the image data, the image size is included as bibliographic information, and information held by the character separation signal (2 bits) and the color area signal (1 bit) is stored. When the controller 104 accepts input of the image separation mode and the image processing mode during image input, the controller 104 may store the input modes.

ページメモリ131は、入力された画像データ、文字分離信号(2bit)、及び色領域信号(1bit)などを一時的に蓄積する。   The page memory 131 temporarily stores input image data, a character separation signal (2 bits), a color area signal (1 bit), and the like.

そして、コントローラ104は、圧縮処理部103から入力された画像データを、HDD106に格納する。その後、当該画像データを使用する場合、コントローラ104は、HDD106に格納されていた画像データを、ページメモリ131に読み出す。   The controller 104 stores the image data input from the compression processing unit 103 in the HDD 106. Thereafter, when using the image data, the controller 104 reads the image data stored in the HDD 106 into the page memory 131.

圧縮伸張処理部132は、ページメモリ131内の、圧縮処理されている画像データに対して、元の各色8bitデータに伸張し、出力フォーマット変換部133に出力する。   The compression / decompression processing unit 132 decompresses the compressed image data in the page memory 131 to the original 8-bit data for each color and outputs it to the output format conversion unit 133.

出力フォーマット変換部133は、入力された画像データのRGBデータを、標準色空間であるsRGBデータに色変換を行うと共に、JPEG形式やTIFF形式への汎用画像フォーマットに変換する。   The output format conversion unit 133 performs color conversion on the RGB data of the input image data into sRGB data that is a standard color space, and converts the RGB data into a general-purpose image format such as JPEG format or TIFF format.

図5は、出力フォーマット変換部133の構成を示したブロック図である。図5に示すように、出力フォーマット変換部133は、色変換部501と、解像度変換部502と、TIFフォーマット生成部503と、JPGフォーマット生成部504と、圧縮フォーマット生成部505と、データi/f部506とから構成される。   FIG. 5 is a block diagram showing the configuration of the output format conversion unit 133. As shown in FIG. 5, the output format conversion unit 133 includes a color conversion unit 501, a resolution conversion unit 502, a TIF format generation unit 503, a JPG format generation unit 504, a compression format generation unit 505, data i / f portion 506.

色変換部501では、RGBデータ間のデータ変換を行う。解像度変換部502は、RGBデータ変換後の画像データに対して300dpi、200dpiなどの画素密度変換を行う。本実施の形態は、300dpiに変換する例とする。   The color conversion unit 501 performs data conversion between RGB data. The resolution conversion unit 502 performs pixel density conversion such as 300 dpi and 200 dpi on the image data after the RGB data conversion. This embodiment is an example of conversion to 300 dpi.

TIFフォーマット生成部503、JPGフォーマット生成部504、圧縮フォーマット生成部505は、解像度変換した画像に対して、各フォーマット形式に変換する処理を行う。次に、圧縮フォーマット生成部505について説明する。   The TIF format generation unit 503, the JPG format generation unit 504, and the compression format generation unit 505 perform processing for converting the resolution-converted image into each format. Next, the compression format generation unit 505 will be described.

圧縮フォーマット生成部505は、二値化部511と、黒画像生成部513と、二値画像生成部512と、第1解像度変換部514と、第2解像度変換部515と、背景画像生成部516と、文字画像生成部517と、画像ファイル合成部518と、から構成される。   The compression format generation unit 505 includes a binarization unit 511, a black image generation unit 513, a binary image generation unit 512, a first resolution conversion unit 514, a second resolution conversion unit 515, and a background image generation unit 516. And a character image generation unit 517 and an image file composition unit 518.

二値化部511は、画像濃度の明暗を基準に文字領域と非文字領域とを識別する二値画像+マスク画像データ(2bit)、及び黒文字画像データ(1bit)を出力する。   The binarization unit 511 outputs a binary image + mask image data (2 bits) and black character image data (1 bit) for identifying a character area and a non-character area on the basis of brightness and darkness of the image density.

二値化部511は、複数の特徴量に基づいて二値化を行う。図6は、二値化部511の構成を示したブロック図である。図6に示すように、二値化部511は、文字解像度変換部601と、適応二値化部602と、孤立点除去部603と、N値化部604と、第1網点検出部605と、第2網点検出部606と、第1グレー検出部607と、第2グレー検出部608と、文字判定部609と、を備える。   The binarization unit 511 performs binarization based on a plurality of feature amounts. FIG. 6 is a block diagram illustrating a configuration of the binarization unit 511. As shown in FIG. 6, the binarization unit 511 includes a character resolution conversion unit 601, an adaptive binarization unit 602, an isolated point removal unit 603, an N-value conversion unit 604, and a first halftone dot detection unit 605. A second halftone dot detection unit 606, a first gray detection unit 607, a second gray detection unit 608, and a character determination unit 609.

そして、二値化部511は、逐次処理で、先頭ラインから、ライン毎に一つの画素値について処理が終わると隣の画素の処理を行うこととし、当該処理を画像データの最後まで続ける。なお、本実施の形態ではRGB画像データを用いる。このRGB画像データは、画素値が大きくなると色が濃くなり、画素値が小さくなると淡くなるデータとする。   Then, the binarization unit 511 performs the processing of the adjacent pixels when the processing is completed for one pixel value for each line from the top line in the sequential processing, and the processing is continued to the end of the image data. In the present embodiment, RGB image data is used. The RGB image data is data that becomes darker as the pixel value increases and becomes lighter as the pixel value decreases.

文字解像度変換部601は、圧縮伸張処理部132により伸張された画像データである文字エッジ領域と色領域信号とを画像データに施した解像度と同じ解像度に変換(例えば、300dpi)し、画像データと画素密度を統一する。そして、文字解像度変換部601は、文字エッジと色とに関する情報を出力する。   The character resolution conversion unit 601 converts the character edge region and the color region signal, which are image data expanded by the compression / decompression processing unit 132, to the same resolution as that applied to the image data (for example, 300 dpi), and Unify pixel density. Then, the character resolution conversion unit 601 outputs information on the character edge and color.

適応二値化部602は、閾値選択部621と、二値化実行部622と、を備え、二値化処理を行う。   The adaptive binarization unit 602 includes a threshold selection unit 621 and a binarization execution unit 622, and performs binarization processing.

閾値選択部621は、文字エッジ領域と、それ以外の領域とのそれぞれに対し、二値化の閾値を設定し、処理対象となる領域に従って閾値を切り換える。なお、文字エッジ領域に対しては、それ以外の領域と比べて、より文字が判定しやすいパラメータを設定する。   The threshold selection unit 621 sets a binarization threshold for each of the character edge region and the other region, and switches the threshold according to the region to be processed. It should be noted that a parameter that makes it easier to determine the character is set for the character edge region than for the other regions.

そして、二値化実行部622は選択された閾値で、各領域に対して二値化処理を施す。例えば、二値化実行部622は、各画素の入力画像RGBのそれぞれの値において、1つでも閾値を超えている場合に、黒(on)として判定し、一つも閾値を超えていない場合には白(off)と判定する。例えば、閾値としてR=128、G=120、B=118が設定されている際、入力画像データの画素がR=121、G=121、B=121の場合、二値化実行部622は、黒と判定する。また、入力画像データの画素がR=110、G=110、B=110の場合、二値化実行部622は、白と判定する。   Then, the binarization execution unit 622 performs binarization processing on each region with the selected threshold value. For example, the binarization execution unit 622 determines that the value of the input image RGB of each pixel is black (on) when at least one of the values exceeds the threshold, and determines that none of the values exceeds the threshold. Is determined to be white (off). For example, when R = 128, G = 120, and B = 118 are set as threshold values, and the pixels of the input image data are R = 121, G = 121, and B = 121, the binarization execution unit 622 Judge as black. When the pixels of the input image data are R = 110, G = 110, and B = 110, the binarization execution unit 622 determines that the pixel is white.

このように、文字エッジ領域と、それ以外の領域とで、閾値を切り換えるのは、背景色に基づくものである。すなわち、白以外の背景色の上に記載されている文字は濃く、白地の上に記載されている文字は薄い画像データに対して、常に一定の閾値で処理を行うと、いずれの背景色の上の文字についても黒(on)と判定するという処理が行えなくなる。   In this way, the threshold value is switched between the character edge region and the other region based on the background color. That is, if the character written on the background color other than white is dark and the character written on the white background is thin with respect to image data, any background color of The upper character cannot be determined to be black (on).

そこで、本実施の形態にかかる適応二値化部602は、文字エッジ領域と、それ以外の領域とで、閾値を切り換えることとした。これにより、白地上文字に対する閾値と、背景色が白い以外の上の文字に対する閾値が異なるため、白地の薄い文字と、色地上文字とを、適切に黒(on)と判定できる。これにより、適切な二値化処理が可能となる。   Therefore, the adaptive binarization unit 602 according to the present embodiment switches the threshold value between the character edge region and the other region. Thereby, since the threshold value for the white ground character and the threshold value for the upper character other than the white background color are different, the light character on the white background and the color ground character can be appropriately determined to be black (on). Thereby, appropriate binarization processing becomes possible.

なお、本実施の形態では、後述するように、二値化する画像データに対して、文字エッジ領域には、エッジ強調処理(鮮鋭化処理)を施し、文字エッジ領域以外にはエッジ量に応じた画像処理を行なうので、絵柄領域には平滑化処理がなされることになる。この場合、色地上文字の背景領域には平滑化処理がなされるので、良好に二値化が可能になる。   In the present embodiment, as will be described later, edge enhancement processing (sharpening processing) is performed on the character edge region for the image data to be binarized, and other than the character edge region, depending on the edge amount Since the image processing is performed, the picture area is smoothed. In this case, since the smoothing process is performed on the background area of the color ground character, binarization can be satisfactorily performed.

孤立点除去部603は、適応二値化部602により処理結果においては、孤立している画素が多いため、孤立している画素を除去する。孤立点除去部603は、図7に示す各パターンに一致した場合に、注目画素について反転処理を行うことで、孤立している画素を除去する。   The isolated point removal unit 603 removes isolated pixels because there are many isolated pixels in the processing result of the adaptive binarization unit 602. The isolated point removal unit 603 removes an isolated pixel by performing inversion processing on the pixel of interest when it matches each pattern shown in FIG.

N値化部604と、第1網点検出部605と、第2網点検出部606と、第1グレー検出部607と、第2グレー検出部608と、でマスク部を構成する。   The N-value conversion unit 604, the first halftone dot detection unit 605, the second halftone dot detection unit 606, the first gray detection unit 607, and the second gray detection unit 608 constitute a mask unit.

N値化部604は、後述する網点検出部605、606で網点検出を行うため、且つグレー検出部607、608でグレー検出を行うために、画像データの各画素を、共通して使用するN値の値に変換する。   The N-value conversion unit 604 uses each pixel of the image data in common in order to perform halftone dot detection by the halftone detection units 605 and 606 described later and to perform gray detection by the gray detection units 607 and 608. Convert to N value.

N値化部604は、RGB間の差の小さい画素(bk)が、閾値thabkより大きい場合、黒文字とする。また、N値化部604は、RGB間の差が大きい画素に対して、YMCBGRの6色相に分け、色相毎の閾値(thay、tham、thac、thab、thag、thar)を用いて色相毎に二値化処理を行う。これにより、各色相において色が濃い画素が、アクティブ画素(文字)と判断される。なお、色相の分け方は、単純にRGBの大小関係で行ってもよいし、RGBの色の割合で決めてもよい。これは入力画像の特性により決まる。なお、出力結果は色相別に保持する。   When the pixel (bk) having a small difference between RGB is larger than the threshold thabk, the N-value conversion unit 604 sets the black character. Further, the N-value conversion unit 604 divides pixels having a large difference between RGB into six hues of YMCBGR, and uses a threshold for each hue (thay, tham, thac, thab, thag, thar) for each hue. Perform binarization processing. Thereby, a pixel having a dark color in each hue is determined as an active pixel (character). The method of dividing the hue may be simply based on the magnitude relationship of RGB or may be determined by the ratio of RGB colors. This is determined by the characteristics of the input image. The output result is held for each hue.

本実施の形態にかかるN値化部604のNを“8”とし、以下に示す値が各画素に設定される。なお、括弧内はbit表示したものとする。   N in the N-value conversion unit 604 according to the present embodiment is set to “8”, and the following values are set for each pixel. In the parentheses, it is assumed that bits are displayed.

N値の各値は、Dtah=0(000):“該当なし”、Dtah=1(001):“黄色”、Dtah=2(010):“マゼンタ”、Dtah=3(011):“赤”、Dtah=4(100):“シアン”、Dtah=5(101):“緑”、Dtah=6(110):“青”、Dtah=7(111):“黒”とする。   N values are as follows: Dtah = 0 (000): “Not applicable”, Dtah = 1 (001): “Yellow”, Dtah = 2 (010): “Magenta”, Dtah = 3 (011): “Red Dtah = 4 (100): “Cyan”, Dtah = 5 (101): “Green”, Dtah = 6 (110): “Blue”, Dtah = 7 (111): “Black”.

さらに、N値化部604は、白のレベルも同様に二値化処理を行う。N値化部604は、RGB間の差の小さい画素(bk)が、閾値thbbkより値が小さい場合、白画素とする。また、N値化部604は、RGB間の差の大きい画素の場合、YMCBGRの6色相に分け、色相毎の閾値(thby、thbm、thbc、thbb、thbg、thbr)を用いて色相毎に二値化処理を行う。そして、各色相において色が薄い画素は、アクティブ画素(白画素)と判断される。   Further, the N-value conversion unit 604 performs binarization processing on the white level as well. The N-value conversion unit 604 sets a white pixel when a pixel (bk) having a small difference between RGB has a value smaller than the threshold thbbk. Further, in the case of a pixel having a large difference between RGB, the N-value conversion unit 604 divides the pixel into six hues of YMCBGR, and uses two threshold values for each hue (thby, thbm, thbc, thbb, thbg, thbr). Perform value processing. Then, a pixel having a light color in each hue is determined as an active pixel (white pixel).

また、黒に含まれる画素で、更に黒い(濃い)色を抽出した画素を濃い黒として、黒抽出時に使用する。図8は、グレー領域と、文字領域との関係を示した図である。図8に示す符号801が文字領域と、符号802がグレー領域となる。   In addition, among the pixels included in black, a pixel obtained by extracting a black (darker) color is used as a dark black and used during black extraction. FIG. 8 is a diagram showing the relationship between the gray area and the character area. A reference numeral 801 shown in FIG. 8 is a character area, and a reference numeral 802 is a gray area.

第1網点検出部605は、画像データを順方向に走査して、網点を検出する。つまり、画像データの細かい網点は、スキャナ補正部102による平滑化処理で網点形状は無くなっているが、新聞の写真のような粗い網点は充分な平滑化が行われずに、網点のドット形状が残っている。そこで、第1網点検出部605は、この粗い網点を検出する。本実施の形態にかかる第1網点検出部605では、網点を検出するために、網点のパターンマッチングを行う。本実施の形態では、Dtah≠0の時に黒画素とし、N値化の白画素を白画素とする。なお、詳細な検出手順については後述する。   The first halftone dot detection unit 605 scans image data in the forward direction to detect halftone dots. In other words, fine halftone dots in the image data have been eliminated by the smoothing process by the scanner correction unit 102, but rough halftone dots such as newspaper photographs are not smoothed, and the halftone dots are not smoothed. The dot shape remains. Therefore, the first halftone dot detection unit 605 detects this coarse halftone dot. The first halftone dot detection unit 605 according to the present embodiment performs halftone dot pattern matching in order to detect halftone dots. In this embodiment, a black pixel is set when Dtah ≠ 0, and an N-valued white pixel is set as a white pixel. A detailed detection procedure will be described later.

第2網点検出部606は、画像データを逆方向に走査して、網点を検出する。つまり、第1網点検出部605で順方向の走査により網点をとらない部分を逆読みすることで、網点を検出している。   The second halftone dot detector 606 scans the image data in the reverse direction to detect halftone dots. In other words, the halftone dot is detected by the first halftone dot detection unit 605 by reverse-reading a portion where the halftone dot is not taken by scanning in the forward direction.

第1網点検出部605及び第2網点検出部606は、白パターンから白パターンの間に一定以上の網点パターンがある場合に、網点として検出する。さらに、網点パターンと網点パターンとの間隔が広い場合に非網点と判断することで、黒グラデーションの濃い背景の白抜き文字を非網点と判定できる。例えば、第1網点検出部605及び第2網点検出部606は、図9に示す画像データの、白抜き文字を非網点と判定する。また、図10に示す画像データに対して網点検出を行う場合、第1網点検出部605及び第2網点検出部606は、濃い背景において網点形状がほとんどないため、非網点と判断する。さらに、第1網点検出部605及び第2網点検出部606は、グラデーションの薄い背景上の濃い文字についても網点形状ほとんどないため、非網点と判断する。   The first halftone dot detection unit 605 and the second halftone dot detection unit 606 detect a halftone dot when there is a certain halftone dot pattern between the white pattern and the white pattern. Furthermore, by determining that the halftone dot pattern is a non-halftone dot when the interval between the halftone dot pattern is wide, it is possible to determine a white character with a dark black gradation background as a non-halftone dot. For example, the first halftone dot detection unit 605 and the second halftone dot detection unit 606 determine the white characters in the image data shown in FIG. 9 as non-halftone dots. When halftone detection is performed on the image data shown in FIG. 10, the first halftone dot detection unit 605 and the second halftone dot detection unit 606 have almost no halftone dot shape in a dark background. to decide. Further, the first halftone dot detection unit 605 and the second halftone dot detection unit 606 determine that the dark character on the background with a light gradation has almost no halftone dot shape, and therefore, it is determined as a non-halftone dot.

ところで、一般的な文字は白地上に記載されているため、白地上文字において網点パターンは文字のエッジ近傍しかないので、白地上の文字が網点の領域として誤検出されることはほとんどない。   By the way, since a general character is written on the white ground, the halftone dot pattern in the white ground character is only near the edge of the character, so that the character on the white ground is hardly erroneously detected as a halftone dot region. .

なお、本実施の形態においては、パターンマッチングを白と白以外で行ったが、Y成分、M成分、C成分について、それぞれ独立に行なってもよい。Y成分、M成分、C成分のそれぞれについて独立して網点の検出処理を行うことで、印刷のインクの成分がYMCのため、インクのドット再現を正確に検出することが可能となる。   In this embodiment, pattern matching is performed for white and other than white, but the Y component, M component, and C component may be performed independently. By performing halftone dot detection processing independently for each of the Y component, the M component, and the C component, since the ink component of printing is YMC, it is possible to accurately detect the ink dot reproduction.

図6に戻り、第1グレー検出部607、第2グレー検出部608は、文字領域は濃く、文字周辺の領域は薄いことを用いて、文字領域の濃さより薄く、文字周辺の領域より濃い領域を中濃度のグレーとして判定する処理を行う。なお、グレー判定で使用する白地は、N値化の白画素とする。   Returning to FIG. 6, the first gray detection unit 607 and the second gray detection unit 608 use the fact that the character region is dark and the region around the character is thin, so that the region is lighter than the character region and darker than the character region. Is determined as medium density gray. Note that the white background used in the gray determination is an N-valued white pixel.

そして、第1グレー検出部607が、画像データについて順方向でグレーの検出処理を行うのに対し、第2グレー検出部608は、逆方向でグレーの検出処理を行う。第2グレー検出部608が、逆方向で処理することにより、グレー領域先端がグレートならなかった領域をグレーと判定できる。   The first gray detection unit 607 performs gray detection processing on the image data in the forward direction, whereas the second gray detection unit 608 performs gray detection processing on the reverse direction. The second gray detection unit 608 performs processing in the reverse direction, so that an area where the tip of the gray area is not great can be determined as gray.

一般的に文字を含む領域は、濃い色の画素領域と、薄い色(白地)の画素領域とで構成されるため、第1グレー検出部607、第2グレー検出部608はグレーを検出しない。これに対し、文字部にはない絵柄領域(例えば写真)は、様々な階調の色が存在しているため、第1グレー検出部607、第2グレー検出部608は中濃度の領域をグレーとして検出する。第1グレー検出部607、第2グレー検出部608によるグレーと判断される領域は、当該領域の周辺画素について白画素の数が一定値を超えるまでとする。   In general, since a region including characters is composed of a dark pixel region and a light (white) pixel region, the first gray detection unit 607 and the second gray detection unit 608 do not detect gray. On the other hand, since the pattern area (for example, a photograph) that does not exist in the character part has colors of various gradations, the first gray detection unit 607 and the second gray detection unit 608 make the medium density region gray. Detect as. The region determined to be gray by the first gray detection unit 607 and the second gray detection unit 608 is assumed to be until the number of white pixels exceeds a certain value for the peripheral pixels in the region.

また、第1グレー検出部607、第2グレー検出部608は濃い色の画素についてもグレー画素として検出する。さらに、第1グレー検出部607、第2グレー検出部608は、グレー領域内で所定の数以上黒が連続している場合に、非グレー画素として検出する。ここでグレーと判断された画素領域を、グレー領域とする。これにより、黒が背景の白抜き文字を非グレー領域として検出することが可能になる。   The first gray detection unit 607 and the second gray detection unit 608 also detect dark pixels as gray pixels. Further, the first gray detection unit 607 and the second gray detection unit 608 detect as non-gray pixels when a predetermined number or more of blacks continue in the gray region. Here, the pixel area determined to be gray is defined as a gray area. As a result, it is possible to detect white characters with a black background as a non-gray area.

文字判定部609は、黒文字判定部611を備え、黒文字の領域及び色文字の領域を判断した後、二値化部511の出力として、画像分離モードにおいて利用する領域を切り替えるための二値画像(二値化領域)、マスク領域(網点領域またグレー領域)及び黒文字判定領域の3bitを、画素毎に出力する。   The character determination unit 609 includes a black character determination unit 611. After determining the black character region and the color character region, the character determination unit 609 outputs a binary image (for switching the region used in the image separation mode) as an output of the binarization unit 511. 3 bits of a binarized area), a mask area (halftone area or gray area), and a black character determination area are output for each pixel.

孤立点除去部603より出力された2値を、文字領域であるか否かを示す情報とする。また、孤立点除去部603より出力された情報で文字領域に含まれている画素で、第1網点検出部605及び第2網点検出部606により検出された網点領域に含まれておらず、第1グレー検出部607及び第2グレー検出部608で検出されたグレー領域に含まれておらず、下地領域(下地検出の出力)でなく、黒文字(後述する黒文字判定結果)でなければ、色文字内の画素とする。なお、下地の検出は、周知のいずれの手法を用いても良い。   The binary output from the isolated point removal unit 603 is used as information indicating whether or not it is a character area. Further, the information output from the isolated point removal unit 603 is a pixel included in the character region and is included in the halftone dot region detected by the first halftone dot detection unit 605 and the second halftone dot detection unit 606. First, it is not included in the gray area detected by the first gray detection unit 607 and the second gray detection unit 608 and is not a background area (output of background detection) and is not a black character (a black character determination result described later). , Pixels in a color character. It should be noted that any known method may be used for detecting the background.

なお、文字領域を判定する際に、下地領域、網点領域及びグレー領域と論理演算を行うのは、文字判定結果が本来、解像度の必要ない絵柄領域を文字領域としていることから、写真領域として補正をしているためである。特に写真領域は孤立点を非常に多く含んでおり、この補正を行うことにより、文字画像の圧縮率の向上し、画像も文字非文字の混在が少なくなり画質向上も望める。   In addition, when determining the character area, the logical operation with the background area, the halftone dot area, and the gray area is performed because the character determination result is a picture area that does not originally require a resolution. This is because of the correction. In particular, the photographic area contains a large number of isolated points, and by performing this correction, the compression rate of the character image is improved, and the image and the character non-character are less mixed, so that the image quality can be improved.

文字判定部609で、黒文字判定結果を文字判定結果から除外しているのは、黒文字については、別途判定結果を出力するため、圧縮率を向上されるために文字画像を固定値にするためである。   The reason why the character determination unit 609 excludes the black character determination result from the character determination result is that the determination result is output separately for black characters, and the character image is set to a fixed value in order to improve the compression rate. is there.

黒文字判定部611は、黒文字領域であるか否かを判定する。図11は、黒文字判定部611の構成を示すブロック図である。図11に示すように、黒文字判定部611は、文字判定部1101と、3ラインOR部1102と、絵柄判定部1103と、黒判定部1104と、第1抽出部1105、第2抽出部1106と、第1ミラー1107と、第2ミラー1108と、判定部1109とから構成される。   The black character determination unit 611 determines whether the area is a black character area. FIG. 11 is a block diagram illustrating a configuration of the black character determination unit 611. As illustrated in FIG. 11, the black character determination unit 611 includes a character determination unit 1101, a 3-line OR unit 1102, a pattern determination unit 1103, a black determination unit 1104, a first extraction unit 1105, and a second extraction unit 1106. , First mirror 1107, second mirror 1108, and determination unit 1109.

文字判定部1101は、前段の領域抽出部121の出力結果である文字エッジ領域結果と色判定結果の論理演算をとり、文字エッジ領域であって、色領域でなければ、黒文字エッジ領域をして出力する。   The character determination unit 1101 performs a logical operation of the character edge region result and the color determination result, which are output results of the region extraction unit 121 in the previous stage, and performs a black character edge region if the character edge region is not a color region. Output.

3ラインOR部1102は、文字判定の結果である黒文字エッジの3ライン×1画素のORをとる。本来は、この3ラインORではなく、第1抽出部1105による抽出後に2ライン遅延を行って第2抽出部1106による抽出とライン遅延をあわせる必要があるが、第1抽出部1105の後でライン遅延をすると画像データを遅延する必要が出てくるため、ここで3ラインORをとることで、ライン遅延を吸収している。   The 3-line OR unit 1102 takes an OR of 3 lines × 1 pixel of a black character edge as a result of character determination. Originally, instead of this three-line OR, it is necessary to delay the two lines after the extraction by the first extraction unit 1105 to match the extraction by the second extraction unit 1106 with the line delay, but the line after the first extraction unit 1105 When the delay occurs, it becomes necessary to delay the image data. Therefore, the line delay is absorbed by taking the 3-line OR here.

絵柄判定部1103は、前段の領域抽出部121の出力結果である色判定結果、第1グレー検出部607の結果、第2グレー検出部608の結果、第1網点検出部605の結果、第2網点検出部606の結果のどこかは1つでも“on”ならば、絵柄と判定する。   The pattern determination unit 1103 includes a color determination result that is an output result of the preceding region extraction unit 121, a result of the first gray detection unit 607, a result of the second gray detection unit 608, a result of the first halftone detection unit 605, If any one of the results of the two-dot detection unit 606 is “on”, it is determined as a picture.

黒判定部1104は、前段の領域抽出部121の出力結果である色判定結果が白黒以外の色ではなく、かつN値化で黒(Bkまたは、濃い黒)と判定された場合に、黒と判定する。   When the color determination result, which is the output result of the previous region extraction unit 121, is not a color other than black and white and is determined to be black (Bk or dark black) by N-value conversion, the black determination unit 1104 judge.

第1抽出部1105は、文字判定部1101、3ラインOR部1102及び絵柄判定部1103の判定結果から、各画素について絵柄領域、中間領域又は黒文字領域なのか判定する。なお、詳細な処理フローについては後述する。   The first extraction unit 1105 determines whether each pixel is a pattern region, an intermediate region, or a black character region based on the determination results of the character determination unit 1101, the 3-line OR unit 1102, and the pattern determination unit 1103. A detailed processing flow will be described later.

第1ミラー1107は、逆象(ミラー)画像を生成する。第2抽出部1106は、逆像(ミラー)画像で黒文字判定をする。第2ミラー1108は、逆象(ミラー)画像を元に戻す。これは、逆像での処理をパイプライン処理で実現するために、第2抽出部1106の前後でミラー処理をしている。なお、第2抽出部1106が行う処理は、第1抽出部1105と同一なので説明は省略する。   The first mirror 1107 generates a reverse elephant (mirror) image. The second extraction unit 1106 performs black character determination using a reverse image (mirror) image. The second mirror 1108 restores the reverse image (mirror). In this case, mirror processing is performed before and after the second extraction unit 1106 in order to realize processing with an inverse image by pipeline processing. Note that the processing performed by the second extraction unit 1106 is the same as that of the first extraction unit 1105, and a description thereof will be omitted.

判定部1109は、第1抽出部1105と、第2抽出部1106の後の第2ミラー1108からの出力がともに黒文字領域で、かつ孤立点除去部603による処理結果の後の出力が文字ならば、黒文字と判定する。   If the outputs from the first extraction unit 1105 and the second mirror 1108 after the second extraction unit 1106 are both black character areas and the output after the processing result by the isolated point removal unit 603 is a character, the determination unit 1109 Judged as black characters.

このように、周辺画素の画像の状態を参照し、黒文字であるか否か判定することで、大きさ画像領域の文字のなかを判定することができる。   Thus, by referring to the state of the image of the surrounding pixels and determining whether or not the character is a black character, it is possible to determine whether the character is in the size image area.

本実施の形態では、文字エッジ領域と色領域とに基づいて、色や網点などを検出するため、精度よく検出できる。また、黒文字判定の濃度情報として、平滑化後のデータを用いるのは、網点で構成された文字に対しては、網点領域が少なく文字エッジ領域として判定されない場合もあるため、網点情報ではなく、平滑フィルタ処理後(文字エッジ領域でないので平滑化される)のデータを用いて、色が濃い領域のみを文字のなかとして判定している。また、新聞の写真の様にスクリーン線数の低い網点は、平滑化しても網点形状が残るので網点を検出し、カタログなどの一般的な原稿にあるスクリーン線数の高い網点は、平滑化されるため網点形状は無くなるので、網点面積率が30%から60%程度の領域は、グレー領域として検出される。   In the present embodiment, since the color, halftone dot, and the like are detected based on the character edge region and the color region, it can be detected with high accuracy. In addition, the smoothed data is used as the density information for black character determination because the halftone dot area is small for a character composed of halftone dots and may not be determined as a character edge area. Instead, using data after smoothing filter processing (smoothed because it is not a character edge region), only a dark region is determined as a character. In addition, halftone dots with low screen lines, such as newspaper photos, remain halftone even after smoothing, so halftone dots are detected, and halftone dots with high screen lines in general manuscripts such as catalogs are not Since the halftone dot shape disappears because it is smoothed, a region having a halftone dot area ratio of about 30% to 60% is detected as a gray region.

ところで、文字の先端部は幅が狭いので網点(非文字領域)となりにくく、例えば先端が文字エッジ領域で文字の中央部が網点と判定されると黒文字判定が中途半端な結果となり、見苦しくなる。そこで、本実施の形態にかかる複合機100では、上述した処理を行うことで、見苦しくなるのを避けることができる。   By the way, since the leading end of the character is narrow, it is difficult to form a halftone dot (non-character region). For example, if the leading end is a character edge region and the center of the character is determined to be a halftone dot, the black character determination is halfway and unsightly. Become. Therefore, in the MFP 100 according to the present embodiment, it is possible to avoid being unsightly by performing the above-described processing.

図5に戻り、二値画像生成部512は、二値画像+マスク画像に対して、可逆変換であるMMR圧縮を行う。黒画像生成部513は、黒文字画像に対して、可逆変換であるMMR圧縮を行う。   Returning to FIG. 5, the binary image generation unit 512 performs MMR compression, which is reversible conversion, on the binary image + mask image. The black image generation unit 513 performs MMR compression that is reversible conversion on the black character image.

図12は、出力フォーマット変換部133で変換される画像データの概念を示した図である。図12に示すように、入力された画像データ201から、二値化部511で黒文字画像と、マスク画像と、二値画像とが、生成される。   FIG. 12 is a diagram illustrating the concept of image data converted by the output format conversion unit 133. As shown in FIG. 12, a black character image, a mask image, and a binary image are generated by the binarization unit 511 from the input image data 201.

第1解像度変換部514及び、第2解像度変換部515は、画像データに対して解像度変換を行い、解像度が低い画像データ(例えば150dpi)を生成する。   The first resolution conversion unit 514 and the second resolution conversion unit 515 perform resolution conversion on the image data, and generate image data with a low resolution (for example, 150 dpi).

背景画像生成部516は、二値化部511により出力された二値画像であって、マスク画像によるマスクが掛けられていない、画像データで白に相当する一定の画素値で構成される領域の画像データとして、非可逆圧縮(例えばJPG圧縮)を行う。   The background image generation unit 516 is a binary image output from the binarization unit 511, and is an image region that is not masked by the mask image and that is configured with constant pixel values corresponding to white in the image data. As image data, lossy compression (for example, JPG compression) is performed.

文字画像生成部517は、二値画像以外の画像データを一定の画素値の画像データとして、非可逆圧縮(例えばJPG圧縮)を行う。   The character image generation unit 517 performs irreversible compression (for example, JPG compression) using image data other than the binary image as image data having a fixed pixel value.

本実施の形態おいて、背景画像を一定の画素値のデータにするのは、圧縮率を向上させるためである。また、文字画像データおいて、背景領域を一定の画素値にするのも、圧縮率の向上させるためである。   In the present embodiment, the reason why the background image is data having a constant pixel value is to improve the compression rate. In addition, the reason why the background area is set to a constant pixel value in the character image data is to improve the compression rate.

解像度変換部502が行う解像度変換において、文字画像は、背景画像ほど解像度が必要ではない。このため、文字画像の解像度を75dpi程度としてもよい。また、画像処理モードが文字モードである場合、解像度変換部502は、背景画像と文字画像とを解像度75dpiでJPG形式の画像ファイルを生成する。文字に関して解像度を低下させるのは、文字の解像度を、可逆圧縮MMRを用いて解像度で保証されているため、JPG画像の解像度を低下させて階調劣化させても問題とならないためである。本実施の形態にかかる複合機100では、文字画像の解像度を低下させることで、ファイルサイズを小さくすることが可能になる。なお、本実施の形態では、文字画像の解像度を低下させてファイルサイズを小さくしたが、画像データの階調数など(解像度以外の)画像品質を低下させて、ファイルサイズを小さくしてもよい。   In the resolution conversion performed by the resolution conversion unit 502, the character image does not require the same resolution as the background image. For this reason, the resolution of the character image may be about 75 dpi. When the image processing mode is the character mode, the resolution conversion unit 502 generates a JPG format image file with a resolution of 75 dpi for the background image and the character image. The reason why the resolution is reduced with respect to characters is that the resolution of the characters is guaranteed by the reversible compression MMR, so that it does not matter if the resolution of the JPG image is lowered to deteriorate the gradation. In the MFP 100 according to the present embodiment, the file size can be reduced by reducing the resolution of the character image. In this embodiment, the file size is reduced by reducing the resolution of the character image. However, the file size may be reduced by reducing the image quality (other than the resolution) such as the number of gradations of the image data. .

また、HDD106に蓄積された画像データとともに、書誌情報として画像処理モードが格納されている。この画像処理モードが、文字モードの場合に、蓄積された画像データについて、文字として抽出された領域全てについて圧縮率を高くすることができる。   In addition to the image data stored in the HDD 106, an image processing mode is stored as bibliographic information. When the image processing mode is the character mode, it is possible to increase the compression rate for all the regions extracted as characters in the accumulated image data.

本実施の形態においては、蓄積された画像データに対して、マスク画像を重畳することで背景画像を、二値画像を重畳することで文字画像を生成できる。この生成された文字画像及び背景画像の間には、同じ情報が含まれていることもある。このように、文字画像と背景画像とによる構成が冗長なのは、入力フォーマット変換部135が画像分離モードに従って、処理を切り換えるために必要だからとする。   In the present embodiment, a background image can be generated by superimposing a mask image on a stored image data, and a character image can be generated by superimposing a binary image. The same information may be included between the generated character image and background image. As described above, the reason why the configuration of the character image and the background image is redundant is that it is necessary for the input format conversion unit 135 to switch processing according to the image separation mode.

背景画像生成部516、及び文字画像生成部517のJPG圧縮は、それぞれ異なる特性の量子化テーブルを用いて圧縮を行なうものとする。なお、JPG圧縮は、既存の技術を用いれば良く、例えば、特開2005−303979号公報に記載されているように行ってもよい。   The JPG compression of the background image generation unit 516 and the character image generation unit 517 is performed using a quantization table having different characteristics. Note that JPG compression may be performed using an existing technique, and may be performed as described in, for example, Japanese Patent Application Laid-Open No. 2005-303979.

背景画像生成部516、及び文字画像生成部517のJPG圧縮は、画像データをブロック単位(例えば、8×8画素単位)で切り出した後、切り出されたDCTブロックデータに対して離散コサイン変換を行い周波数空間へ変換する。   In the JPG compression of the background image generation unit 516 and the character image generation unit 517, after the image data is cut out in block units (for example, 8 × 8 pixel units), discrete cosine transform is performed on the cut out DCT block data. Convert to frequency space.

この際に、圧縮レベルを左右する量子化処理においては、Y成分とCbCr成分で異なる基準量子化テーブルを用いて量子化処理を行う。   At this time, in the quantization process that affects the compression level, the quantization process is performed using different reference quantization tables for the Y component and the CbCr component.

基準量子化テーブル値Qijに対して、実際に量子化で使う量子化テーブル値Q’ij
は、クオリティファクター(qf)を用いて算出される。なお、qfは、0〜100の間の値とする。そして、qfが50より小さい場合の場合、式(1)で算出する。
Q’ij = Qij ÷ qf……(1)
また、qfが50以上の場合、式(2)で算出する。
Q’ij = Qij ×(100−qf)÷50……(2)
The quantization table value Q′ij that is actually used for quantization with respect to the reference quantization table value Qij
Is calculated using the quality factor (qf). Note that qf is a value between 0 and 100. And when qf is smaller than 50, it calculates by Formula (1).
Q′ij = Qij ÷ qf (1)
Further, when qf is 50 or more, it is calculated by the equation (2).
Q′ij = Qij × (100−qf) ÷ 50 (2)

ところで、一般的な基準量子化テーブルは、人間の視覚は低周波には敏感で、高周波には鈍感であるという性質に基づいて作成されている。さらに、一般的な量子化テーブルにおいて、色情報が輝度情報より識別能力が低いため、輝度情報用より周波数をカットする量を多くしている。   By the way, a general reference quantization table is created based on the property that human vision is sensitive to low frequencies and insensitive to high frequencies. Furthermore, in a general quantization table, since the color information has a lower discriminating ability than the luminance information, the frequency cut amount is larger than that for the luminance information.

これに対し、本実施の形態にかかる背景画像生成部516は、量子化処理を行う際に、qf=20〜30程度で画像データを圧縮する。このため、一般的な量子化テーブルを使用するとブロックノイズが発生しやすくなる。特にJPGの基本単位(8×8)のブロックノイズは、ブロック内の平均濃度をあらわすDC成分の値に大きく影響を受ける。このJPGの基本単位のブロックノイズを低減するために、図13に示すような、輝度差及び色差ともにDC成分を保存した基準量子化テーブルを用いる。そして、qf=25を設定する場合、式(1)と図13に示す基準量子化テーブルにより、図14に示す量子化テーブルが算出される。そこで、背景画像生成部516は、図14に示された量子化テーブルを用いて、量子化処理を行う。   On the other hand, the background image generation unit 516 according to the present embodiment compresses image data at about qf = 20 to 30 when performing the quantization process. For this reason, if a general quantization table is used, block noise is likely to occur. In particular, the block noise of the basic unit (8 × 8) of JPG is greatly influenced by the value of the DC component representing the average density in the block. In order to reduce the block noise of the basic unit of JPG, a reference quantization table storing DC components for both luminance difference and color difference as shown in FIG. 13 is used. When qf = 25 is set, the quantization table shown in FIG. 14 is calculated from the equation (1) and the reference quantization table shown in FIG. Therefore, the background image generation unit 516 performs a quantization process using the quantization table shown in FIG.

文字画像生成部517が、一般的な基準量子化テーブルでJPG圧縮を行うと混色が発生する場合がある。例えば、図15に示すような、複数の色(赤、青)が存在している8×8のブロックに対して、一般的な基準量子化テーブルでJPG圧縮を行なうと、高周波数成分をカットしているため折り返し歪みの影響のため、赤と青との間で混色が生じる。この問題を回避するために、文字画像生成部517は、図16に示す基準量子化テーブルを使用する。図16に示す基準量子化テーブルは、色差成分の全体の周波数を保存するような色差成分を保存した基準量子化テーブルとする。そして、図16に示す基準量子化テーブルと、qf=20の値により、図17に示す量子化テーブルが算出される。この量子化テーブルにおける輝度成分は、上述したように文字の解像度にMMRの解像度で決定されるため、さほど重要ではない。そして、文字画像生成部517は、図17に示す量子化テーブルを用いて、量子化処理を行う。   When the character image generation unit 517 performs JPG compression using a general reference quantization table, color mixing may occur. For example, when JPG compression is performed using a general reference quantization table on an 8 × 8 block in which a plurality of colors (red, blue) exist as shown in FIG. 15, high frequency components are cut. Therefore, color mixing occurs between red and blue due to the effect of aliasing distortion. In order to avoid this problem, the character image generation unit 517 uses the reference quantization table shown in FIG. The reference quantization table shown in FIG. 16 is a reference quantization table that stores color difference components that store the entire frequency of the color difference components. Then, the quantization table shown in FIG. 17 is calculated based on the reference quantization table shown in FIG. 16 and the value of qf = 20. The luminance component in this quantization table is not so important because it is determined by the MMR resolution as the character resolution as described above. Then, the character image generation unit 517 performs quantization processing using the quantization table shown in FIG.

つまり、背景画像の量子化テーブルは、輝度差及び色差ともにDC成分を保存する量子化テーブルを使用して、画像の滑らかな部分のブロックノイズを軽減している。そして、文字画像の色差成分を保存した量子化テーブルは、背景画像の輝度を保存した量子化テーブル等と比べて、高周波を保存する量子化テーブルを使用して、8×8内のブロックの混色を抑止している。   That is, the quantization table of the background image uses a quantization table that stores the DC component for both the luminance difference and the color difference, thereby reducing block noise in a smooth portion of the image. The quantization table that stores the color difference component of the character image uses a quantization table that stores high frequencies as compared to the quantization table that stores the luminance of the background image. Is suppressed.

換言すれば、図18に示す関係にあることを示している。すなわち、文字画像の量子化テーブルにおいては、輝度及び色差ともに、DC成分を重視し、背景画像の量子化テーブルにおいては、輝度については標準で、色差については周波数重視とする。   In other words, the relationship shown in FIG. That is, in the quantization table for character images, both the luminance and the color difference are emphasized on the DC component, and in the quantization table for the background image, the luminance is standard and the color difference is emphasized on the frequency.

画像ファイル合成部518は、二値画像生成部512の出力(MMR)、黒画像生成部513の出力(MMR)、背景画像生成部516の出力(jpg)、文字画像生成部517の出力(jpg)の4つの画像データを合成し、1つの画像データを生成する。このときのファイル形式は、汎用フォーマット(PDFファイルなど)を用いてもよい。また、画像ファイル合成部518は、入力フォーマット変換部135に受け渡す場合、4つの画像データそれぞれを出力しても良い。   The image file composition unit 518 outputs the binary image generation unit 512 (MMR), the black image generation unit 513 (MMR), the background image generation unit 516 (jpg), and the character image generation unit 517 (jpg). ) Are combined to generate one image data. A general-purpose format (such as a PDF file) may be used as the file format at this time. In addition, the image file composition unit 518 may output each of the four image data when the image file composition unit 518 delivers the image data to the input format conversion unit 135.

データi/f部506は、NIC105に出力すべきフォーマットの画像データを出力、又は入力フォーマット変換部135に出力すべき4つの画像データを出力する。   The data i / f unit 506 outputs image data in a format to be output to the NIC 105 or outputs four image data to be output to the input format conversion unit 135.

図1に戻り、データi/f部134では、出力フォーマット変換部133から入力された画像データをNIC105又は入力フォーマット変換部135に出力する。   Returning to FIG. 1, the data i / f unit 134 outputs the image data input from the output format conversion unit 133 to the NIC 105 or the input format conversion unit 135.

入力フォーマット変換部135は、画像データを任意のフォーマット形式に変換して出力する。   The input format conversion unit 135 converts the image data into an arbitrary format and outputs it.

図19は、入力フォーマット変換部135の構成を示すブロック図である。図19に示すように、入力フォーマット変換部135は、TIFフォーマット展開部1801と、JPGフォーマット展開部1802と、圧縮フォーマット展開部1803と、出力選択部1804とを備える。   FIG. 19 is a block diagram showing the configuration of the input format conversion unit 135. As shown in FIG. 19, the input format conversion unit 135 includes a TIF format expansion unit 1801, a JPG format expansion unit 1802, a compression format expansion unit 1803, and an output selection unit 1804.

TIFフォーマット展開部1801、JPGフォーマット展開部1802、圧縮フォーマット展開部1803は、各フォーマットのbitマップに展開する。   The TIF format expansion unit 1801, the JPG format expansion unit 1802, and the compression format expansion unit 1803 expand the bit map of each format.

出力選択部は3つのフォーマットのうち、一つのフォーマットを選択して出力と同時にRGBデータをYMCBkにデータを変換する。   The output selection unit selects one of the three formats and simultaneously converts the RGB data into YMCBk.

例えば、入力画像データがTIFフォーマットであれば、TIFフォーマット展開部1801がビットマップデータに展開する。JPGフォーマットであれば、JPGフォーマット展開部1802が、ビットマップデータに展開する。さらに、圧縮フォーマットであれば、圧縮フォーマット展開部1803が展開する。   For example, if the input image data is in the TIF format, the TIF format expansion unit 1801 expands it into bitmap data. In the case of the JPG format, the JPG format expansion unit 1802 expands the bitmap data. Furthermore, if it is a compression format, the compression format expansion unit 1803 expands it.

圧縮フォーマット展開部1803は、画像ファイル展開部1811、黒画像展開部1812と、二値画像展開部1813と、背景画像展開部1814と、文字画像展開部1815と、画像ファイル合成部1816と、合成選択部1817から構成される。この圧縮フォーマット展開部1803は、出力フォーマット変換部133から入力された4つの画像データを用いて処理を行う。   The compression format developing unit 1803 includes an image file developing unit 1811, a black image developing unit 1812, a binary image developing unit 1813, a background image developing unit 1814, a character image developing unit 1815, and an image file combining unit 1816. A selection unit 1817 is included. The compression format expansion unit 1803 performs processing using the four image data input from the output format conversion unit 133.

画像ファイル展開部1811は、図5に示す圧縮フォーマット生成部505により生成されたファイルの中の4つファイルを、黒画像展開部1812、二値画像展開部1813、背景画像展開部1814、文字画像展開部1815にそれぞれ対応した画像データとして出力する。   The image file development unit 1811 converts four files among the files generated by the compression format generation unit 505 shown in FIG. 5 into a black image development unit 1812, a binary image development unit 1813, a background image development unit 1814, a character image, and so on. The image data is output as image data corresponding to the expansion unit 1815.

二値画像展開部1813は、MMRを伸張してビットマップに二値画像とマスク画像とを展開する。   A binary image developing unit 1813 expands the MMR to expand the binary image and the mask image into a bitmap.

黒画像展開部1812は、MMRを伸張してビットマップに黒文字画像を展開する。   The black image developing unit 1812 expands the MMR and develops a black character image into a bitmap.

背景画像展開部1814は、JPG形式の背景画像をビットマップに展開する。文字画像展開部1815は、文字画像のJPGをビットマップに展開する。   The background image development unit 1814 develops a JPG background image into a bitmap. The character image expansion unit 1815 expands the character image JPG into a bitmap.

合成選択部1817は、デバイスi/f部136により入力された画像分離モードに従って、展開、合成手法を選択する。   The composition selection unit 1817 selects a development and composition method according to the image separation mode input by the device i / f unit 136.

画像ファイル合成部1816は、合成選択部1817で選択された合成手法に従って、展開された4つのビットマップデータから、1枚のビットマップデータを合成する。   The image file composition unit 1816 synthesizes one piece of bitmap data from the four developed bitmap data according to the composition method selected by the composition selection unit 1817.

合成選択部1817が、画像分離モードとして、標準モードを選択した場合、二値画像展開部1813が、二値画像ありでかつマスク画像なしの時に、補正二値画像を出力する。そして、画像ファイル合成部1816は、補正二値画像が入力された場合に、文字画像展開部1815の出力結果である画像データの画素を出力する。また、画像ファイル合成部1816は、二値画像展開部1813の出力が補正二値画像でなければ、背景画像展開部1814の出力結果である画像データの画素を出力する。さらに、黒画像展開部1812の出力結果が黒文字であれば、画像データの画素として黒画素を出力する。出力された画素により、1枚の画像データが生成される。なお、文字と非文字の解像度は二値画像の解像度となる。   When the composition selection unit 1817 selects the standard mode as the image separation mode, the binary image development unit 1813 outputs a corrected binary image when there is a binary image and no mask image. Then, when the corrected binary image is input, the image file composition unit 1816 outputs the pixel of the image data that is the output result of the character image development unit 1815. Also, the image file composition unit 1816 outputs the pixel of the image data that is the output result of the background image development unit 1814 if the output of the binary image development unit 1813 is not a corrected binary image. Further, if the output result of the black image development unit 1812 is a black character, a black pixel is output as a pixel of the image data. One piece of image data is generated from the output pixels. Note that the resolution of characters and non-characters is the resolution of the binary image.

一方、合成選択部1817が、画像分離モードとして、文字モードを選択した場合、二値画像展開部1813が、二値画像ありの時に、補正二値画像を出力する。そして、画像ファイル合成部1816は、補正二値画像が入力された場合に、文字画像展開部1815の出力結果である画像データの画素を出力する。また、画像ファイル合成部1816は、二値画像展開部1813の出力が補正二値画像でなければ、背景画像展開部1814の出力結果である画像データの画素を出力する。この際、補正二値画像とマスク画像との境界のマスク画像(背景画像)の方には、文字画像の情報がある(画像圧縮により背景画像上の文字の情報が混ざっている)ので、境界領域を周辺画像の画像に置換する。さらに、黒画像展開部1812の出力結果が黒文字であれば、画像データの画素として黒画素を出力する。出力された画素により、1枚の画像データが生成される。なお、文字と非文字の解像度は二値画像の解像度となる。   On the other hand, when the composition selection unit 1817 selects the character mode as the image separation mode, the binary image development unit 1813 outputs a corrected binary image when there is a binary image. Then, when the corrected binary image is input, the image file composition unit 1816 outputs the pixel of the image data that is the output result of the character image development unit 1815. Also, the image file composition unit 1816 outputs the pixel of the image data that is the output result of the background image development unit 1814 if the output of the binary image development unit 1813 is not a corrected binary image. At this time, the mask image (background image) at the boundary between the corrected binary image and the mask image has character image information (character information on the background image is mixed by image compression). Replace the region with the image of the surrounding image. Further, if the output result of the black image development unit 1812 is a black character, a black pixel is output as a pixel of the image data. One piece of image data is generated from the output pixels. Note that the resolution of characters and non-characters is the resolution of the binary image.

図12に示す説明図において、画像分離モードが標準モードの場合、“新発売”の文字が絵柄として判定されてしまうので、小さな文字である時に読みにくくなる可能性がある。これに対し、画像分離モードが文字モードの場合、“新発売”の文字が文字として判定されるので、文字として適切な処理が行われ、文字の判読性が向上する。   In the explanatory diagram shown in FIG. 12, when the image separation mode is the standard mode, the character “newly released” is determined as a design, so that it may be difficult to read when the character is small. On the other hand, when the image separation mode is the character mode, the “newly released” character is determined as a character, so that an appropriate process is performed as the character, and the character readability is improved.

このように、利用者により選択された画像分離モードと、画像データにおける各領域の判定結果と、に基づいて、画像データを生成することで、利用者の好みに応じた画像データを生成することが可能となる。なお、当該画像データの生成は、紙に印刷する場合に限らず、モニタ表示する場合にも適用できる。   Thus, by generating image data based on the image separation mode selected by the user and the determination result of each area in the image data, it is possible to generate image data according to the user's preference. Is possible. Note that the generation of the image data is applicable not only when printing on paper but also when displaying on a monitor.

そして、生成された画像データは、圧縮伸張処理部132により圧縮された後、各信号と共に対応付けてHDD106に格納しても良いし、各信号と共に汎用バスを介して伸張処理部107に出力し、印刷処理を行ってもよい。   The generated image data may be compressed by the compression / decompression processing unit 132 and stored in the HDD 106 in association with each signal, or output to the expansion processing unit 107 together with each signal via a general-purpose bus. The printing process may be performed.

図1に戻り、コントローラ104は、HDD106の画像データを、汎用バスを介して伸張処理部107に送出する。   Returning to FIG. 1, the controller 104 sends the image data of the HDD 106 to the decompression processing unit 107 via the general-purpose bus.

伸張処理部107は、圧縮処理されていた画像データを元のRGB各8bitデータ、文字分離信号(2bit)、及び色領域信号(1bit)に伸張し、プリンタ補正部108に送出する。伸張処理部107に格納される画像データは、HDD106に格納されている領域毎に抽出された画像データでも良いし、入力フォーマット変換部135ですでに合成された画像データでもよい。以下に示す説明では、主にHDD106に格納されている領域毎に抽出された画像データが入力された場合について説明する。   The decompression processing unit 107 decompresses the compressed image data into the original RGB 8-bit data, the character separation signal (2 bits), and the color area signal (1 bit), and sends them to the printer correction unit 108. The image data stored in the decompression processing unit 107 may be image data extracted for each area stored in the HDD 106 or image data already synthesized by the input format conversion unit 135. In the following description, a case where image data extracted for each area stored in the HDD 106 is input will be described.

プリンタ補正部108は、中間調処理部141と、プリンタγ部142と、色補正処理部143と、エッジ量検出部144と、基準記憶部145と、特定部146とを備え、画像データの補正処理を行う。   The printer correction unit 108 includes a halftone processing unit 141, a printer γ unit 142, a color correction processing unit 143, an edge amount detection unit 144, a reference storage unit 145, and a specifying unit 146, and corrects image data. Process.

基準記憶部145は、画像分離モードに従って、文字分離信号(文字エッジ(エッジ領域)であるか否かを示す情報(1bit)、及び絵柄領域であるか否かを示す情報(1bit)を含む)及び色領域信号(色領域であるか否か)から、文字エッジ領域信号(“あり”又は“なし”)に変換する基準を保持する。   In accordance with the image separation mode, the reference storage unit 145 includes a character separation signal (including information (1 bit) indicating whether or not a character edge (edge region) and information (1 bit) indicating whether or not a character region) And a reference for converting from a color area signal (whether or not it is a color area) into a character edge area signal (“present” or “none”).

図20は、基準記憶部145が記憶する、画像分離モードが標準モードの場合の各信号の対応関係を示す図である。例えば、レコード1901は、標準モードの場合、エッジ領域であり(エッジ領域が“ある”)、絵柄領域である(絵柄領域が“ある”)場合、色領域に関係なく、その他(絵柄)領域であると判断され、文字エッジ領域信号が“なし”になることを示している。   FIG. 20 is a diagram illustrating a correspondence relationship of each signal stored in the reference storage unit 145 when the image separation mode is the standard mode. For example, in the case of the standard mode, the record 1901 is an edge area (the edge area is “present”), and is a picture area (the picture area is “present”). This indicates that the character edge area signal is “none”.

図21は、基準記憶部145が記憶する、画像分離モードが文字モードの場合の各信号の対応関係を示す図である。例えば、レコード2001は、文字モードの場合、エッジ領域であり(エッジ領域が“ある”)、絵柄領域である(絵柄領域が“ある”)場合、色領域にかかわらず、色文字エッジ領域であると判断され、文字エッジ領域信号は“あり”になることを示している。   FIG. 21 is a diagram illustrating a correspondence relationship of each signal stored in the reference storage unit 145 when the image separation mode is the character mode. For example, in the case of the character mode, the record 2001 is an edge region (the edge region is “present”), and when it is a design region (the design region is “present”), it is a color character edge region regardless of the color region. It is determined that the character edge area signal is “present”.

このように、本実施の形態においては、エッジ領域が“ある”及び絵柄領域が“ある”の領域において、文字を優先する時は、エッジ領域とし特定され、絵柄を優先する時は、絵柄領域として特定される。   As described above, in the present embodiment, in the area where the edge area is “present” and the pattern area is “present”, the character area is specified as the edge area, and the pattern area is specified when priority is given to the pattern. Identified as

特定部146は、基準記憶部145に記憶された対応関係及び、利用者に入力された画像分離モードに従って、文字分離信号(2bit)を、文字エッジ領域信号(1bit)に変換する。つまり、特定部146は、変換された文字エッジ領域信号(1bit)により、各領域が文字領域か否かを特定したことになる。   The specifying unit 146 converts the character separation signal (2 bits) into a character edge region signal (1 bit) according to the correspondence relationship stored in the reference storage unit 145 and the image separation mode input by the user. That is, the specifying unit 146 specifies whether each area is a character area based on the converted character edge area signal (1 bit).

色補正処理部143は、RGB画像データをYMCBkデータに変換すると共に、文字エッジ領域信号で“あり”及び色領域信号で“ない”領域に対して、黒文字としてBkの単色データに置換する。   The color correction processing unit 143 converts the RGB image data into YMCBk data and replaces the “existing” character edge region signal and the “not” color region signal with black color Bk monochromatic data.

具体的には、色補正処理部143は、黒文字エッジ領域以外では、RGB画像データを一次の濃度マスキング法等でCMYデータに変換する。その後、色補正処理部143は、画像データの色再現を向上させるために、C,M,Yデータの共通部分をUCR(下色除去)処理してBkデータを生成し、CMYBkデータを出力する。   Specifically, the color correction processing unit 143 converts the RGB image data into CMY data by a primary density masking method or the like except for the black character edge region. Thereafter, in order to improve color reproduction of the image data, the color correction processing unit 143 generates Bk data by performing UCR (under color removal) processing on the common part of the C, M, and Y data, and outputs the CMYBk data. .

また、色補正処理部143は、黒文字エッジ領域において、スキャナのRGB読み取り位置ずれで原稿の黒文字が色付いたり、プロッタのYMCBkのプリンタする時の重ね位置ずれがあると判読性が低下するため、黒文字エッジ領域のみ輝度に相当する信号でBk単色データ(C,M,Yは、プリントアウトしてないデータ)として出力する。   Further, the color correction processing unit 143 reduces the readability when the black character of the original is colored due to the RGB reading position deviation of the scanner in the black character edge region, or when there is an overlay position deviation when printing the YMCBk of the plotter. A signal corresponding to luminance only in the edge region is output as Bk single color data (C, M, and Y are unprinted data).

プリンタγ部142は、画像データに対して、特定部146により変換された文字エッジ領域信号(換言すれば、エッジ領域であるか否か)、及びプロッタのγ特性に応じてγ補正処理を行う。本実施の形態にかかるプリンタγ部142は、γ特性に応じて、色文字エッジ領域と黒文字エッジ領域ではコントラスとを強調させたγを選択して、その他(絵柄)では、入力に忠実なγを選択する。そして、選択したγ特性を用いてγ補正処理を行うことになる。   The printer γ unit 142 performs γ correction processing on the image data in accordance with the character edge region signal (in other words, whether the region is an edge region) converted by the specifying unit 146 and the γ characteristic of the plotter. . The printer γ unit 142 according to the present embodiment selects γ with the contrast enhanced in the color character edge region and the black character edge region according to the γ characteristic, and in other cases (pattern), the γ is faithful to the input. Select. Then, γ correction processing is performed using the selected γ characteristic.

このように、本実施の形態においては、エッジ領域と判定された場合にはコントラスト強調処理を行い、絵柄と判定された場合には、忠実なγ特性によるγ補正処理を行うこととしている。   As described above, in this embodiment, the contrast enhancement process is performed when the edge region is determined, and the γ correction process based on the faithful γ characteristic is performed when the edge region is determined.

なお、本実施の形態では、特定部511により特定された各領域の種別に応じてγ補正処理を異ならせる例について説明したが、γ補正に制限するものではなく、画像処理であればよい。   In the present embodiment, the example in which the γ correction processing is changed according to the type of each area specified by the specifying unit 511 has been described. However, the image processing is not limited to γ correction.

エッジ量検出部144は、画像データ内の急峻な濃度変化をエッジ量として検出する。   The edge amount detection unit 144 detects a steep density change in the image data as an edge amount.

中間調処理部141は、画像データに対して、ディザ処理・誤差拡散処理などの量子化を行い、階調補正を行う。このように、プロッタ109の明暗特性に基づく補正処理や階調変換処理を行う。ここでの階調変換処理は、誤差拡散やディザ処理を用いて各色8bitから2bitへと画像データの変換を行う。   The halftone processing unit 141 performs tone correction on the image data by performing quantization such as dither processing and error diffusion processing. In this way, correction processing and gradation conversion processing based on the light / dark characteristics of the plotter 109 are performed. In this gradation conversion process, image data is converted from 8-bit to 2-bit for each color using error diffusion or dither processing.

本実施の形態にかかる中間調処理部141は、利用者により入力された画像処理モードに従って、プロッタの階調特性やエッジ量に応じてディザ処理等の量子化を行う。量子化処理をする際に色文字エッジ領域と黒文字エッジ領域では、鮮鋭性を重視して解像力を重視した量子化処理を行い、その他(絵柄)では、階調性を重視した量子化処理をする。これにより、文字の判読性が向上する。   The halftone processing unit 141 according to the present embodiment performs quantization such as dither processing according to the gradation characteristics and edge amount of the plotter according to the image processing mode input by the user. When performing quantization processing, the color character edge region and the black character edge region emphasize quantization and perform resolution processing with emphasis on resolving power, and the other (picture) perform quantization processing with emphasis on gradation. . This improves the legibility of the characters.

図22は、各画像処理モードで各領域において実行される処理内容を示した図である。図22に示すように、画像処理モードが、標準モード、文字モード又は写真モードに従って、各領域における処理内容が変化する。図22においては、フィールド2101、2102が、標準と異なるところである。   FIG. 22 is a diagram showing the processing contents executed in each area in each image processing mode. As shown in FIG. 22, the processing content in each region changes according to the image processing mode according to the standard mode, character mode, or photo mode. In FIG. 22, fields 2101 and 2102 are different from the standard.

図1に戻り、プロッタ109はレーザービーム書き込みプロセスを用いた転写紙印字ユニットで、2bitの画像データを感光体に潜像として描画し、トナーによる作像/転写処理後、転写紙にコピー画像を形成する。   Returning to FIG. 1, the plotter 109 is a transfer paper printing unit using a laser beam writing process, and draws 2-bit image data as a latent image on a photosensitive member. After image formation / transfer processing with toner, a copy image is printed on the transfer paper. Form.

NIC105は、外部PC端末130との間でデータの送受信を行う。送受信するデータとしては、画像データ等がある。   The NIC 105 transmits and receives data to and from the external PC terminal 130. Examples of data to be transmitted / received include image data.

ネットワークを介して外部PC端末130に画像データを配信する配信スキャナとして動作する場合は、画像データは汎用バスを通って、コントローラ104に送られる。コントローラ104では、色変換処理、フォーマット処理などを行う。階調処理では配信スキャナ動作時のモードに従った階調変換処理を行う。フォーマット処理では、JPEGやTIFF形式への汎用画像フォーマット変換などを行う。その後、画像データはNIC(ネットワーク・インタフェース・コントローラ)105を介して外部PC端末130に配信される。   When operating as a distribution scanner that distributes image data to the external PC terminal 130 via the network, the image data is sent to the controller 104 via a general-purpose bus. The controller 104 performs color conversion processing, formatting processing, and the like. In the gradation processing, gradation conversion processing is performed according to the mode during the distribution scanner operation. In the format process, general-purpose image format conversion to JPEG or TIFF format is performed. Thereafter, the image data is distributed to the external PC terminal 130 via the NIC (network interface controller) 105.

また、NIC105は、プリンタ補正部108で補正した画像データを、他のネットワークプリンタ等に送信する機能を備えている。つまり、プリンタ補正部108で生成された画像データが、図示しない通信路を介して、NIC105に送信されてきた場合、NIC105は、他の装置に対して画像データを送信する。   The NIC 105 has a function of transmitting the image data corrected by the printer correction unit 108 to another network printer or the like. That is, when the image data generated by the printer correction unit 108 is transmitted to the NIC 105 via a communication path (not shown), the NIC 105 transmits the image data to another device.

また、ネットワークを介して、外部PC端末130からプリントアウトするプリンタとして動作する場合、コントローラ104は、NIC105が受信したデータから、画像及びプリント指示するコマンドを解析し、画像データとして、印刷できる状態にビットマップ展開して、展開したデータを圧縮してデータを蓄積する。蓄積されたデータは随時大容量の記憶装置であるHDD106に書き込まれる。画像データを蓄積する時に、書誌情報もHDD106に書き込む。   Further, when operating as a printer that prints out from the external PC terminal 130 via the network, the controller 104 analyzes an image and a command for instructing printing from the data received by the NIC 105, and is ready to print as image data. Bitmap expansion is performed, and the expanded data is compressed to accumulate data. The accumulated data is written to the HDD 106 which is a large capacity storage device as needed. Bibliographic information is also written to the HDD 106 when image data is stored.

外部PC端末130からの画像データをプロッタに出力するデータの流れを説明する。外部PC端末130からから指示するコマンドは、図示せぬCPUがコマンドを解析し、ページメモリ131に書き込む。そして、データi/f部134が画像データを受信した場合、当該画像データを入力フォーマット変換部135に出力する。そして、入力フォーマット変換部135が、画像データをビットマップデータに展開して、圧縮伸張処理部132に圧縮を行い、ページメモリ131に書き込む。この後、HDD106に格納される。入力フォーマット変換部135が展開する画像は、JPGやTIFF等のフォーマット形式による自然画像データとする。   A data flow for outputting image data from the external PC terminal 130 to the plotter will be described. A command instructed from the external PC terminal 130 is analyzed by a CPU (not shown) and written in the page memory 131. When the data i / f unit 134 receives image data, it outputs the image data to the input format conversion unit 135. Then, the input format conversion unit 135 expands the image data into bitmap data, compresses the compressed data into the compression / decompression processing unit 132, and writes the compressed data into the page memory 131. Thereafter, it is stored in the HDD 106. The image developed by the input format conversion unit 135 is natural image data in a format format such as JPG or TIFF.

次にコントローラ104は、HDD106の画像データを、汎用バスを介して伸張処理部107に送出する。伸張処理部107は圧縮処理されていた画像データを元の8bitデータに伸張し、プリンタ補正部108に送出する。プリンタ補正部108では、RGB入力ならば、色補正処理部にてYMCBkデータに変換をする。次にYMCBkそれぞれ独立にγ補正処理、中間調処理などが行われ、プロッタの明暗特性の補正処理や階調数変換処理を行う。ここでの階調数変換処理では、誤差拡散やディザ処理を用いて8bitから2bitへと画像データの変換を行う。プロッタはレーザービーム書き込みプロセスを用いた転写紙印字ユニットで、2bitの画像データを感光体に潜像として描画し、トナーによる作像/転写処理後、転写紙にコピー画像を形成する。   Next, the controller 104 sends the image data of the HDD 106 to the decompression processing unit 107 via the general-purpose bus. The decompression processing unit 107 decompresses the compressed image data to the original 8-bit data and sends it to the printer correction unit 108. In the printer correction unit 108, if the input is RGB, the color correction processing unit converts it into YMCBk data. Next, γ correction processing, halftone processing, and the like are performed independently for each YMCBk, and the plotter brightness characteristic correction processing and the tone number conversion processing are performed. In the tone number conversion process here, image data is converted from 8 bits to 2 bits using error diffusion or dither processing. The plotter is a transfer paper printing unit using a laser beam writing process. It draws 2-bit image data as a latent image on a photoconductor, and forms a copy image on the transfer paper after image formation / transfer processing with toner.

複合機100においては、一般に原稿をスキャナにより読み取り、画像データをデジタルデータに変換するとともに、原稿の画像領域を、異なる特徴を有する領域に分類する。注目画素がそのいずれの領域に属するものか、判定された結果に従い、画像データに対して種々の画像処理を施す。これにより、出力画像の画像品質が大きく向上させられる。   In the multifunction device 100, a document is generally read by a scanner, image data is converted into digital data, and an image area of the document is classified into areas having different characteristics. Various image processing is performed on the image data according to the determination result as to which region the pixel of interest belongs to. This greatly improves the image quality of the output image.

次に、本実施の形態にかかる複合機100における原稿の読み取りからHDDに格納する処理について説明する。図23は、本実施の形態にかかる複合機100における上述した処理の手順を示すフローチャートである。   Next, a process of reading an original from the MFP 100 according to this embodiment and storing it in the HDD will be described. FIG. 23 is a flowchart illustrating a procedure of the above-described processing in the multifunction peripheral 100 according to the present embodiment.

まず、スキャナ101が、原稿を読み取り、画像データを生成する(ステップS2301)。次に、スキャナ補正部102の領域抽出部121が、画像データから、視覚的に異なる種別毎の領域を抽出する(ステップS2302)。また、領域抽出部121は、画素毎に、像域分離信号及び色領域信号を出力する。また、抽出される領域としては、黒文字エッジ領域、色文字エッジ領域、その他(写真領域)の絵柄領域の三種類の領域とする。   First, the scanner 101 reads a document and generates image data (step S2301). Next, the region extraction unit 121 of the scanner correction unit 102 extracts regions of visually different types from the image data (step S2302). The area extraction unit 121 outputs an image area separation signal and a color area signal for each pixel. In addition, the extracted areas are three types of areas: a black character edge area, a color character edge area, and other (photo area) picture areas.

その後、スキャナγ部122及びフィルタ処理部123が、画像データ(蓄積画像データ、エッジ領域、及び絵柄領域の画像データ)に対して、反射率リニアから濃度リニアのデータに変換するとともに、像域分離信号に従って各画素に切り換えたフィルタリングを実行する(ステップS2303)。   Thereafter, the scanner γ unit 122 and the filter processing unit 123 convert the image data (accumulated image data, edge region, and image region image data) from reflectance linear to density linear data and image region separation. Filtering switched to each pixel according to the signal is executed (step S2303).

そして、圧縮処理部103が、画像データ(蓄積画像データ、エッジ領域、及び絵柄領域の画像データ)に対して、圧縮処理を行う(ステップS2304)。   Then, the compression processing unit 103 performs compression processing on the image data (accumulated image data, edge region, and image region image data) (step S2304).

次に、コントローラ104が、HDD106に画像データを格納する(ステップS2305)。   Next, the controller 104 stores the image data in the HDD 106 (step S2305).

上述した処理手順により、抽出された領域を示す画像データがHDD106に格納される。   The image data indicating the extracted area is stored in the HDD 106 by the processing procedure described above.

次に、本実施の形態にかかる複合機100におけるHDD106に格納された画像データから、コントローラ104で処理を行った後、プロッタ109で印刷するまでの処理について説明する。図24は、本実施の形態にかかる複合機100における上述した処理の手順を示すフローチャートである。   Next, processing from image data stored in the HDD 106 in the multifunction peripheral 100 according to the present embodiment to processing by the controller 104 and printing by the plotter 109 will be described. FIG. 24 is a flowchart illustrating a procedure of the above-described processing in the multifunction peripheral 100 according to the present embodiment.

まず、伸張処理部107は、コントローラ104がHDD106から読み込んだ画像データ(蓄積画像データ、エッジ領域、及び絵柄領域の画像データ)と、像域分離信号及び色領域信号との入力を受け付け、当該画像データの伸張処理を行う(ステップS2401)。その後、プリンタ補正部108は、コントローラ104から、画像処理モード及び画像分離モードの入力を受け付ける。当該画像処理モード及び画像分離モードは、入力デバイス110から入力されたものとする。   First, the decompression processing unit 107 receives input of image data (stored image data, edge area, and image area image data) read from the HDD 106 by the controller 104, an image area separation signal, and a color area signal, and Data decompression processing is performed (step S2401). Thereafter, the printer correction unit 108 receives input of an image processing mode and an image separation mode from the controller 104. It is assumed that the image processing mode and the image separation mode are input from the input device 110.

次に、特定部146が、文字分離信号(2bit)、基準記憶部145に記憶された対応関係、及び利用者に入力された分離モードに基づいて、文字エッジ領域信号(1bit)に変換し、文字領域であるか否かを特定する(ステップS2402)。   Next, the identification unit 146 converts the character separation signal (2 bits) into the character edge region signal (1 bit) based on the correspondence relationship stored in the reference storage unit 145 and the separation mode input to the user. Whether it is a character area or not is specified (step S2402).

そして、色補正処理部143、プリンタγ部142及び中間調処理部141が、文字エッジ領域信号(1bit)及び色領域信号で特定される各領域に対して、画像処理を行う(ステップS2403)。特に、プリンタγ部142は、エッジ領域である場合には、コントラスト強調を行い、絵柄と判定された場合には、忠実なγ特性によるγ補正処理を行うこととして、領域に対応する画像処理を行うこととしている。   Then, the color correction processing unit 143, the printer γ unit 142, and the halftone processing unit 141 perform image processing on each region specified by the character edge region signal (1 bit) and the color region signal (step S2403). In particular, the printer γ unit 142 performs contrast enhancement when it is an edge region, and performs image processing corresponding to the region by performing γ correction processing with faithful γ characteristics when it is determined as a picture. To do.

その後、プロッタ109が、画像処理が行われた画像データを用いて印刷処理を行う(ステップS2404)。   Thereafter, the plotter 109 performs print processing using the image data that has been subjected to image processing (step S2404).

本実施の形態に係る複合機100では、HDD106に格納された画像データについて印刷等を行う度に、入力された当該画像処理モード及び画像分離モードに従って画像処理を異ならせるため、利用に適した画像処理が実行できる。   In MFP 100 according to the present embodiment, every time image data stored in HDD 106 is printed, image processing differs according to the input image processing mode and image separation mode. Processing can be executed.

次に、本実施の形態にかかる、出力フォーマット変換部133の二値化部511の第1網点検出部605における網点検出処理について説明する。図25は、本実施の形態にかかる第1網点検出部605における上述した処理の手順を示すフローチャートである。本実施の形態では、処理対象となる画素を注目画素とする。   Next, a halftone dot detection process in the first halftone dot detection unit 605 of the binarization unit 511 of the output format conversion unit 133 according to the present embodiment will be described. FIG. 25 is a flowchart showing the above-described processing procedure in the first halftone dot detection unit 605 according to the present embodiment. In the present embodiment, a pixel to be processed is a target pixel.

まず、第1網点検出部605は、注目画素を含む予め定められたサイズのブロックが、白パターンに一致するか否か判断する(ステップS2501)。図26は、白パターンを表すブロックの例を示した図である。   First, the first halftone dot detection unit 605 determines whether or not a block having a predetermined size including the target pixel matches the white pattern (step S2501). FIG. 26 is a diagram illustrating an example of a block representing a white pattern.

白パターンに一致すると判断した場合(ステップS2501:Yes)、第1網点検出部605は、網点カウント初期化する(ステップS2502)。初期化するパラメータは、count_bk= tha_count、state=0、SS[I]=0(なお、tha_count:白領域間の距離(閾値)、SS[I]:1ライン前の情報)とする。   If it is determined that the pattern matches the white pattern (step S2501: Yes), the first halftone dot detection unit 605 initializes the halftone dot count (step S2502). The parameters to be initialized are count_bk = tha_count, state = 0, SS [I] = 0 (note that tha_count: distance between white areas (threshold), SS [I]: information one line before).

一方、白パターンに一致しないと判断した場合(ステップS2501:No)、第1網点検出部605は、網点判定処理を行う(ステップS2503)。   On the other hand, if it is determined that the pattern does not match the white pattern (step S2501: No), the first halftone dot detection unit 605 performs a halftone dot determination process (step S2503).

このステップS2503においては、下記条件の時に、stateを1にする。
・SS[I]=1
・1画素前の結果が網点である。
・count_bkが、0である時。
In step S2503, state is set to 1 under the following conditions.
・ SS [I] = 1
-The result one pixel before is a halftone dot.
・ When count_bk is 0.

さらに、ステップS2503においては、count_bkが、0である時、SS[I]を1にする。   Further, in step S2503, when count_bk is 0, SS [I] is set to 1.

その後、第1網点検出部605は、網点間隔の判定を行う(ステップS2504)。ステップS2504において、state=0でかつ、count > tha_count_s(なお、tha_count_s:非網点領域上の網点パターン間の距離(閾値)とする)であれば、下記に示す変数の初期化を行う。
count_bk=tha_count
SS[I]=0
Thereafter, the first halftone dot detection unit 605 determines a halftone dot interval (step S2504). In step S2504, if state = 0 and count> tha_count_s (where tha_count_s is a distance (threshold) between halftone dot patterns on a non-halftone area), the following variables are initialized.
count_bk = tha_count
SS [I] = 0

また、ステップS2504において、count_bk, count_c, count_m, count_yのいずれかが、0でかつ、count>tha_count_e(なお、tha_count_e:非網点領域上の網点パターン間の距離(閾値)とする)であれば、下記に示す変数の初期化を行う。
count_bk=tha_count
state=0
SS[I]=0
In step S2504, any of count_bk, count_c, count_m, and count_y is 0 and count> tha_count_e (where tha_count_e is a distance (threshold) between halftone dot patterns on a non-halftone dot region). For example, the following variables are initialized.
count_bk = tha_count
state = 0
SS [I] = 0

そして、ステップS2504において、上記の判定及び初期化が終了した後、count=count+1を行う。   In step S2504, after the above determination and initialization are completed, count = count + 1 is performed.

次に、第1網点検出部605は、網点パターンを用いて、網点カウントを行う(ステップS2505)。図27は、網点パターンの例を示した図である。第1網点検出部605が、注目画素を含むブロックが、網点パターンに一致した場合に、countを0にすると共にcount_bkを-1する。   Next, the first halftone dot detection unit 605 performs halftone dot count using the halftone dot pattern (step S2505). FIG. 27 is a diagram showing an example of a halftone dot pattern. When the block including the target pixel matches the halftone dot pattern, the first halftone dot detection unit 605 sets count to 0 and count_bk to -1.

そして、第1網点検出部605は、網点か否かの状態判定を行う(ステップS2506)。本処理手順においては、state=1であれば、網点と判定する。   Then, the first halftone dot detection unit 605 determines whether or not it is a halftone dot (step S2506). In this processing procedure, if state = 1, it is determined as a halftone dot.

網点と判定した場合(ステップS2506:網点)、第1網点検出部605は、注目画素の左右(12画素)にステップS2501の白パターンが両側に存在すると共に、count_xが初期値であれば、細線と判断して、SS[I]=0とする(ステップS2507)。   When the halftone dot is determined (step S2506: halftone dot), the first halftone dot detection unit 605 determines that the white pattern of step S2501 exists on both sides of the target pixel (12 pixels) on both sides and count_x is the initial value. For example, SS [I] = 0 is determined as a thin line (step S2507).

その後、第1網点検出部605は、state=1にして、網点として結果を出力する(ステップS2509)。   Thereafter, the first halftone dot detection unit 605 sets state = 1 and outputs the result as a halftone dot (step S2509).

一方、網点ではないと判定した場合(ステップS2506:非網点)、第1網点検出部605が、state=0にして、非網点として結果を出力する(ステップS2508)。   On the other hand, if it is determined that it is not a halftone dot (step S2506: non-halftone dot), the first halftone dot detector 605 sets state = 0 and outputs the result as a non-halftone dot (step S2508).

上述した処理手順により、第1網点検出部605が網点を検出することが可能になる。   By the processing procedure described above, the first halftone dot detection unit 605 can detect halftone dots.

次に、本実施の形態にかかる、第1グレー検出部607、第2グレー検出部608におけるグレー検出処理について説明する。図28は、本実施の形態にかかる第1グレー検出部607、又は第2グレー検出部608における上述した処理の手順を示すフローチャートである。本処理手順では、第1グレー検出部607の場合について説明するが、第2グレー検出部608も同様の処理手順となる。   Next, gray detection processing in the first gray detection unit 607 and the second gray detection unit 608 according to the present embodiment will be described. FIG. 28 is a flowchart showing the above-described processing procedure in the first gray detection unit 607 or the second gray detection unit 608 according to the present embodiment. In this processing procedure, the case of the first gray detection unit 607 will be described, but the second gray detection unit 608 also has the same processing procedure.

まず、第1グレー検出部607は、前処理を行う(ステップS2801)。なお、以下に示す変数MSは1画素の前まで処理結果で、グレー検出してから白画素の数とする。配列SS[i]は1ライン前の処理結果とする。そして、第1グレー検出部607は、前処理として、変数MSと配列SS[i]とを比較し、1ライン前の処理結果及び1画素前の処理結果のうち、大きい値を取得する。なお、処理対象となる画素を注目画素とする。   First, the first gray detection unit 607 performs preprocessing (step S2801). Note that the variable MS shown below is the processing result up to one pixel, and is the number of white pixels after gray detection. The array SS [i] is the processing result of the previous line. Then, the first gray detection unit 607 compares the variable MS and the array SS [i] as preprocessing, and acquires a larger value from the processing result of the previous line and the processing result of the previous pixel. Note that a pixel to be processed is a target pixel.

第1グレー検出部607は、注目画素を含むブロックと、グレーパターンとが一致するか否かマッチングを行う(ステップS2802)。図29は、グレーパターンの例を示した図である。つまり、注目画素を含むブロックの画素値が中濃度であって、上記グレーパターンと一致している場合に、変数MS=5、S[i]としてグレー画素とする。なお、中濃度となる画素値とは、N値化された画素値であって、閾値Dtah=0の場合において、非白画素の時が該当する。   The first gray detection unit 607 matches whether or not the block including the target pixel matches the gray pattern (step S2802). FIG. 29 is a diagram illustrating an example of a gray pattern. That is, when the pixel value of the block including the target pixel is medium density and matches the gray pattern, the variable MS = 5 and S [i] is set as a gray pixel. Note that the pixel value having the medium density is an N-valued pixel value, and corresponds to a non-white pixel when the threshold value Dtah = 0.

グレーパターンに一致していない場合(ステップS2802:No)、第1グレー検出部607は、注目画素が、N値化された場合の白画素であるか否か判断する(ステップS2803)。白画素であると判断した場合(ステップS2803:Yes)、第1グレー検出部607は、変数MS>0か否か判断する(ステップS2804)。   When not matching with the gray pattern (step S2802: No), the first gray detection unit 607 determines whether or not the target pixel is a white pixel when N-valued (step S2803). If it is determined that the pixel is a white pixel (step S2803: YES), the first gray detection unit 607 determines whether or not the variable MS> 0 (step S2804).

変数MS>0であると判断された場合(ステップS2804:Yes)、第1グレー検出部607は、MS=MS−1、つまり変数MSから‘1’減算する(ステップS2805)。   If it is determined that the variable MS> 0 (step S2804: Yes), the first gray detecting unit 607 subtracts ‘1’ from the variable MS (step S2805).

一方、変数MS>0ではないと判断された場合(ステップS2804:No)、第1グレー検出部は、ステップS2808に進む。   On the other hand, if it is determined that the variable MS> 0 is not satisfied (step S2804: NO), the first gray detection unit proceeds to step S2808.

また、白画素ではないと判断された場合(ステップS2803:No)、及びステップS2805の処理が終了した後、第1グレー検出部607は、変数MS>0か否か判断する(ステップS2806)。   If it is determined that the pixel is not a white pixel (step S2803: NO), and after the process of step S2805 is completed, the first gray detection unit 607 determines whether or not the variable MS> 0 (step S2806).

そして、変数MS>0ではないと判断された場合(ステップS2806:No、ステップS2804:No)、注目画素が、非グレー画素と判断する(ステップS2808)。   If it is determined that the variable MS> 0 is not satisfied (step S2806: NO, step S2804: NO), the target pixel is determined to be a non-gray pixel (step S2808).

また、グレーパターンに一致した場合(ステップS2802:Yes)、及びMS>0と判断された場合(ステップS2806:Yes)、第1グレー検出部607は、注目画素をグレー画素と判断する(ステップS2807)。   If the gray pattern is matched (step S2802: YES), and if MS> 0 is determined (step S2806: YES), the first gray detection unit 607 determines that the pixel of interest is a gray pixel (step S2807). ).

その後、第1グレー検出部607は後処理を行う(ステップS2809)。後処理として、第1グレー検出部607は、色地か白地、且つ変数MS>1であれば、SS[I]=MS−1を設定する。さらに、第1グレー検出部607は、Bk画素であり、且つMS>0であれば、SS[I]=MS−1を設定する。   Thereafter, the first gray detection unit 607 performs post-processing (step S2809). As post-processing, the first gray detection unit 607 sets SS [I] = MS-1 if the color background is white or the variable MS> 1. Furthermore, if the first gray detection unit 607 is a Bk pixel and MS> 0, SS [I] = MS−1 is set.

さらに、第1グレー検出部607は、bkカウントを行う。例えば、bk画素の連続数をカウントして、連続数が閾値thg_count1以上であれば、bk連続ありと判定する。例えば、閾値thg_countが12で、連続数がNの時は、bk連続ありは、N−thg_count+1回となる。そして、第1グレー検出部607は、連続数あり時は、MSから‘1’減算する。   Further, the first gray detection unit 607 performs bk count. For example, the number of continuous bk pixels is counted, and if the number of continuous is equal to or greater than the threshold thg_count1, it is determined that there is bk continuous. For example, when the threshold thg_count is 12 and the number of continuations is N, b-k continuation is N-thg_count + 1 times. The first gray detection unit 607 subtracts “1” from the MS when there is a continuous number.

次に、本実施の形態にかかる出力フォーマット変換部133の二値化部511の黒文字判定部611内の判定部1109における黒文字などの領域判定処理について説明する。図30は、本実施の形態にかかる判定部1109における上述した処理の手順を示すフローチャートである。本処理手順においては、3ラインOR部1102の出力を黒文字エッジ、絵柄判定部1103の判定結果を絵柄、黒判定部1104の判定結果を黒として説明する。   Next, an area determination process such as a black character in the determination unit 1109 in the black character determination unit 611 of the binarization unit 511 of the output format conversion unit 133 according to the present embodiment will be described. FIG. 30 is a flowchart showing a procedure of the above-described processing in the determination unit 1109 according to this embodiment. In this processing procedure, the description will be made assuming that the output of the 3-line OR unit 1102 is a black character edge, the determination result of the pattern determination unit 1103 is a pattern, and the determination result of the black determination unit 1104 is black.

まず、判定部1109は、注目画素が黒文字エッジか、絵柄か、それ以外か判断する(ステップS3001)。黒文字エッジと判断された場合、黒文字領域とし(ステップS3009)。絵柄と判断された場合、注目画素を、絵柄領域とする(ステップS3008)。   First, the determination unit 1109 determines whether the target pixel is a black character edge, a picture, or the other (step S3001). If it is determined that the edge is a black character, a black character area is set (step S3009). If it is determined as a picture, the target pixel is set as a picture area (step S3008).

次に、判定部1109は、注目画素を含む注目ラインが、高濃度(黒)であるか否か判定する(ステップS3002)。注目ラインが黒画素判定の結果が高濃度(黒)でなければ(ステップS3002:No)、注目画素を中間領域とする(ステップS3007)。   Next, the determination unit 1109 determines whether or not the target line including the target pixel has a high density (black) (step S3002). If the result of black pixel determination for the target line is not high density (black) (step S3002: No), the target pixel is set as an intermediate region (step S3007).

そして、判定部1109が、注目ラインが高濃度(黒)であると判定した場合(ステップS3002:Yes)、注目ラインの1つ前のラインが絵柄か否か判断する(ステップS3003)。そして、線分処理後の1ライン前の判定結果が絵柄領域であると判断した場合(ステップS3003:絵柄)であれば、判定部1109は、注目画素を絵柄領域とする。   If the determination unit 1109 determines that the target line has a high density (black) (step S3002: Yes), the determination unit 1109 determines whether the line immediately before the target line is a pattern (step S3003). If it is determined that the determination result one line before the line segment processing is a pattern area (step S3003: pattern), the determination unit 1109 sets the target pixel as the pattern area.

次に、判定部1109は、注目画素の1画素前について絵柄か否か判断する(ステップS3004)。そして、注目画素の1画素前の判定結果が絵柄領域であると判断された場合、注目画素も絵柄領域とする(ステップS3008)。   Next, the determination unit 1109 determines whether or not the pixel is one picture before the target pixel (step S3004). If it is determined that the determination result one pixel before the target pixel is a pattern area, the target pixel is also set as a pattern area (step S3008).

そして、判定部1109は、注目画素を含む注目ラインについて、一ライン前が黒文字か否か判断する(ステップS3005)。黒文字と判断した場合、注目画素を黒文字領域とする(ステップS3009)。   Then, the determination unit 1109 determines whether or not the previous line is a black character with respect to the target line including the target pixel (step S3005). If it is determined that the character is a black character, the pixel of interest is set as a black character region (step S3009).

次に、判定部1109が、注目画素の一画素前が、黒文字か否か判断する(ステップS3006)。黒文字と判断した場合、注目画素を黒文字領域とする(ステップS3009)。黒文字ではないと判断した場合、注目画素を中間領域とする(ステップS3007)。   Next, the determination unit 1109 determines whether or not the pixel before the target pixel is a black character (step S3006). If it is determined that the character is a black character, the pixel of interest is set as a black character region (step S3009). If it is determined that the character is not a black character, the target pixel is set as an intermediate region (step S3007).

最後に、判定部1109は、線分処理を行う(ステップS3010)。さらに、判定部1109は、色判定結果が色でなく、かつ高濃度の画素が、128画素以上連続していれば、絵柄領域として補正する。   Finally, the determination unit 1109 performs line segment processing (step S3010). Furthermore, if the color determination result is not a color and if high-density pixels are continuous for 128 pixels or more, the determination unit 1109 corrects the pattern area.

上述した処理手順により、注目画素が黒文字領域等の適切な領域として判定することができる。   With the processing procedure described above, the target pixel can be determined as an appropriate region such as a black character region.

上述した複合機100によれば、読み込まれた原稿の画像データが、黒文字領域や絵柄領域などの各領域毎にHDD106に格納し、利用者から受け付けた画像処理モードや画像分離モードに従って、各領域に対して適切な処理を行った後、印刷処理を行っている。このため、モードの変更を行う毎に原稿の読み込み処理を行うことが無くなるため利用負担の軽減を行えると共に、原稿の読み込み毎に行う必要がある領域抽出が不要になるため処理速度の向上、さらには毎回適切に所望する条件による印刷が行われるので、利便性が向上する。   According to the MFP 100 described above, the image data of the read original is stored in the HDD 106 for each area such as a black character area and a picture area, and each area is determined according to the image processing mode and the image separation mode received from the user. After performing appropriate processing on the printing, the printing processing is performed. This eliminates the need to read the document every time the mode is changed, thus reducing the load on the user and improving the processing speed because it eliminates the need for area extraction that is required every time the document is read. Since printing is performed according to desired conditions each time, convenience is improved.

さらには、複合機100においては、文字重視、絵柄重視などの判定基準を、選択可能としたため、利用者の所望する画像データを生成することができる。   Furthermore, in the multi-function device 100, determination criteria such as character emphasis and design emphasis can be selected, so that image data desired by the user can be generated.

上述した複合機100にかかるコントローラ104のハードウェア構成は、例えばCPUと、ノースブリッジ(NB)と、システムメモリ(MEM−P)と、サウスブリッジ(SB)と、ローカルメモリ(MEM−C)と、とを有している。スキャナ補正部102、圧縮処理部103、プリンタ補正部108及び伸張処理部107は、コントローラ104に接続されたASIC内に格納する等が考えられる。そして、複合機100は、コントローラ104とASICとの間をPCIe(PCI express)バスで接続した構成となる。また、MEM−Pは、ROM(Read Only Memory)と、RAM(Random Access Memory)とをさらに有する。   The hardware configuration of the controller 104 according to the MFP 100 described above includes, for example, a CPU, a north bridge (NB), a system memory (MEM-P), a south bridge (SB), and a local memory (MEM-C). , And. The scanner correction unit 102, the compression processing unit 103, the printer correction unit 108, and the expansion processing unit 107 may be stored in an ASIC connected to the controller 104. The multifunction device 100 has a configuration in which the controller 104 and the ASIC are connected by a PCIe (PCI express) bus. The MEM-P further includes a ROM (Read Only Memory) and a RAM (Random Access Memory).

CPUは、複合機100の全体制御をおこなうものであり、NB、MEM−PおよびSBからなるチップセットを有し、このチップセットを介して他の機器と接続される。   The CPU performs overall control of the multifunction peripheral 100, has a chip set made up of NB, MEM-P, and SB, and is connected to other devices via this chip set.

NBは、CPUとMEM−P、SB、PCIeとを接続するためのブリッジであり、MEM−Pに対する読み書きなどを制御するメモリコントローラと、PCIeマスタを有する。   The NB is a bridge for connecting the CPU to the MEM-P, SB, and PCIe, and includes a memory controller that controls reading and writing to the MEM-P and a PCIe master.

MEM−Pは、プログラムやデータの格納用メモリ、プログラムやデータの展開用メモリ、プリンタの描画用メモリなどとして用いるシステムメモリであり、ROMとRAMとからなる。ROMは、プログラムやデータの格納用メモリとして用いる読み出し専用のメモリであり、RAMは、ページメモリ131として機能すると共に、プログラムやデータの展開用メモリ、プリンタの描画用メモリなどとして用いる書き込みおよび読み出し可能なメモリである。   The MEM-P is a system memory used as a memory for storing programs and data, a memory for developing programs and data, a drawing memory for printers, and the like, and includes a ROM and a RAM. The ROM is a read-only memory used as a memory for storing programs and data, and the RAM functions as a page memory 131 and can be written and read as a memory for developing programs and data, a drawing memory for printers, and the like. Memory.

ASICは、画像処理用のハードウェア要素を有する画像処理用途向けのIC(Integrated Circuit)とする。   The ASIC is an integrated circuit (IC) for image processing having hardware elements for image processing.

なお、本実施形態の複合機100のASIC又はコントローラ104で実行される画像処理プログラムは、それぞれROM等に予め組み込まれて提供される。   Note that the image processing program executed by the ASIC or the controller 104 of the MFP 100 according to the present embodiment is provided by being incorporated in advance in a ROM or the like.

本実施形態の複合機100で実行される画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The image processing program executed by the MFP 100 according to the present embodiment is a file in an installable or executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. You may comprise so that it may record and provide on a computer-readable recording medium.

さらに、本実施形態の複合機100で実行される画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の複合機100で実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Further, the image processing program executed by the multifunction peripheral 100 of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the image processing program executed by the multifunction peripheral 100 of the present embodiment may be provided or distributed via a network such as the Internet.

本実施の形態の複合機100で実行される画像処理プログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから画像処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上述した各部が主記憶装置上に生成されるようになっている。   The image processing program executed by the multifunction peripheral 100 according to the present embodiment has a module configuration including the above-described units. As actual hardware, a CPU (processor) reads the image processing program from the ROM and executes it. As a result, the above-described units are loaded on the main storage device, and the above-described units are generated on the main storage device.

第1の実施形態にかかる複合機の概略構成を示したブロック図である。1 is a block diagram illustrating a schematic configuration of a multifunction machine according to a first embodiment. 絵柄領域やエッジ領域等を示した説明図である。It is explanatory drawing which showed the pattern area | region, the edge area | region, etc. FIG. 第1の実施の形態にかかる領域抽出部の構成を示すブロック図である。It is a block diagram which shows the structure of the area | region extraction part concerning 1st Embodiment. 総合判定部の構成を示すブロック図である。It is a block diagram which shows the structure of a comprehensive determination part. 出力フォーマット変換部の構成を示したブロック図である。It is the block diagram which showed the structure of the output format conversion part. 二値化部の構成を示したブロック図である。It is the block diagram which showed the structure of the binarization part. 孤立点除去パターンの例を示した図である。It is the figure which showed the example of the isolated point removal pattern. グレー領域と、文字領域との関係を示した図である。It is the figure which showed the relationship between a gray area | region and a character area. 白抜き文字を含む画像データの例を示した図である。It is the figure which showed the example of the image data containing a white character. 黒文字を含む画像データの例を示した図である。It is the figure which showed the example of the image data containing a black character. 黒文字判定部の構成を示すブロック図である。It is a block diagram which shows the structure of a black character determination part. 出力フォーマット変換部で変換される画像データの概念を示した図である。It is the figure which showed the concept of the image data converted in an output format conversion part. DC成分を保存した基準量子化テーブルの例を示した図である。It is the figure which showed the example of the reference | standard quantization table which preserve | saved DC component. 背景画像生成部が量子化処理にもちいる量子化テーブルの例を示した図である。It is the figure which showed the example of the quantization table which a background image generation part uses for a quantization process. 処理対象となる画像データ内の8×8のブロックの例を示した図である。It is the figure which showed the example of the 8x8 block in the image data used as a process target. 色差成分を保存した基準量子化テーブルの例を示した図である。It is the figure which showed the example of the reference | standard quantization table which preserve | saved the color difference component. 文字画像生成部が量子化処理にもちいる量子化テーブルの例を示した図である。It is the figure which showed the example of the quantization table which a character image generation part uses for a quantization process. 画像の種別と、量子化テーブルの関係を示した図である。It is the figure which showed the relationship between the classification of an image, and a quantization table. 入力フォーマット変換部の構成を示すブロック図である。It is a block diagram which shows the structure of an input format conversion part. 基準記憶部が記憶する、画像分離モードが標準モードの場合の各信号の対応関係を示す図である。It is a figure which shows the correspondence of each signal in case the image separation mode is a standard mode which a reference | standard memory | storage part memorize | stores. 基準記憶部が記憶する、画像分離モードが文字モードの場合の各信号の対応関係を示す図である。It is a figure which shows the corresponding relationship of each signal in case a image separation mode is character mode which a reference | standard memory | storage part memorize | stores. 各画像処理モードで各領域において実行される処理内容を示した図である。It is the figure which showed the processing content performed in each area | region in each image processing mode. 第1の実施の形態にかかる複合機における原稿の読み取りからHDDに格納する処理の手順を示すフローチャートである。4 is a flowchart illustrating a procedure of processing from reading an original to storing it in an HDD in the multifunction machine according to the first embodiment. 第1の実施の形態にかかる複合機におけるHDDに格納された画像データから、コントローラ部で処理を行った後、プロッタで印刷するまでの処理の手順を示すフローチャートである。4 is a flowchart illustrating a processing procedure from image data stored in an HDD in the multifunction peripheral according to the first embodiment until processing is performed by a controller unit and then printing is performed by a plotter. 第1の実施の形態にかかる出力フォーマット変換部の二値化部の第1網点検出部における網点検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the halftone detection process in the 1st halftone detection part of the binarization part of the output format conversion part concerning 1st Embodiment. 白パターンを表すブロックの例を示した図である。It is the figure which showed the example of the block showing a white pattern. 網点パターンの例を示した図である。It is the figure which showed the example of the halftone dot pattern. 第1の実施の形態にかかる第1グレー検出部、又は第2グレー検出部におけるグレー検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the gray detection process in the 1st gray detection part concerning a 1st embodiment, or the 2nd gray detection part. グレーパターンの例を示した図である。It is the figure which showed the example of the gray pattern. 第1の実施の形態にかかる出力フォーマット変換部の二値化部の黒文字判定部内の判定部における黒文字などの領域判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of area | region determination processing, such as a black character, in the determination part in the black character determination part of the binarization part of the output format conversion part concerning 1st Embodiment.

符号の説明Explanation of symbols

100 複合機
101 スキャナ
102 スキャナ補正部
103 圧縮処理部
104 コントローラ
105 NIC
106 HDD
107 伸張処理部
108 プリンタ補正部
109 プロッタ
110 入力デバイス
121 領域抽出部
122 スキャナγ部
123 フィルタ処理部
130 外部PC端末
131 ページメモリ
132 圧縮伸張処理部
133 出力フォーマット変換部
134 データi/f部
135 入力フォーマット変換部
136 デバイスi/f部
141 中間調処理部
142 プリンタγ部
143 色補正処理部
144 エッジ量検出部
145 基準記憶部
146 選択部
321 フィルタ
322 エッジ抽出部
322a 3値化部
322b 黒画素連続検出部
322c 白画素連続検出部
322d 近傍画素検出部
322e 孤立点除去部
323 白領域抽出部
324 網点抽出部
325 色判定部
325a 色相分割部
325b cメモリ
325c mメモリ
325d yメモリ
325e wメモリ
325f 色画素判定部
326 総合判定部
326a 文字判定部
326b 膨張処理部
326c デコード部
501 色変換部
502 解像度変換部
503 TIFフォーマット生成部
504 JPGフォーマット生成部
505 圧縮フォーマット生成部
506 データi/f部
511 二値化部
512 二値画像生成部
513 黒画像生成部
514 第1解像度変換部
515 第2解像度変換部
516 背景画像生成部
517 文字画像生成部
518 ファイル合成部
518 画像ファイル合成部
601 文字解像度変換部
602 適応二値化部
603 孤立点除去部
604 N値化部
605 第1網点検出部
606 第2網点検出部
607 第1グレー検出部
608 第2グレー検出部
609 文字判定部
611 黒文字判定部
621 閾値選択部
622 二値化実行部
1101 文字判定部
1102 3ラインOR部
1103 絵柄判定部
1104 黒判定部
1105 第1抽出部
1106 第2抽出部
1107 第1ミラー
1108 第2ミラー
1109 判定部
1801 TIFフォーマット展開部
1802 JPGフォーマット展開部
1803 圧縮フォーマット展開部
1804 出力選択部
1811 画像ファイル展開部
1812 黒画像展開部
1813 二値画像展開部
1814 背景画像展開部
1815 文字画像展開部
1816 画像ファイル合成部
1817 合成選択部
100 MFP 101 Scanner 102 Scanner Correction Unit 103 Compression Processing Unit 104 Controller 105 NIC
106 HDD
107 Decompression processing unit 108 Printer correction unit 109 Plotter 110 Input device 121 Area extraction unit 122 Scanner γ unit 123 Filter processing unit 130 External PC terminal 131 Page memory 132 Compression / decompression processing unit 133 Output format conversion unit 134 Data i / f unit 135 Input Format conversion unit 136 Device i / f unit 141 Halftone processing unit 142 Printer γ unit 143 Color correction processing unit 144 Edge amount detection unit 145 Reference storage unit 146 Selection unit 321 Filter 322 Edge extraction unit 322a Tri-leveling unit 322b Continuous black pixels Detection unit 322c White pixel continuous detection unit 322d Neighboring pixel detection unit 322e Isolated point removal unit 323 White region extraction unit 324 Halftone dot extraction unit 325 Color determination unit 325a Hue division unit 325b c memory 325c m memory 325d Memory 325e w Memory 325f Color pixel determination unit 326 General determination unit 326a Character determination unit 326b Expansion processing unit 326c Decoding unit 501 Color conversion unit 502 Resolution conversion unit 503 TIF format generation unit 504 JPG format generation unit 505 Compression format generation unit 506 Data i / F section 511 binarization section 512 binary image generation section 513 black image generation section 514 first resolution conversion section 515 second resolution conversion section 516 background image generation section 517 character image generation section 518 file composition section 518 image file composition section 601 Character resolution conversion unit 602 Adaptive binarization unit 603 Isolated point removal unit 604 N-value conversion unit 605 First halftone dot detection unit 606 Second halftone dot detection unit 607 First gray detection unit 608 Second gray detection unit 609 Character determination Part 611 Black character judgment part 6 21 threshold selection unit 622 binarization execution unit 1101 character determination unit 1102 3-line OR unit 1103 picture determination unit 1104 black determination unit 1105 first extraction unit 1106 second extraction unit 1107 first mirror 1108 second mirror 1109 determination unit 1801 TIF Format development unit 1802 JPG format development unit 1803 Compression format development unit 1804 Output selection unit 1811 Image file development unit 1812 Black image development unit 1813 Binary image development unit 1814 Background image development unit 1815 Character image development unit 1816 Image file synthesis unit 1817 Composition Select part

Claims (8)

画像データを入力する画像データ入力手段と、
前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識手段と、
前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶する記憶手段と、
前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定部と、
前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理手段と、
を備えることを特徴とする画像処理装置。
Image data input means for inputting image data;
Recognizing means for recognizing the type of each area included in the image data with respect to the image data;
Storage means for storing the image data and the type of each area recognized by the recognition means;
Based on the output setting of the image data, from the type of each region stored in the storage means, a specifying unit for specifying one type,
Image processing means for performing image processing suitable for the specified type on the image data stored in the storage means;
An image processing apparatus comprising:
前記認識手段は、さらに、前記画像データから、文字を含むエッジ領域と、図又は画を含む絵柄領域と、を抽出し、
前記記憶手段は、さらに、前記エッジ領域の画像データと、前記絵柄領域の画像データと、を記憶し、
前記画像処理手段は、前記エッジ領域の画像データと、前記絵柄領域の画像データと、に対して、それぞれ異なる画像処理を行うこと、
を特徴とする請求項1に記載の画像処理装置。
The recognizing unit further extracts, from the image data, an edge region including characters and a pattern region including a figure or a drawing,
The storage means further stores the image data of the edge region and the image data of the pattern region,
The image processing means performs different image processing on the image data of the edge region and the image data of the pattern region;
The image processing apparatus according to claim 1.
前記認識手段は、前記画像データから、文字を含むエッジ領域と、図又は画を含む絵柄領域とを認識し、
前記特定手段は、文字を優先する時は、前記画像処理に適用する種別として、前記エッジ領域を特定し、絵柄を優先する時は、前記画像処理に適用する種別として、前記絵柄領域を特定すること、
を特徴とする請求項1又は2に記載の画像処理装置。
The recognizing means recognizes an edge area including characters and a pattern area including a figure or a picture from the image data,
The specifying unit specifies the edge region as a type to be applied to the image processing when giving priority to characters, and specifies the picture region as a type to be applied to the image processing when giving priority to a design. thing,
The image processing apparatus according to claim 1, wherein:
前記画像処理手段が画像処理した前記画像データを、用紙上に形成し、画像出力する画像出力手段を、さらに備えることを特徴とする請求項1乃至3のいずれか一つに記載の画像処理装置。   4. The image processing apparatus according to claim 1, further comprising: an image output unit that forms the image data processed by the image processing unit on a sheet and outputs the image. 5. . 前記画像処理手段が画像処理した前記画像データを、外部装置に送信する送信手段を、さらに備えることを特徴とする請求項1乃至3のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: a transmission unit that transmits the image data image-processed by the image processing unit to an external device. 前記画像処理手段が画像処理した前記画像データを、表示する表示手段を、さらに備えることを特徴とする請求項1乃至3のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising display means for displaying the image data image-processed by the image processing means. 画像データ入力手段が、画像データを入力する画像データ入力ステップと、
認識手段が、前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識ステップと、
前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶手段に記憶する記憶ステップと、
特定手段が、前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定ステップと、
画像処理手段が、前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理ステップと、
を有することを特徴とする画像処理方法。
An image data input means for inputting image data;
A recognition step for recognizing the type of each area included in the image data with respect to the image data;
A storage step of storing the image data and the type of each area recognized by the recognition unit in a storage unit;
A specifying step of specifying one type from the type of each area stored in the storage unit based on the output setting of the image data;
An image processing step in which image processing means performs image processing suitable for the specified type on the image data stored in the storage means;
An image processing method comprising:
画像データを入力する画像データ入力ステップと、
前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識ステップと、
前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶手段に記憶する記憶ステップと、
前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定ステップと、
前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理ステップと、
をコンピュータに実行させるための画像処理プログラム。
An image data input step for inputting image data;
A recognition step for recognizing the type of each area included in the image data with respect to the image data;
A storage step of storing the image data and the type of each area recognized by the recognition unit in a storage unit;
Based on the output setting of the image data, a specifying step of specifying one type from the type of each area stored in the storage unit;
An image processing step for performing image processing suitable for the specified type on the image data stored in the storage unit;
An image processing program for causing a computer to execute.
JP2008237203A 2008-09-16 2008-09-16 Image processing apparatus and method, and image processing program Pending JP2010074318A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008237203A JP2010074318A (en) 2008-09-16 2008-09-16 Image processing apparatus and method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008237203A JP2010074318A (en) 2008-09-16 2008-09-16 Image processing apparatus and method, and image processing program

Publications (1)

Publication Number Publication Date
JP2010074318A true JP2010074318A (en) 2010-04-02

Family

ID=42205724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008237203A Pending JP2010074318A (en) 2008-09-16 2008-09-16 Image processing apparatus and method, and image processing program

Country Status (1)

Country Link
JP (1) JP2010074318A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088910A (en) * 2013-10-30 2015-05-07 株式会社沖データ Image processing device
JP2020114028A (en) * 2015-07-24 2020-07-27 株式会社リコー Image processing apparatus, image processing method, and program
JP7472695B2 (en) 2020-07-17 2024-04-23 株式会社リコー Image forming device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088910A (en) * 2013-10-30 2015-05-07 株式会社沖データ Image processing device
JP2020114028A (en) * 2015-07-24 2020-07-27 株式会社リコー Image processing apparatus, image processing method, and program
JP7472695B2 (en) 2020-07-17 2024-04-23 株式会社リコー Image forming device

Similar Documents

Publication Publication Date Title
JP5540553B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
JP4662066B2 (en) Image processing apparatus, image forming apparatus, image distribution apparatus, image processing method, program, and recording medium
JP4861711B2 (en) Image processing apparatus, image compression method, image compression program, and recording medium
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
US8538086B2 (en) Image inspection apparatus, image inspection method, and computer program product
JP5287272B2 (en) Image inspection apparatus, image inspection method, and program
KR100994644B1 (en) Image processing apparatus and method thereof
US7916352B2 (en) Image processing apparatus, image processing method, program, and recording medium
CN114302020A (en) Image forming apparatus, control method thereof, and storage medium
JP4898601B2 (en) Image processing apparatus, image processing method, and program thereof
JP4884305B2 (en) Image processing apparatus, image forming apparatus, computer program, and recording medium
JP2010074318A (en) Image processing apparatus and method, and image processing program
JP3899872B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the same
JP4659789B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4963559B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program for causing computer to execute the method
US9082161B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP4515986B2 (en) Image processing apparatus and program
JP2007235430A (en) Image processor and processing method, image distribution device, image formation apparatus, program, and recording medium
JP4616199B2 (en) Image processing apparatus and program
JP2007189275A (en) Image processor
JP2001309183A (en) Image processing unit and method
US20100188670A1 (en) Image processing apparatus, image processing method and program executing the image processing method
JP7413751B2 (en) Image processing systems and programs
JP2006262334A (en) Image processing apparatus and scanner distribution apparatus
JP2023037968A (en) Image processing apparatus, control method of the same, and program