JP2010074318A - Image processing apparatus and method, and image processing program - Google Patents
Image processing apparatus and method, and image processing program Download PDFInfo
- Publication number
- JP2010074318A JP2010074318A JP2008237203A JP2008237203A JP2010074318A JP 2010074318 A JP2010074318 A JP 2010074318A JP 2008237203 A JP2008237203 A JP 2008237203A JP 2008237203 A JP2008237203 A JP 2008237203A JP 2010074318 A JP2010074318 A JP 2010074318A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- unit
- image
- character
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Facsimiles In General (AREA)
Abstract
Description
本発明は、画像データに対して画像処理を行う画像処理装置、画像処理方法、及び画像処理プログラムに関するものである。 The present invention relates to an image processing apparatus that performs image processing on image data, an image processing method, and an image processing program.
従来から、光学的に読み取った画像データに対して画像処理を行う際に、画像データの種別に応じて画像処理の内容を異ならせることが行われている。 2. Description of the Related Art Conventionally, when image processing is performed on optically read image data, the content of the image processing is changed according to the type of image data.
例えば、文字が主となる画像データに対しては、エッジが明確になるように二値化処理等を行い、写真等が主となる画像データに対しては、当該画像データの色の階調が保護されるような画像処理を行っている。このため、画像データに記載された内容を適切に判断することが重要となる。 For example, for image data mainly composed of characters, binarization processing or the like is performed so that the edges are clear, and for image data mainly composed of photographs or the like, the gradation of the color of the image data Image processing is performed to protect the image. For this reason, it is important to appropriately determine the contents described in the image data.
例えば、特許文献1に記載された技術では、画像データに線画か、中間調画か、判断するための判定基準を指示している。これにより、利用者の好みを反映した画像の特定を判定することができる。
For example, in the technique described in
上述したような、特許文献1を含む従来の技術では、記憶装置上に保存した画像データを再印刷する場合に、最初の判定結果で得られた画像データを再度印刷することになる。一方で、一度印刷した画像データであっても、印刷後の用途に応じて判定基準を変更したいという要求がある。
In the conventional technology including
しかしながら、従来の技術では、一度読み込み処理を行った後の画像データについては、判定基準を変更することができず、判定基準を変更したい場合には、再度原稿を読み込む必要が生じるという問題がある。 However, the conventional technique has a problem in that it is not possible to change the determination criterion for image data that has been read once, and if it is desired to change the determination criterion, it is necessary to read the original again. .
本発明は、上記に鑑みてなされたものであって、一度印刷した画像データであっても、用途に応じて出力される画像データを変更可能な画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above, and provides an image processing apparatus, an image processing method, and an image processing program capable of changing image data output according to the use even if the image data has been printed once. The purpose is to provide.
上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置は、画像データを入力する画像データ入力手段と、前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識手段と、前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶する記憶手段と、前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定部と、前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理手段と、を備える。 In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention includes an image data input unit that inputs image data, and each region included in the image data with respect to the image data. Recognizing means for recognizing a type, storage means for storing the image data, and the type of each area recognized by the recognizing means, and storing in the storage means based on the output setting of the image data. A specifying unit that specifies one type from the type of each of the areas, and an image processing unit that performs image processing suitable for the specified type on the image data stored in the storage unit; .
また、本発明にかかる画像処理方法は、画像データ入力手段が、画像データを入力する画像データ入力ステップと、認識手段が、前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識ステップと、前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶手段に記憶する記憶ステップと、特定手段が、前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定ステップと、画像処理手段が、前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理ステップと、を有することを特徴とする。 The image processing method according to the present invention includes an image data input step in which the image data input means inputs the image data, and a recognition means for each type of each area included in the image data for the image data. A recognition step for recognizing the image data, a storage step for storing the type of each area recognized by the recognition means in a storage means, and a specifying means based on the output setting of the image data, A specifying step for specifying one type from the types of the respective areas stored in the storage unit, and an image processing unit for the specified type of the image data stored in the storage unit. And an image processing step for performing suitable image processing.
また、本発明にかかる画像処理プログラムは、画像データを入力する画像データ入力ステップと、前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識ステップと、前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶手段に記憶する記憶ステップと、前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定ステップと、前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理ステップと、をコンピュータに実行させる。 An image processing program according to the present invention includes an image data input step for inputting image data, a recognition step for recognizing the type of each area included in the image data, and the image data. And a storage step of storing the type of each area recognized by the recognition unit in a storage unit, and a type of each area stored in the storage unit based on an output setting of the image data, A computer is caused to execute a specifying step of specifying one type and an image processing step of performing image processing suitable for the specified type on the image data stored in the storage unit.
本発明によれば、画像データを記憶した後、特定した領域に対して適切な画像処理を行うため、出力を要求する度に画像データの入力が不要であるにも拘わらず、要求に応じて適切な画像データの出力が可能なため、利便性が向上するというという効果を奏する。 According to the present invention, in order to perform appropriate image processing on the specified area after storing the image data, the input of the image data is not required every time an output is requested. Since it is possible to output appropriate image data, there is an effect that convenience is improved.
以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法、及び画像処理プログラムの最良な実施の形態を詳細に説明する。 Exemplary embodiments of an image processing apparatus, an image processing method, and an image processing program according to the present invention are explained in detail below with reference to the accompanying drawings.
以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法、及び画像処理プログラムを適用した画像形成装置の最良な実施の形態を詳細に説明する。なお、以下に示す実施の形態は、画像形成装置に制限するものではなく、例えば、ファクシミリ装置など、さまざまな装置に適用することができる。 Exemplary embodiments of an image processing apparatus, an image processing method, and an image forming apparatus to which an image processing program according to the present invention is applied will be explained below in detail with reference to the accompanying drawings. The embodiment described below is not limited to the image forming apparatus, and can be applied to various apparatuses such as a facsimile apparatus.
本発明の一実施の形態として、画像形成装置であってコピー機能、ファクシミリ(FAX)機能、プリント機能、スキャナ機能及び入力画像(スキャナ機能による読み取り原稿画像やプリンタあるいはFAX機能により入力された画像)を配信する機能等を複合したいわゆるMFP(Multi Function Peripheral)と称される複合機100に適用した例を示す。
According to an embodiment of the present invention, an image forming apparatus includes a copy function, a facsimile (FAX) function, a print function, a scanner function, and an input image (an original image read by the scanner function or an image input by a printer or a FAX function). An example of application to a
(第1の実施の形態)
図1は、本実施形態にかかる複合機100の概略構成を示したブロック図である。本図に示すように複合機100の内部は、スキャナ101と、スキャナ補正部102と、圧縮処理部103と、コントローラ104と、NIC105と、HDD106と、伸張処理部107と、プリンタ補正部108と、プロッタ109と、入力デバイス110と、を備えると共に、ネットワークを介して外部PC端末130と接続されている。
(First embodiment)
FIG. 1 is a block diagram illustrating a schematic configuration of a multifunction peripheral 100 according to the present embodiment. As shown in the figure, the MFP 100 includes a
HDD106は、画像データや各種信号で示された情報等を記憶する。なお、本実施の形態では、HDD(Hard Disk Drive)を用いたが、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶手段により構成することができる。 The HDD 106 stores image data and information indicated by various signals. In this embodiment, an HDD (Hard Disk Drive) is used, but it can be configured by any commonly used storage means such as an optical disc, a memory card, and a RAM (Random Access Memory).
入力デバイス110は、利用者が操作の入力を行うためのデバイスとする。利用者が当該入力デバイス110を操作することで、複合機100が複写処理等を実行することができる。
The
また、複合機100は、原稿をスキャンした画像データをHDD106に格納する。そして、複合機100は、複写処理等を行う際に、入力デバイス110を介して、利用者から画像分離モードの選択を受け付け、受け付けた画像分離モードに従って印刷するための処理を行う。
In addition, the multifunction peripheral 100 stores image data obtained by scanning a document in the
画像分離モードとは、画像データの各領域を文字領域や絵柄領域等として特定する際、各領域について特定される種別の優先度(例えば、ある領域が文字の可能性も絵柄の可能性もある場合に文字領域と特定するのか、絵柄領域と特定するのかを)を指定するためのモードとする。本実施の形態では、利用者は、画像分離モードとして、標準モード、及び文字モードから選択する必要がある。なお、画像分離モードは、画像データを出力するために利用者から入力された設定であり、換言すれば出力設定に相当する。なお、画像分離モードは、入力された画像データに対する設定として利用しても良い。 Image separation mode refers to the priority of the type specified for each area when specifying each area of the image data as a character area or a pattern area (for example, a certain area may be a character or a pattern) In this case, a mode for designating a character area or a picture area is designated. In the present embodiment, the user needs to select from the standard mode and the character mode as the image separation mode. The image separation mode is a setting input from the user for outputting image data, in other words, corresponds to an output setting. The image separation mode may be used as a setting for input image data.
画像分離モードにおいて選択可能な文字モードとは、文字の可能性のある(又は文字を含む)領域を文字エッジ領域として優先的に抽出するモードとし、文字の可能性がある領域であれば絵柄領域の可能性がある場合でも文字領域として画像処理を行う。 The character mode that can be selected in the image separation mode is a mode that preferentially extracts an area that may be a character (or that includes a character) as a character edge area. Even if there is a possibility of image processing, image processing is performed as a character area.
画像分離モードにおいて選択可能な標準モードとは、絵柄の可能性がある(又は図画を含む)領域を絵柄領域として優先的に抽出するモードとし、絵柄の可能性がある領域であれば文字領域の可能性がある場合でも絵柄領域として画像処理を行う。 The standard mode that can be selected in the image separation mode is a mode that preferentially extracts an area having a possibility of a pattern (or including a drawing) as a pattern area. Even if there is a possibility, image processing is performed as a pattern area.
スキャナ101は、複合機100が複写処理を行う場合に、原稿を光学的に読み込み、光学的な読み込みによるアナログ信号をデジタル信号(例えば600dpi)に変換した後、当該デジタル信号を画像データとして出力する。
When the multifunction peripheral 100 performs a copying process, the
スキャナ補正部102は、領域抽出部121と、スキャナγ部122と、フィルタ処理部123とを備え、スキャナ101から出力された画像データから文字、線画、写真などの領域毎の抽出を行うと共に、画像データのRGBデータに対してフィルタ処理などの画像処理を施す。
The scanner correction unit 102 includes an
領域抽出部121は、入力された画像データ(反射率リニア)に基づき、視覚的に異なる種別毎の領域を抽出する。この抽出手法にはどのような手法を用いても良いが、例えば、特開2003−259115号公報で用いられている抽出手法を用いてもよい。
The
これにより、領域抽出部121は、エッジ領域、その他(写真領域)の絵柄領域の2種類の領域を抽出する。そして、領域抽出部121は、抽出された各領域の画素毎に、像域分離信号を付与する。領域抽出部121は、画像データに含まれる各領域について、エッジ領域、その他(写真領域)の絵柄領域であるか否かを認識し、認識結果を像域分離信号として付与している。つまり、領域抽出部121は、換言すれば認識手段として機能していることを意味する。
As a result, the
エッジ領域とは、文字と考えられるエッジを検出した領域とする。絵柄領域とは、それ以外の領域とし、例えば写真領域等が含まれる。 The edge region is a region where an edge considered as a character is detected. The picture area is an area other than that, and includes, for example, a photograph area.
像域分離信号は、各領域を識別するための情報が含まれている信号とする。本実施の形態にかかる像域分離信号は、3bitの情報で構成され、具体的には文字分離信号(2bit)及び色領域信号(1bit)で構成される。当該像域分離信号により、各画素の領域の種類が特定できる。 The image area separation signal is a signal including information for identifying each area. The image area separation signal according to the present embodiment is composed of 3-bit information, specifically, a character separation signal (2 bits) and a color area signal (1 bit). The type of the area of each pixel can be specified by the image area separation signal.
文字分離信号は、各画素における文字エッジであるか否かを示す情報(1bit)と、絵柄領域であるか否かを示す情報(1bit)と、を含む信号とする。絵柄領域であるか否かを示す情報においては、白地有り又は網点有りと判定された場合には、絵柄領域を示す情報が設定される。なお、白地の有無の判定手法及び、網点の有無の判定手法については後述する。 The character separation signal is a signal including information (1 bit) indicating whether or not each pixel is a character edge and information (1 bit) indicating whether or not it is a picture area. In the information indicating whether or not it is a picture area, information indicating a picture area is set when it is determined that there is a white background or a halftone dot. A method for determining the presence or absence of a white background and a method for determining the presence or absence of a halftone dot will be described later.
色領域信号は、各画素が色領域(白地上に黒以外の色)なのか否かを示す情報を含む信号とする。 The color area signal is a signal including information indicating whether each pixel is a color area (a color other than black on the white ground).
図2は、各領域の概念を示した説明図である。図2に示すように、入力された画像データ201はそのまま蓄積画像データとしてHDD106に蓄積される。一方、領域抽出部121は、画像データから絵柄領域と、エッジ領域と、を抽出する。そして、抽出された絵柄領域と、エッジ領域と、蓄積画像データは、HDD106に蓄積される。
FIG. 2 is an explanatory diagram showing the concept of each region. As shown in FIG. 2, the
そして、HDD106に蓄積された画像データを用いて印刷する要求を受け付けた場合に、これらエッジ領域及び絵柄領域の各画素について、印刷要求時に利用者により入力された画像分離モードに従って、画素毎に、色文字エッジ領域、黒文字エッジ領域及び絵柄領域のいずれなのか特定する。
Then, when a request for printing using image data stored in the
黒文字エッジ領域とは、白地上に黒の文字エッジを検出した領域とする。色文字エッジ領域とは、白地上に黒以外の色の文字エッジを検出した領域とする。 The black character edge region is a region where a black character edge is detected on the white ground. The color character edge region is a region where a character edge of a color other than black is detected on the white ground.
例えば、画像分離モードとして、文字モードが選択されていた場合、エッジ領域及び色領域である“新発売”を含む領域202が、色文字エッジ領域と判定される。これにより“新発売”が白抜きの文字として処理される。また、画像分離モードとして、標準モードが選択されていた場合、エッジ領域及び色領域である“新発売”を含む領域202が絵柄領域として判定される。このように、本実施の形態においては、画像分離モードが文字モード又は標準モードであるかに従って、判定基準が異なることになる。
For example, when the character mode is selected as the image separation mode, the
なお、本実施の形態では、色文字エッジ領域と絵柄領域とを、利用者に選択された画像分離モードに従って、切り換え抽出と行っているが、色文字エッジ領域とその他の中間的な処理とによる切り換え抽出を行ってもよい。 In the present embodiment, the color character edge region and the pattern region are switched and extracted according to the image separation mode selected by the user. However, the color character edge region and other intermediate processes are used. Switching extraction may be performed.
このように、画像分離モードが標準モードの場合に“新発売”が絵柄として判定され、小さな文字である時、判読性が低いことがある。そこで、図2に示すように、画像分離モードが文字モードの場合に、“新発売”が文字として判定されるので、文字の可能性がある領域については、文字に適した処理がなされるため、判読性が向上する。 As described above, when the image separation mode is the standard mode, “new sale” is determined as a picture, and when the character is a small character, the legibility may be low. Therefore, as shown in FIG. 2, when the image separation mode is the character mode, “newly released” is determined as a character, and therefore, processing suitable for the character is performed for a region that may be a character. , Improve legibility.
このように、記憶した画像データを再度印刷する際に、画像分離モードを選択することにより、操作者の好みに応じた出力が可能となる。 As described above, when the stored image data is printed again, by selecting the image separation mode, output according to the preference of the operator is possible.
領域抽出部121は、エッジ領域の画像データ、及び絵柄領域を示す画像データ、蓄積画像データ、及び各画素の像域分離信号を出力する。
The
図3は、第1の実施の形態にかかる領域抽出部121の構成を示すブロック図である。領域抽出部121は、フィルタ321と、エッジ抽出部322と、白領域抽出部323と、網点抽出部324と、色判定部325と、総合判定部326とで構成される。
FIG. 3 is a block diagram illustrating a configuration of the
フィルタ321は、主に文字のエッジ抽出のために、スキャナが発生するG画像データを強調して補正する。 The filter 321 emphasizes and corrects the G image data generated by the scanner mainly for character edge extraction.
エッジ抽出部322は、3値化部322aと、黒画素連続検出部322bと、白画素連続検出部322cと、近傍画素検出部322dと、孤立点除去部322eと、から構成される。本実施の形態では、エッジ抽出する際にG(Green)画像データを参照する例を示したが、当該G画像データに限らず、輝度データなどの濃淡を表現する信号であれば適応可能とする。
The
ところで、文字領域は、高レベル濃度の画素と、低レベル濃度の画素(以下、黒画素、白画素と呼ぶ)が多く、エッジ部分では、これらの黒画素および白画素が連続しているという特徴を有している。そこで、エッジ抽出部322の黒画素連続検出部322b及び白画素連続検出部322cが黒画素および白画素それぞれの連続性を検出した後、近傍画素検出部322dが近傍の画素を検出し、孤立点除去部322eが孤立している(予め定められた条件と一致する)画素を除去する。その後、エッジ抽出部322、このような処理結果に基づいて、エッジ領域を判定する。
By the way, the character region has many high-level density pixels and low-level density pixels (hereinafter referred to as black pixels and white pixels), and these black pixels and white pixels are continuous at the edge portion. have. Therefore, after the black pixel
白領域抽出部323は、画像データの白地に対して書き込まれた領域を白領域と判定し、濃い黒文字周辺を白領域と判定し、濃度の薄いところを非白領域と判定する。
The white
網点抽出部324は、画像データの網点を抽出し、網点の領域と判定する。
A halftone
色判定部325は、色相分割部325aと、cメモリ325bと、mメモリ325cと、yメモリ325dと、wメモリ325eと、色画素判定部325fとを備える。そして、色相分割部325aが、各画素を、シアン、マゼンタ、イエロー及びホワイトの色相に分割して、cメモリ325b、mメモリ325c、yメモリ325d及びwメモリ325eに格納する。そして、色画素判定部325fが、各メモリに格納された情報に基づいて、画像データ内の色(有彩)画素や黒(無彩)画素を判定する。
The
総合判定部326は、各画素の領域を総合的に判定する。図4は、総合判定部326の構成を示すブロック図である。図4に示すように、総合判定部326は、文字判定部326aと、膨張処理部326bと、デコード部326cとを備える。
The
文字判定部326aは、エッジ抽出部322の結果がエッジありで、網点抽出部324の結果が網点なしで、白領域抽出部323の結果が白領域ありの場合、文字エッジと判定する。それ以外の場合は、非文字エッジ(絵柄または文字のなか)と判定する。
If the result of the
膨張処理部326bは、文字判定部326aの結果を8×8ブロックのOR(論理和)処理し、その後に3×3ブロックのAND(論理積)処理をして4画素の膨張処理を行う。すなわち、注目画素を中心とする8×8画素のいずれかの画素が文字エッジであった場合、注目画素も文字エッジ領域であると仮定し、該注目画素を中心とする3×3ブロックのすべてが文字エッジ領域であった場合、注目画素を文字エッジと確定し、そして、注目画素とそれに隣接する4画素の計5画素を文字エッジ領域とする。
The
膨張処理部326bの結果は、文字エッジ信号としてデコード部326cに出力する。このような膨張処理部326bの処理により、分離結果が異なって文字の領域が薄くなることがなくなる。
The result of the
デコード部326cは、最終的に文字分離信号(図4のC/P信号)を出力する。また、総合判定部326は、色判定結果を色領域信号(図4のB/C信号)として出力する。この文字分離信号(画素毎に2bit)と色領域信号(画素毎に1bit)の計3bitの情報が出力される。このようにして、文字分離信号及び色領域信号を含む像域分離信号が出力される。
The
図1に戻り、スキャナγ部122は、領域抽出部121から入力された画像データ(蓄積画像データ、エッジ領域、及び絵柄領域の画像データ)に対して、反射率リニアから濃度リニアのデータに変換する。
Returning to FIG. 1, the
フィルタ処理部123は、像域分離信号に従って、画素毎に適用するフィルタ処理を切り換える。このフィルタ処理部123は、文字エッジ領域(黒文字エッジ領域、及び色文字エッジ領域を含む)に対して、判読性を重視して、エッジ強調処理(鮮鋭化処理)を行う。
The
また、フィルタ処理部123は、写真領域などの色領域に対して、画像データ内の急峻な濃度変化をエッジ量として、エッジ量に応じて平滑化処理やエッジ強調処理(鮮鋭化処理)を行う。急峻なエッジを強調するのは、写真、図又はグラフに含まれている文字を判読容易にするためである。さらに、文字エッジ領域は、色領域との組み合わせで、色文字エッジ領域と黒文字エッジ領域とで、二値化の閾値を変えることも可能である。
Further, the
圧縮処理部103は、スキャナ補正後のRGB各8bit画像データと、文字分離信号(2bit)と、色領域信号(1bit)と、を圧縮処理した後、汎用バスに送出する。圧縮後の画像データ及び文字分離信号(2bit)と、色領域信号(1bit)は、汎用バスを介して、コントローラ104に送信される。なお、本実施の形態では、画像データ、文字分離信号(2bit)及び色領域信号(1bit)に対して圧縮を施すが、汎用バスの帯域が十分に広く、蓄積するHDD106の容量が大きければ、非圧縮の状態で扱っても良い。
The
コントローラ104は、ページメモリ131、圧縮伸張処理部132、出力フォーマット変換部133、入力フォーマット変換部135、データi/f部134、デバイスi/f部136とで構成される。コントローラ104は、HDD106に格納されている画像データを、外部PC端末130に出力したり、外部PC端末130から画像データを入力したりする。また、コントローラ104は、入力デバイス110からの操作の入力処理を行う。
The controller 104 includes a
デバイスi/f部136は、入力デバイス110から入力された情報の処理を行う。また、デバイスi/f部136は、入力デバイス110から入力された画像分離モードの入力を受け付ける。さらに、デバイスi/f部136は、入力デバイス110から入力された画像処理モードの入力を受け付ける。
The device i /
画像処理モードとは、読み取った原稿の処理情報で、文字重視の処理を行った文字モード、文字と写真を両立する標準モード、写真重視の処理行った写真モードの3種類がある。 The image processing mode is processing information of the read document, and there are three types, that is, a character mode in which character-oriented processing is performed, a standard mode in which characters and photos are compatible, and a photo mode in which processing with emphasis on photos is performed.
また、デバイスi/f部136は、入力デバイス110に対して画像データを出力することで、入力デバイス110が画像データを表示することもできる。この表示可能な画像データは、どの画像データであっても良く、例えば、プリンタ補正部108で補正された後の画像データであっても良い。
Further, the device i /
コントローラ104は、入力された画像データを、HDD106に蓄積処理を行う。蓄積されるデータとしては、画像データの他に、書誌情報として画像サイズを含むほか、文字分離信号(2bit)、及び色領域信号(1bit)が保持する情報を格納する。なお、コントローラ104は、画像入力時に、画像分離モード及び画像処理モードの入力を受け付けた場合、入力された各モードについて格納してもよい。
The controller 104 stores the input image data in the
ページメモリ131は、入力された画像データ、文字分離信号(2bit)、及び色領域信号(1bit)などを一時的に蓄積する。
The
そして、コントローラ104は、圧縮処理部103から入力された画像データを、HDD106に格納する。その後、当該画像データを使用する場合、コントローラ104は、HDD106に格納されていた画像データを、ページメモリ131に読み出す。
The controller 104 stores the image data input from the
圧縮伸張処理部132は、ページメモリ131内の、圧縮処理されている画像データに対して、元の各色8bitデータに伸張し、出力フォーマット変換部133に出力する。
The compression /
出力フォーマット変換部133は、入力された画像データのRGBデータを、標準色空間であるsRGBデータに色変換を行うと共に、JPEG形式やTIFF形式への汎用画像フォーマットに変換する。
The output
図5は、出力フォーマット変換部133の構成を示したブロック図である。図5に示すように、出力フォーマット変換部133は、色変換部501と、解像度変換部502と、TIFフォーマット生成部503と、JPGフォーマット生成部504と、圧縮フォーマット生成部505と、データi/f部506とから構成される。
FIG. 5 is a block diagram showing the configuration of the output
色変換部501では、RGBデータ間のデータ変換を行う。解像度変換部502は、RGBデータ変換後の画像データに対して300dpi、200dpiなどの画素密度変換を行う。本実施の形態は、300dpiに変換する例とする。
The
TIFフォーマット生成部503、JPGフォーマット生成部504、圧縮フォーマット生成部505は、解像度変換した画像に対して、各フォーマット形式に変換する処理を行う。次に、圧縮フォーマット生成部505について説明する。
The TIF
圧縮フォーマット生成部505は、二値化部511と、黒画像生成部513と、二値画像生成部512と、第1解像度変換部514と、第2解像度変換部515と、背景画像生成部516と、文字画像生成部517と、画像ファイル合成部518と、から構成される。
The compression
二値化部511は、画像濃度の明暗を基準に文字領域と非文字領域とを識別する二値画像+マスク画像データ(2bit)、及び黒文字画像データ(1bit)を出力する。
The
二値化部511は、複数の特徴量に基づいて二値化を行う。図6は、二値化部511の構成を示したブロック図である。図6に示すように、二値化部511は、文字解像度変換部601と、適応二値化部602と、孤立点除去部603と、N値化部604と、第1網点検出部605と、第2網点検出部606と、第1グレー検出部607と、第2グレー検出部608と、文字判定部609と、を備える。
The
そして、二値化部511は、逐次処理で、先頭ラインから、ライン毎に一つの画素値について処理が終わると隣の画素の処理を行うこととし、当該処理を画像データの最後まで続ける。なお、本実施の形態ではRGB画像データを用いる。このRGB画像データは、画素値が大きくなると色が濃くなり、画素値が小さくなると淡くなるデータとする。
Then, the
文字解像度変換部601は、圧縮伸張処理部132により伸張された画像データである文字エッジ領域と色領域信号とを画像データに施した解像度と同じ解像度に変換(例えば、300dpi)し、画像データと画素密度を統一する。そして、文字解像度変換部601は、文字エッジと色とに関する情報を出力する。
The character
適応二値化部602は、閾値選択部621と、二値化実行部622と、を備え、二値化処理を行う。
The
閾値選択部621は、文字エッジ領域と、それ以外の領域とのそれぞれに対し、二値化の閾値を設定し、処理対象となる領域に従って閾値を切り換える。なお、文字エッジ領域に対しては、それ以外の領域と比べて、より文字が判定しやすいパラメータを設定する。 The threshold selection unit 621 sets a binarization threshold for each of the character edge region and the other region, and switches the threshold according to the region to be processed. It should be noted that a parameter that makes it easier to determine the character is set for the character edge region than for the other regions.
そして、二値化実行部622は選択された閾値で、各領域に対して二値化処理を施す。例えば、二値化実行部622は、各画素の入力画像RGBのそれぞれの値において、1つでも閾値を超えている場合に、黒(on)として判定し、一つも閾値を超えていない場合には白(off)と判定する。例えば、閾値としてR=128、G=120、B=118が設定されている際、入力画像データの画素がR=121、G=121、B=121の場合、二値化実行部622は、黒と判定する。また、入力画像データの画素がR=110、G=110、B=110の場合、二値化実行部622は、白と判定する。
Then, the
このように、文字エッジ領域と、それ以外の領域とで、閾値を切り換えるのは、背景色に基づくものである。すなわち、白以外の背景色の上に記載されている文字は濃く、白地の上に記載されている文字は薄い画像データに対して、常に一定の閾値で処理を行うと、いずれの背景色の上の文字についても黒(on)と判定するという処理が行えなくなる。 In this way, the threshold value is switched between the character edge region and the other region based on the background color. That is, if the character written on the background color other than white is dark and the character written on the white background is thin with respect to image data, any background color of The upper character cannot be determined to be black (on).
そこで、本実施の形態にかかる適応二値化部602は、文字エッジ領域と、それ以外の領域とで、閾値を切り換えることとした。これにより、白地上文字に対する閾値と、背景色が白い以外の上の文字に対する閾値が異なるため、白地の薄い文字と、色地上文字とを、適切に黒(on)と判定できる。これにより、適切な二値化処理が可能となる。
Therefore, the
なお、本実施の形態では、後述するように、二値化する画像データに対して、文字エッジ領域には、エッジ強調処理(鮮鋭化処理)を施し、文字エッジ領域以外にはエッジ量に応じた画像処理を行なうので、絵柄領域には平滑化処理がなされることになる。この場合、色地上文字の背景領域には平滑化処理がなされるので、良好に二値化が可能になる。 In the present embodiment, as will be described later, edge enhancement processing (sharpening processing) is performed on the character edge region for the image data to be binarized, and other than the character edge region, depending on the edge amount Since the image processing is performed, the picture area is smoothed. In this case, since the smoothing process is performed on the background area of the color ground character, binarization can be satisfactorily performed.
孤立点除去部603は、適応二値化部602により処理結果においては、孤立している画素が多いため、孤立している画素を除去する。孤立点除去部603は、図7に示す各パターンに一致した場合に、注目画素について反転処理を行うことで、孤立している画素を除去する。
The isolated
N値化部604と、第1網点検出部605と、第2網点検出部606と、第1グレー検出部607と、第2グレー検出部608と、でマスク部を構成する。
The N-
N値化部604は、後述する網点検出部605、606で網点検出を行うため、且つグレー検出部607、608でグレー検出を行うために、画像データの各画素を、共通して使用するN値の値に変換する。
The N-
N値化部604は、RGB間の差の小さい画素(bk)が、閾値thabkより大きい場合、黒文字とする。また、N値化部604は、RGB間の差が大きい画素に対して、YMCBGRの6色相に分け、色相毎の閾値(thay、tham、thac、thab、thag、thar)を用いて色相毎に二値化処理を行う。これにより、各色相において色が濃い画素が、アクティブ画素(文字)と判断される。なお、色相の分け方は、単純にRGBの大小関係で行ってもよいし、RGBの色の割合で決めてもよい。これは入力画像の特性により決まる。なお、出力結果は色相別に保持する。
When the pixel (bk) having a small difference between RGB is larger than the threshold thabk, the N-
本実施の形態にかかるN値化部604のNを“8”とし、以下に示す値が各画素に設定される。なお、括弧内はbit表示したものとする。
N in the N-
N値の各値は、Dtah=0(000):“該当なし”、Dtah=1(001):“黄色”、Dtah=2(010):“マゼンタ”、Dtah=3(011):“赤”、Dtah=4(100):“シアン”、Dtah=5(101):“緑”、Dtah=6(110):“青”、Dtah=7(111):“黒”とする。 N values are as follows: Dtah = 0 (000): “Not applicable”, Dtah = 1 (001): “Yellow”, Dtah = 2 (010): “Magenta”, Dtah = 3 (011): “Red Dtah = 4 (100): “Cyan”, Dtah = 5 (101): “Green”, Dtah = 6 (110): “Blue”, Dtah = 7 (111): “Black”.
さらに、N値化部604は、白のレベルも同様に二値化処理を行う。N値化部604は、RGB間の差の小さい画素(bk)が、閾値thbbkより値が小さい場合、白画素とする。また、N値化部604は、RGB間の差の大きい画素の場合、YMCBGRの6色相に分け、色相毎の閾値(thby、thbm、thbc、thbb、thbg、thbr)を用いて色相毎に二値化処理を行う。そして、各色相において色が薄い画素は、アクティブ画素(白画素)と判断される。
Further, the N-
また、黒に含まれる画素で、更に黒い(濃い)色を抽出した画素を濃い黒として、黒抽出時に使用する。図8は、グレー領域と、文字領域との関係を示した図である。図8に示す符号801が文字領域と、符号802がグレー領域となる。
In addition, among the pixels included in black, a pixel obtained by extracting a black (darker) color is used as a dark black and used during black extraction. FIG. 8 is a diagram showing the relationship between the gray area and the character area. A
第1網点検出部605は、画像データを順方向に走査して、網点を検出する。つまり、画像データの細かい網点は、スキャナ補正部102による平滑化処理で網点形状は無くなっているが、新聞の写真のような粗い網点は充分な平滑化が行われずに、網点のドット形状が残っている。そこで、第1網点検出部605は、この粗い網点を検出する。本実施の形態にかかる第1網点検出部605では、網点を検出するために、網点のパターンマッチングを行う。本実施の形態では、Dtah≠0の時に黒画素とし、N値化の白画素を白画素とする。なお、詳細な検出手順については後述する。
The first halftone
第2網点検出部606は、画像データを逆方向に走査して、網点を検出する。つまり、第1網点検出部605で順方向の走査により網点をとらない部分を逆読みすることで、網点を検出している。
The second
第1網点検出部605及び第2網点検出部606は、白パターンから白パターンの間に一定以上の網点パターンがある場合に、網点として検出する。さらに、網点パターンと網点パターンとの間隔が広い場合に非網点と判断することで、黒グラデーションの濃い背景の白抜き文字を非網点と判定できる。例えば、第1網点検出部605及び第2網点検出部606は、図9に示す画像データの、白抜き文字を非網点と判定する。また、図10に示す画像データに対して網点検出を行う場合、第1網点検出部605及び第2網点検出部606は、濃い背景において網点形状がほとんどないため、非網点と判断する。さらに、第1網点検出部605及び第2網点検出部606は、グラデーションの薄い背景上の濃い文字についても網点形状ほとんどないため、非網点と判断する。
The first halftone
ところで、一般的な文字は白地上に記載されているため、白地上文字において網点パターンは文字のエッジ近傍しかないので、白地上の文字が網点の領域として誤検出されることはほとんどない。 By the way, since a general character is written on the white ground, the halftone dot pattern in the white ground character is only near the edge of the character, so that the character on the white ground is hardly erroneously detected as a halftone dot region. .
なお、本実施の形態においては、パターンマッチングを白と白以外で行ったが、Y成分、M成分、C成分について、それぞれ独立に行なってもよい。Y成分、M成分、C成分のそれぞれについて独立して網点の検出処理を行うことで、印刷のインクの成分がYMCのため、インクのドット再現を正確に検出することが可能となる。 In this embodiment, pattern matching is performed for white and other than white, but the Y component, M component, and C component may be performed independently. By performing halftone dot detection processing independently for each of the Y component, the M component, and the C component, since the ink component of printing is YMC, it is possible to accurately detect the ink dot reproduction.
図6に戻り、第1グレー検出部607、第2グレー検出部608は、文字領域は濃く、文字周辺の領域は薄いことを用いて、文字領域の濃さより薄く、文字周辺の領域より濃い領域を中濃度のグレーとして判定する処理を行う。なお、グレー判定で使用する白地は、N値化の白画素とする。
Returning to FIG. 6, the first
そして、第1グレー検出部607が、画像データについて順方向でグレーの検出処理を行うのに対し、第2グレー検出部608は、逆方向でグレーの検出処理を行う。第2グレー検出部608が、逆方向で処理することにより、グレー領域先端がグレートならなかった領域をグレーと判定できる。
The first
一般的に文字を含む領域は、濃い色の画素領域と、薄い色(白地)の画素領域とで構成されるため、第1グレー検出部607、第2グレー検出部608はグレーを検出しない。これに対し、文字部にはない絵柄領域(例えば写真)は、様々な階調の色が存在しているため、第1グレー検出部607、第2グレー検出部608は中濃度の領域をグレーとして検出する。第1グレー検出部607、第2グレー検出部608によるグレーと判断される領域は、当該領域の周辺画素について白画素の数が一定値を超えるまでとする。
In general, since a region including characters is composed of a dark pixel region and a light (white) pixel region, the first
また、第1グレー検出部607、第2グレー検出部608は濃い色の画素についてもグレー画素として検出する。さらに、第1グレー検出部607、第2グレー検出部608は、グレー領域内で所定の数以上黒が連続している場合に、非グレー画素として検出する。ここでグレーと判断された画素領域を、グレー領域とする。これにより、黒が背景の白抜き文字を非グレー領域として検出することが可能になる。
The first
文字判定部609は、黒文字判定部611を備え、黒文字の領域及び色文字の領域を判断した後、二値化部511の出力として、画像分離モードにおいて利用する領域を切り替えるための二値画像(二値化領域)、マスク領域(網点領域またグレー領域)及び黒文字判定領域の3bitを、画素毎に出力する。
The
孤立点除去部603より出力された2値を、文字領域であるか否かを示す情報とする。また、孤立点除去部603より出力された情報で文字領域に含まれている画素で、第1網点検出部605及び第2網点検出部606により検出された網点領域に含まれておらず、第1グレー検出部607及び第2グレー検出部608で検出されたグレー領域に含まれておらず、下地領域(下地検出の出力)でなく、黒文字(後述する黒文字判定結果)でなければ、色文字内の画素とする。なお、下地の検出は、周知のいずれの手法を用いても良い。
The binary output from the isolated
なお、文字領域を判定する際に、下地領域、網点領域及びグレー領域と論理演算を行うのは、文字判定結果が本来、解像度の必要ない絵柄領域を文字領域としていることから、写真領域として補正をしているためである。特に写真領域は孤立点を非常に多く含んでおり、この補正を行うことにより、文字画像の圧縮率の向上し、画像も文字非文字の混在が少なくなり画質向上も望める。 In addition, when determining the character area, the logical operation with the background area, the halftone dot area, and the gray area is performed because the character determination result is a picture area that does not originally require a resolution. This is because of the correction. In particular, the photographic area contains a large number of isolated points, and by performing this correction, the compression rate of the character image is improved, and the image and the character non-character are less mixed, so that the image quality can be improved.
文字判定部609で、黒文字判定結果を文字判定結果から除外しているのは、黒文字については、別途判定結果を出力するため、圧縮率を向上されるために文字画像を固定値にするためである。
The reason why the
黒文字判定部611は、黒文字領域であるか否かを判定する。図11は、黒文字判定部611の構成を示すブロック図である。図11に示すように、黒文字判定部611は、文字判定部1101と、3ラインOR部1102と、絵柄判定部1103と、黒判定部1104と、第1抽出部1105、第2抽出部1106と、第1ミラー1107と、第2ミラー1108と、判定部1109とから構成される。
The black
文字判定部1101は、前段の領域抽出部121の出力結果である文字エッジ領域結果と色判定結果の論理演算をとり、文字エッジ領域であって、色領域でなければ、黒文字エッジ領域をして出力する。
The
3ラインOR部1102は、文字判定の結果である黒文字エッジの3ライン×1画素のORをとる。本来は、この3ラインORではなく、第1抽出部1105による抽出後に2ライン遅延を行って第2抽出部1106による抽出とライン遅延をあわせる必要があるが、第1抽出部1105の後でライン遅延をすると画像データを遅延する必要が出てくるため、ここで3ラインORをとることで、ライン遅延を吸収している。
The 3-line OR
絵柄判定部1103は、前段の領域抽出部121の出力結果である色判定結果、第1グレー検出部607の結果、第2グレー検出部608の結果、第1網点検出部605の結果、第2網点検出部606の結果のどこかは1つでも“on”ならば、絵柄と判定する。
The
黒判定部1104は、前段の領域抽出部121の出力結果である色判定結果が白黒以外の色ではなく、かつN値化で黒(Bkまたは、濃い黒)と判定された場合に、黒と判定する。
When the color determination result, which is the output result of the previous
第1抽出部1105は、文字判定部1101、3ラインOR部1102及び絵柄判定部1103の判定結果から、各画素について絵柄領域、中間領域又は黒文字領域なのか判定する。なお、詳細な処理フローについては後述する。
The
第1ミラー1107は、逆象(ミラー)画像を生成する。第2抽出部1106は、逆像(ミラー)画像で黒文字判定をする。第2ミラー1108は、逆象(ミラー)画像を元に戻す。これは、逆像での処理をパイプライン処理で実現するために、第2抽出部1106の前後でミラー処理をしている。なお、第2抽出部1106が行う処理は、第1抽出部1105と同一なので説明は省略する。
The
判定部1109は、第1抽出部1105と、第2抽出部1106の後の第2ミラー1108からの出力がともに黒文字領域で、かつ孤立点除去部603による処理結果の後の出力が文字ならば、黒文字と判定する。
If the outputs from the
このように、周辺画素の画像の状態を参照し、黒文字であるか否か判定することで、大きさ画像領域の文字のなかを判定することができる。 Thus, by referring to the state of the image of the surrounding pixels and determining whether or not the character is a black character, it is possible to determine whether the character is in the size image area.
本実施の形態では、文字エッジ領域と色領域とに基づいて、色や網点などを検出するため、精度よく検出できる。また、黒文字判定の濃度情報として、平滑化後のデータを用いるのは、網点で構成された文字に対しては、網点領域が少なく文字エッジ領域として判定されない場合もあるため、網点情報ではなく、平滑フィルタ処理後(文字エッジ領域でないので平滑化される)のデータを用いて、色が濃い領域のみを文字のなかとして判定している。また、新聞の写真の様にスクリーン線数の低い網点は、平滑化しても網点形状が残るので網点を検出し、カタログなどの一般的な原稿にあるスクリーン線数の高い網点は、平滑化されるため網点形状は無くなるので、網点面積率が30%から60%程度の領域は、グレー領域として検出される。 In the present embodiment, since the color, halftone dot, and the like are detected based on the character edge region and the color region, it can be detected with high accuracy. In addition, the smoothed data is used as the density information for black character determination because the halftone dot area is small for a character composed of halftone dots and may not be determined as a character edge area. Instead, using data after smoothing filter processing (smoothed because it is not a character edge region), only a dark region is determined as a character. In addition, halftone dots with low screen lines, such as newspaper photos, remain halftone even after smoothing, so halftone dots are detected, and halftone dots with high screen lines in general manuscripts such as catalogs are not Since the halftone dot shape disappears because it is smoothed, a region having a halftone dot area ratio of about 30% to 60% is detected as a gray region.
ところで、文字の先端部は幅が狭いので網点(非文字領域)となりにくく、例えば先端が文字エッジ領域で文字の中央部が網点と判定されると黒文字判定が中途半端な結果となり、見苦しくなる。そこで、本実施の形態にかかる複合機100では、上述した処理を行うことで、見苦しくなるのを避けることができる。
By the way, since the leading end of the character is narrow, it is difficult to form a halftone dot (non-character region). For example, if the leading end is a character edge region and the center of the character is determined to be a halftone dot, the black character determination is halfway and unsightly. Become. Therefore, in the
図5に戻り、二値画像生成部512は、二値画像+マスク画像に対して、可逆変換であるMMR圧縮を行う。黒画像生成部513は、黒文字画像に対して、可逆変換であるMMR圧縮を行う。
Returning to FIG. 5, the binary image generation unit 512 performs MMR compression, which is reversible conversion, on the binary image + mask image. The black
図12は、出力フォーマット変換部133で変換される画像データの概念を示した図である。図12に示すように、入力された画像データ201から、二値化部511で黒文字画像と、マスク画像と、二値画像とが、生成される。
FIG. 12 is a diagram illustrating the concept of image data converted by the output
第1解像度変換部514及び、第2解像度変換部515は、画像データに対して解像度変換を行い、解像度が低い画像データ(例えば150dpi)を生成する。
The first
背景画像生成部516は、二値化部511により出力された二値画像であって、マスク画像によるマスクが掛けられていない、画像データで白に相当する一定の画素値で構成される領域の画像データとして、非可逆圧縮(例えばJPG圧縮)を行う。
The background
文字画像生成部517は、二値画像以外の画像データを一定の画素値の画像データとして、非可逆圧縮(例えばJPG圧縮)を行う。
The character
本実施の形態おいて、背景画像を一定の画素値のデータにするのは、圧縮率を向上させるためである。また、文字画像データおいて、背景領域を一定の画素値にするのも、圧縮率の向上させるためである。 In the present embodiment, the reason why the background image is data having a constant pixel value is to improve the compression rate. In addition, the reason why the background area is set to a constant pixel value in the character image data is to improve the compression rate.
解像度変換部502が行う解像度変換において、文字画像は、背景画像ほど解像度が必要ではない。このため、文字画像の解像度を75dpi程度としてもよい。また、画像処理モードが文字モードである場合、解像度変換部502は、背景画像と文字画像とを解像度75dpiでJPG形式の画像ファイルを生成する。文字に関して解像度を低下させるのは、文字の解像度を、可逆圧縮MMRを用いて解像度で保証されているため、JPG画像の解像度を低下させて階調劣化させても問題とならないためである。本実施の形態にかかる複合機100では、文字画像の解像度を低下させることで、ファイルサイズを小さくすることが可能になる。なお、本実施の形態では、文字画像の解像度を低下させてファイルサイズを小さくしたが、画像データの階調数など(解像度以外の)画像品質を低下させて、ファイルサイズを小さくしてもよい。
In the resolution conversion performed by the
また、HDD106に蓄積された画像データとともに、書誌情報として画像処理モードが格納されている。この画像処理モードが、文字モードの場合に、蓄積された画像データについて、文字として抽出された領域全てについて圧縮率を高くすることができる。
In addition to the image data stored in the
本実施の形態においては、蓄積された画像データに対して、マスク画像を重畳することで背景画像を、二値画像を重畳することで文字画像を生成できる。この生成された文字画像及び背景画像の間には、同じ情報が含まれていることもある。このように、文字画像と背景画像とによる構成が冗長なのは、入力フォーマット変換部135が画像分離モードに従って、処理を切り換えるために必要だからとする。
In the present embodiment, a background image can be generated by superimposing a mask image on a stored image data, and a character image can be generated by superimposing a binary image. The same information may be included between the generated character image and background image. As described above, the reason why the configuration of the character image and the background image is redundant is that it is necessary for the input
背景画像生成部516、及び文字画像生成部517のJPG圧縮は、それぞれ異なる特性の量子化テーブルを用いて圧縮を行なうものとする。なお、JPG圧縮は、既存の技術を用いれば良く、例えば、特開2005−303979号公報に記載されているように行ってもよい。
The JPG compression of the background
背景画像生成部516、及び文字画像生成部517のJPG圧縮は、画像データをブロック単位(例えば、8×8画素単位)で切り出した後、切り出されたDCTブロックデータに対して離散コサイン変換を行い周波数空間へ変換する。
In the JPG compression of the background
この際に、圧縮レベルを左右する量子化処理においては、Y成分とCbCr成分で異なる基準量子化テーブルを用いて量子化処理を行う。 At this time, in the quantization process that affects the compression level, the quantization process is performed using different reference quantization tables for the Y component and the CbCr component.
基準量子化テーブル値Qijに対して、実際に量子化で使う量子化テーブル値Q’ij
は、クオリティファクター(qf)を用いて算出される。なお、qfは、0〜100の間の値とする。そして、qfが50より小さい場合の場合、式(1)で算出する。
Q’ij = Qij ÷ qf……(1)
また、qfが50以上の場合、式(2)で算出する。
Q’ij = Qij ×(100−qf)÷50……(2)
The quantization table value Q′ij that is actually used for quantization with respect to the reference quantization table value Qij
Is calculated using the quality factor (qf). Note that qf is a value between 0 and 100. And when qf is smaller than 50, it calculates by Formula (1).
Q′ij = Qij ÷ qf (1)
Further, when qf is 50 or more, it is calculated by the equation (2).
Q′ij = Qij × (100−qf) ÷ 50 (2)
ところで、一般的な基準量子化テーブルは、人間の視覚は低周波には敏感で、高周波には鈍感であるという性質に基づいて作成されている。さらに、一般的な量子化テーブルにおいて、色情報が輝度情報より識別能力が低いため、輝度情報用より周波数をカットする量を多くしている。 By the way, a general reference quantization table is created based on the property that human vision is sensitive to low frequencies and insensitive to high frequencies. Furthermore, in a general quantization table, since the color information has a lower discriminating ability than the luminance information, the frequency cut amount is larger than that for the luminance information.
これに対し、本実施の形態にかかる背景画像生成部516は、量子化処理を行う際に、qf=20〜30程度で画像データを圧縮する。このため、一般的な量子化テーブルを使用するとブロックノイズが発生しやすくなる。特にJPGの基本単位(8×8)のブロックノイズは、ブロック内の平均濃度をあらわすDC成分の値に大きく影響を受ける。このJPGの基本単位のブロックノイズを低減するために、図13に示すような、輝度差及び色差ともにDC成分を保存した基準量子化テーブルを用いる。そして、qf=25を設定する場合、式(1)と図13に示す基準量子化テーブルにより、図14に示す量子化テーブルが算出される。そこで、背景画像生成部516は、図14に示された量子化テーブルを用いて、量子化処理を行う。
On the other hand, the background
文字画像生成部517が、一般的な基準量子化テーブルでJPG圧縮を行うと混色が発生する場合がある。例えば、図15に示すような、複数の色(赤、青)が存在している8×8のブロックに対して、一般的な基準量子化テーブルでJPG圧縮を行なうと、高周波数成分をカットしているため折り返し歪みの影響のため、赤と青との間で混色が生じる。この問題を回避するために、文字画像生成部517は、図16に示す基準量子化テーブルを使用する。図16に示す基準量子化テーブルは、色差成分の全体の周波数を保存するような色差成分を保存した基準量子化テーブルとする。そして、図16に示す基準量子化テーブルと、qf=20の値により、図17に示す量子化テーブルが算出される。この量子化テーブルにおける輝度成分は、上述したように文字の解像度にMMRの解像度で決定されるため、さほど重要ではない。そして、文字画像生成部517は、図17に示す量子化テーブルを用いて、量子化処理を行う。
When the character
つまり、背景画像の量子化テーブルは、輝度差及び色差ともにDC成分を保存する量子化テーブルを使用して、画像の滑らかな部分のブロックノイズを軽減している。そして、文字画像の色差成分を保存した量子化テーブルは、背景画像の輝度を保存した量子化テーブル等と比べて、高周波を保存する量子化テーブルを使用して、8×8内のブロックの混色を抑止している。 That is, the quantization table of the background image uses a quantization table that stores the DC component for both the luminance difference and the color difference, thereby reducing block noise in a smooth portion of the image. The quantization table that stores the color difference component of the character image uses a quantization table that stores high frequencies as compared to the quantization table that stores the luminance of the background image. Is suppressed.
換言すれば、図18に示す関係にあることを示している。すなわち、文字画像の量子化テーブルにおいては、輝度及び色差ともに、DC成分を重視し、背景画像の量子化テーブルにおいては、輝度については標準で、色差については周波数重視とする。 In other words, the relationship shown in FIG. That is, in the quantization table for character images, both the luminance and the color difference are emphasized on the DC component, and in the quantization table for the background image, the luminance is standard and the color difference is emphasized on the frequency.
画像ファイル合成部518は、二値画像生成部512の出力(MMR)、黒画像生成部513の出力(MMR)、背景画像生成部516の出力(jpg)、文字画像生成部517の出力(jpg)の4つの画像データを合成し、1つの画像データを生成する。このときのファイル形式は、汎用フォーマット(PDFファイルなど)を用いてもよい。また、画像ファイル合成部518は、入力フォーマット変換部135に受け渡す場合、4つの画像データそれぞれを出力しても良い。
The image
データi/f部506は、NIC105に出力すべきフォーマットの画像データを出力、又は入力フォーマット変換部135に出力すべき4つの画像データを出力する。
The data i /
図1に戻り、データi/f部134では、出力フォーマット変換部133から入力された画像データをNIC105又は入力フォーマット変換部135に出力する。
Returning to FIG. 1, the data i /
入力フォーマット変換部135は、画像データを任意のフォーマット形式に変換して出力する。
The input
図19は、入力フォーマット変換部135の構成を示すブロック図である。図19に示すように、入力フォーマット変換部135は、TIFフォーマット展開部1801と、JPGフォーマット展開部1802と、圧縮フォーマット展開部1803と、出力選択部1804とを備える。
FIG. 19 is a block diagram showing the configuration of the input
TIFフォーマット展開部1801、JPGフォーマット展開部1802、圧縮フォーマット展開部1803は、各フォーマットのbitマップに展開する。
The TIF
出力選択部は3つのフォーマットのうち、一つのフォーマットを選択して出力と同時にRGBデータをYMCBkにデータを変換する。 The output selection unit selects one of the three formats and simultaneously converts the RGB data into YMCBk.
例えば、入力画像データがTIFフォーマットであれば、TIFフォーマット展開部1801がビットマップデータに展開する。JPGフォーマットであれば、JPGフォーマット展開部1802が、ビットマップデータに展開する。さらに、圧縮フォーマットであれば、圧縮フォーマット展開部1803が展開する。
For example, if the input image data is in the TIF format, the TIF
圧縮フォーマット展開部1803は、画像ファイル展開部1811、黒画像展開部1812と、二値画像展開部1813と、背景画像展開部1814と、文字画像展開部1815と、画像ファイル合成部1816と、合成選択部1817から構成される。この圧縮フォーマット展開部1803は、出力フォーマット変換部133から入力された4つの画像データを用いて処理を行う。
The compression
画像ファイル展開部1811は、図5に示す圧縮フォーマット生成部505により生成されたファイルの中の4つファイルを、黒画像展開部1812、二値画像展開部1813、背景画像展開部1814、文字画像展開部1815にそれぞれ対応した画像データとして出力する。
The image
二値画像展開部1813は、MMRを伸張してビットマップに二値画像とマスク画像とを展開する。
A binary
黒画像展開部1812は、MMRを伸張してビットマップに黒文字画像を展開する。 The black image developing unit 1812 expands the MMR and develops a black character image into a bitmap.
背景画像展開部1814は、JPG形式の背景画像をビットマップに展開する。文字画像展開部1815は、文字画像のJPGをビットマップに展開する。
The background
合成選択部1817は、デバイスi/f部136により入力された画像分離モードに従って、展開、合成手法を選択する。
The
画像ファイル合成部1816は、合成選択部1817で選択された合成手法に従って、展開された4つのビットマップデータから、1枚のビットマップデータを合成する。
The image
合成選択部1817が、画像分離モードとして、標準モードを選択した場合、二値画像展開部1813が、二値画像ありでかつマスク画像なしの時に、補正二値画像を出力する。そして、画像ファイル合成部1816は、補正二値画像が入力された場合に、文字画像展開部1815の出力結果である画像データの画素を出力する。また、画像ファイル合成部1816は、二値画像展開部1813の出力が補正二値画像でなければ、背景画像展開部1814の出力結果である画像データの画素を出力する。さらに、黒画像展開部1812の出力結果が黒文字であれば、画像データの画素として黒画素を出力する。出力された画素により、1枚の画像データが生成される。なお、文字と非文字の解像度は二値画像の解像度となる。
When the
一方、合成選択部1817が、画像分離モードとして、文字モードを選択した場合、二値画像展開部1813が、二値画像ありの時に、補正二値画像を出力する。そして、画像ファイル合成部1816は、補正二値画像が入力された場合に、文字画像展開部1815の出力結果である画像データの画素を出力する。また、画像ファイル合成部1816は、二値画像展開部1813の出力が補正二値画像でなければ、背景画像展開部1814の出力結果である画像データの画素を出力する。この際、補正二値画像とマスク画像との境界のマスク画像(背景画像)の方には、文字画像の情報がある(画像圧縮により背景画像上の文字の情報が混ざっている)ので、境界領域を周辺画像の画像に置換する。さらに、黒画像展開部1812の出力結果が黒文字であれば、画像データの画素として黒画素を出力する。出力された画素により、1枚の画像データが生成される。なお、文字と非文字の解像度は二値画像の解像度となる。
On the other hand, when the
図12に示す説明図において、画像分離モードが標準モードの場合、“新発売”の文字が絵柄として判定されてしまうので、小さな文字である時に読みにくくなる可能性がある。これに対し、画像分離モードが文字モードの場合、“新発売”の文字が文字として判定されるので、文字として適切な処理が行われ、文字の判読性が向上する。 In the explanatory diagram shown in FIG. 12, when the image separation mode is the standard mode, the character “newly released” is determined as a design, so that it may be difficult to read when the character is small. On the other hand, when the image separation mode is the character mode, the “newly released” character is determined as a character, so that an appropriate process is performed as the character, and the character readability is improved.
このように、利用者により選択された画像分離モードと、画像データにおける各領域の判定結果と、に基づいて、画像データを生成することで、利用者の好みに応じた画像データを生成することが可能となる。なお、当該画像データの生成は、紙に印刷する場合に限らず、モニタ表示する場合にも適用できる。 Thus, by generating image data based on the image separation mode selected by the user and the determination result of each area in the image data, it is possible to generate image data according to the user's preference. Is possible. Note that the generation of the image data is applicable not only when printing on paper but also when displaying on a monitor.
そして、生成された画像データは、圧縮伸張処理部132により圧縮された後、各信号と共に対応付けてHDD106に格納しても良いし、各信号と共に汎用バスを介して伸張処理部107に出力し、印刷処理を行ってもよい。
The generated image data may be compressed by the compression /
図1に戻り、コントローラ104は、HDD106の画像データを、汎用バスを介して伸張処理部107に送出する。
Returning to FIG. 1, the controller 104 sends the image data of the
伸張処理部107は、圧縮処理されていた画像データを元のRGB各8bitデータ、文字分離信号(2bit)、及び色領域信号(1bit)に伸張し、プリンタ補正部108に送出する。伸張処理部107に格納される画像データは、HDD106に格納されている領域毎に抽出された画像データでも良いし、入力フォーマット変換部135ですでに合成された画像データでもよい。以下に示す説明では、主にHDD106に格納されている領域毎に抽出された画像データが入力された場合について説明する。
The
プリンタ補正部108は、中間調処理部141と、プリンタγ部142と、色補正処理部143と、エッジ量検出部144と、基準記憶部145と、特定部146とを備え、画像データの補正処理を行う。
The printer correction unit 108 includes a
基準記憶部145は、画像分離モードに従って、文字分離信号(文字エッジ(エッジ領域)であるか否かを示す情報(1bit)、及び絵柄領域であるか否かを示す情報(1bit)を含む)及び色領域信号(色領域であるか否か)から、文字エッジ領域信号(“あり”又は“なし”)に変換する基準を保持する。
In accordance with the image separation mode, the
図20は、基準記憶部145が記憶する、画像分離モードが標準モードの場合の各信号の対応関係を示す図である。例えば、レコード1901は、標準モードの場合、エッジ領域であり(エッジ領域が“ある”)、絵柄領域である(絵柄領域が“ある”)場合、色領域に関係なく、その他(絵柄)領域であると判断され、文字エッジ領域信号が“なし”になることを示している。
FIG. 20 is a diagram illustrating a correspondence relationship of each signal stored in the
図21は、基準記憶部145が記憶する、画像分離モードが文字モードの場合の各信号の対応関係を示す図である。例えば、レコード2001は、文字モードの場合、エッジ領域であり(エッジ領域が“ある”)、絵柄領域である(絵柄領域が“ある”)場合、色領域にかかわらず、色文字エッジ領域であると判断され、文字エッジ領域信号は“あり”になることを示している。
FIG. 21 is a diagram illustrating a correspondence relationship of each signal stored in the
このように、本実施の形態においては、エッジ領域が“ある”及び絵柄領域が“ある”の領域において、文字を優先する時は、エッジ領域とし特定され、絵柄を優先する時は、絵柄領域として特定される。 As described above, in the present embodiment, in the area where the edge area is “present” and the pattern area is “present”, the character area is specified as the edge area, and the pattern area is specified when priority is given to the pattern. Identified as
特定部146は、基準記憶部145に記憶された対応関係及び、利用者に入力された画像分離モードに従って、文字分離信号(2bit)を、文字エッジ領域信号(1bit)に変換する。つまり、特定部146は、変換された文字エッジ領域信号(1bit)により、各領域が文字領域か否かを特定したことになる。
The specifying
色補正処理部143は、RGB画像データをYMCBkデータに変換すると共に、文字エッジ領域信号で“あり”及び色領域信号で“ない”領域に対して、黒文字としてBkの単色データに置換する。 The color correction processing unit 143 converts the RGB image data into YMCBk data and replaces the “existing” character edge region signal and the “not” color region signal with black color Bk monochromatic data.
具体的には、色補正処理部143は、黒文字エッジ領域以外では、RGB画像データを一次の濃度マスキング法等でCMYデータに変換する。その後、色補正処理部143は、画像データの色再現を向上させるために、C,M,Yデータの共通部分をUCR(下色除去)処理してBkデータを生成し、CMYBkデータを出力する。 Specifically, the color correction processing unit 143 converts the RGB image data into CMY data by a primary density masking method or the like except for the black character edge region. Thereafter, in order to improve color reproduction of the image data, the color correction processing unit 143 generates Bk data by performing UCR (under color removal) processing on the common part of the C, M, and Y data, and outputs the CMYBk data. .
また、色補正処理部143は、黒文字エッジ領域において、スキャナのRGB読み取り位置ずれで原稿の黒文字が色付いたり、プロッタのYMCBkのプリンタする時の重ね位置ずれがあると判読性が低下するため、黒文字エッジ領域のみ輝度に相当する信号でBk単色データ(C,M,Yは、プリントアウトしてないデータ)として出力する。 Further, the color correction processing unit 143 reduces the readability when the black character of the original is colored due to the RGB reading position deviation of the scanner in the black character edge region, or when there is an overlay position deviation when printing the YMCBk of the plotter. A signal corresponding to luminance only in the edge region is output as Bk single color data (C, M, and Y are unprinted data).
プリンタγ部142は、画像データに対して、特定部146により変換された文字エッジ領域信号(換言すれば、エッジ領域であるか否か)、及びプロッタのγ特性に応じてγ補正処理を行う。本実施の形態にかかるプリンタγ部142は、γ特性に応じて、色文字エッジ領域と黒文字エッジ領域ではコントラスとを強調させたγを選択して、その他(絵柄)では、入力に忠実なγを選択する。そして、選択したγ特性を用いてγ補正処理を行うことになる。
The
このように、本実施の形態においては、エッジ領域と判定された場合にはコントラスト強調処理を行い、絵柄と判定された場合には、忠実なγ特性によるγ補正処理を行うこととしている。 As described above, in this embodiment, the contrast enhancement process is performed when the edge region is determined, and the γ correction process based on the faithful γ characteristic is performed when the edge region is determined.
なお、本実施の形態では、特定部511により特定された各領域の種別に応じてγ補正処理を異ならせる例について説明したが、γ補正に制限するものではなく、画像処理であればよい。
In the present embodiment, the example in which the γ correction processing is changed according to the type of each area specified by the specifying
エッジ量検出部144は、画像データ内の急峻な濃度変化をエッジ量として検出する。 The edge amount detection unit 144 detects a steep density change in the image data as an edge amount.
中間調処理部141は、画像データに対して、ディザ処理・誤差拡散処理などの量子化を行い、階調補正を行う。このように、プロッタ109の明暗特性に基づく補正処理や階調変換処理を行う。ここでの階調変換処理は、誤差拡散やディザ処理を用いて各色8bitから2bitへと画像データの変換を行う。
The
本実施の形態にかかる中間調処理部141は、利用者により入力された画像処理モードに従って、プロッタの階調特性やエッジ量に応じてディザ処理等の量子化を行う。量子化処理をする際に色文字エッジ領域と黒文字エッジ領域では、鮮鋭性を重視して解像力を重視した量子化処理を行い、その他(絵柄)では、階調性を重視した量子化処理をする。これにより、文字の判読性が向上する。
The
図22は、各画像処理モードで各領域において実行される処理内容を示した図である。図22に示すように、画像処理モードが、標準モード、文字モード又は写真モードに従って、各領域における処理内容が変化する。図22においては、フィールド2101、2102が、標準と異なるところである。
FIG. 22 is a diagram showing the processing contents executed in each area in each image processing mode. As shown in FIG. 22, the processing content in each region changes according to the image processing mode according to the standard mode, character mode, or photo mode. In FIG. 22,
図1に戻り、プロッタ109はレーザービーム書き込みプロセスを用いた転写紙印字ユニットで、2bitの画像データを感光体に潜像として描画し、トナーによる作像/転写処理後、転写紙にコピー画像を形成する。
Returning to FIG. 1, the
NIC105は、外部PC端末130との間でデータの送受信を行う。送受信するデータとしては、画像データ等がある。
The NIC 105 transmits and receives data to and from the
ネットワークを介して外部PC端末130に画像データを配信する配信スキャナとして動作する場合は、画像データは汎用バスを通って、コントローラ104に送られる。コントローラ104では、色変換処理、フォーマット処理などを行う。階調処理では配信スキャナ動作時のモードに従った階調変換処理を行う。フォーマット処理では、JPEGやTIFF形式への汎用画像フォーマット変換などを行う。その後、画像データはNIC(ネットワーク・インタフェース・コントローラ)105を介して外部PC端末130に配信される。
When operating as a distribution scanner that distributes image data to the
また、NIC105は、プリンタ補正部108で補正した画像データを、他のネットワークプリンタ等に送信する機能を備えている。つまり、プリンタ補正部108で生成された画像データが、図示しない通信路を介して、NIC105に送信されてきた場合、NIC105は、他の装置に対して画像データを送信する。 The NIC 105 has a function of transmitting the image data corrected by the printer correction unit 108 to another network printer or the like. That is, when the image data generated by the printer correction unit 108 is transmitted to the NIC 105 via a communication path (not shown), the NIC 105 transmits the image data to another device.
また、ネットワークを介して、外部PC端末130からプリントアウトするプリンタとして動作する場合、コントローラ104は、NIC105が受信したデータから、画像及びプリント指示するコマンドを解析し、画像データとして、印刷できる状態にビットマップ展開して、展開したデータを圧縮してデータを蓄積する。蓄積されたデータは随時大容量の記憶装置であるHDD106に書き込まれる。画像データを蓄積する時に、書誌情報もHDD106に書き込む。
Further, when operating as a printer that prints out from the
外部PC端末130からの画像データをプロッタに出力するデータの流れを説明する。外部PC端末130からから指示するコマンドは、図示せぬCPUがコマンドを解析し、ページメモリ131に書き込む。そして、データi/f部134が画像データを受信した場合、当該画像データを入力フォーマット変換部135に出力する。そして、入力フォーマット変換部135が、画像データをビットマップデータに展開して、圧縮伸張処理部132に圧縮を行い、ページメモリ131に書き込む。この後、HDD106に格納される。入力フォーマット変換部135が展開する画像は、JPGやTIFF等のフォーマット形式による自然画像データとする。
A data flow for outputting image data from the
次にコントローラ104は、HDD106の画像データを、汎用バスを介して伸張処理部107に送出する。伸張処理部107は圧縮処理されていた画像データを元の8bitデータに伸張し、プリンタ補正部108に送出する。プリンタ補正部108では、RGB入力ならば、色補正処理部にてYMCBkデータに変換をする。次にYMCBkそれぞれ独立にγ補正処理、中間調処理などが行われ、プロッタの明暗特性の補正処理や階調数変換処理を行う。ここでの階調数変換処理では、誤差拡散やディザ処理を用いて8bitから2bitへと画像データの変換を行う。プロッタはレーザービーム書き込みプロセスを用いた転写紙印字ユニットで、2bitの画像データを感光体に潜像として描画し、トナーによる作像/転写処理後、転写紙にコピー画像を形成する。
Next, the controller 104 sends the image data of the
複合機100においては、一般に原稿をスキャナにより読み取り、画像データをデジタルデータに変換するとともに、原稿の画像領域を、異なる特徴を有する領域に分類する。注目画素がそのいずれの領域に属するものか、判定された結果に従い、画像データに対して種々の画像処理を施す。これにより、出力画像の画像品質が大きく向上させられる。
In the
次に、本実施の形態にかかる複合機100における原稿の読み取りからHDDに格納する処理について説明する。図23は、本実施の形態にかかる複合機100における上述した処理の手順を示すフローチャートである。
Next, a process of reading an original from the
まず、スキャナ101が、原稿を読み取り、画像データを生成する(ステップS2301)。次に、スキャナ補正部102の領域抽出部121が、画像データから、視覚的に異なる種別毎の領域を抽出する(ステップS2302)。また、領域抽出部121は、画素毎に、像域分離信号及び色領域信号を出力する。また、抽出される領域としては、黒文字エッジ領域、色文字エッジ領域、その他(写真領域)の絵柄領域の三種類の領域とする。
First, the
その後、スキャナγ部122及びフィルタ処理部123が、画像データ(蓄積画像データ、エッジ領域、及び絵柄領域の画像データ)に対して、反射率リニアから濃度リニアのデータに変換するとともに、像域分離信号に従って各画素に切り換えたフィルタリングを実行する(ステップS2303)。
Thereafter, the
そして、圧縮処理部103が、画像データ(蓄積画像データ、エッジ領域、及び絵柄領域の画像データ)に対して、圧縮処理を行う(ステップS2304)。
Then, the
次に、コントローラ104が、HDD106に画像データを格納する(ステップS2305)。 Next, the controller 104 stores the image data in the HDD 106 (step S2305).
上述した処理手順により、抽出された領域を示す画像データがHDD106に格納される。
The image data indicating the extracted area is stored in the
次に、本実施の形態にかかる複合機100におけるHDD106に格納された画像データから、コントローラ104で処理を行った後、プロッタ109で印刷するまでの処理について説明する。図24は、本実施の形態にかかる複合機100における上述した処理の手順を示すフローチャートである。
Next, processing from image data stored in the
まず、伸張処理部107は、コントローラ104がHDD106から読み込んだ画像データ(蓄積画像データ、エッジ領域、及び絵柄領域の画像データ)と、像域分離信号及び色領域信号との入力を受け付け、当該画像データの伸張処理を行う(ステップS2401)。その後、プリンタ補正部108は、コントローラ104から、画像処理モード及び画像分離モードの入力を受け付ける。当該画像処理モード及び画像分離モードは、入力デバイス110から入力されたものとする。
First, the
次に、特定部146が、文字分離信号(2bit)、基準記憶部145に記憶された対応関係、及び利用者に入力された分離モードに基づいて、文字エッジ領域信号(1bit)に変換し、文字領域であるか否かを特定する(ステップS2402)。
Next, the
そして、色補正処理部143、プリンタγ部142及び中間調処理部141が、文字エッジ領域信号(1bit)及び色領域信号で特定される各領域に対して、画像処理を行う(ステップS2403)。特に、プリンタγ部142は、エッジ領域である場合には、コントラスト強調を行い、絵柄と判定された場合には、忠実なγ特性によるγ補正処理を行うこととして、領域に対応する画像処理を行うこととしている。
Then, the color correction processing unit 143, the
その後、プロッタ109が、画像処理が行われた画像データを用いて印刷処理を行う(ステップS2404)。
Thereafter, the
本実施の形態に係る複合機100では、HDD106に格納された画像データについて印刷等を行う度に、入力された当該画像処理モード及び画像分離モードに従って画像処理を異ならせるため、利用に適した画像処理が実行できる。
In
次に、本実施の形態にかかる、出力フォーマット変換部133の二値化部511の第1網点検出部605における網点検出処理について説明する。図25は、本実施の形態にかかる第1網点検出部605における上述した処理の手順を示すフローチャートである。本実施の形態では、処理対象となる画素を注目画素とする。
Next, a halftone dot detection process in the first halftone
まず、第1網点検出部605は、注目画素を含む予め定められたサイズのブロックが、白パターンに一致するか否か判断する(ステップS2501)。図26は、白パターンを表すブロックの例を示した図である。
First, the first halftone
白パターンに一致すると判断した場合(ステップS2501:Yes)、第1網点検出部605は、網点カウント初期化する(ステップS2502)。初期化するパラメータは、count_bk= tha_count、state=0、SS[I]=0(なお、tha_count:白領域間の距離(閾値)、SS[I]:1ライン前の情報)とする。
If it is determined that the pattern matches the white pattern (step S2501: Yes), the first halftone
一方、白パターンに一致しないと判断した場合(ステップS2501:No)、第1網点検出部605は、網点判定処理を行う(ステップS2503)。
On the other hand, if it is determined that the pattern does not match the white pattern (step S2501: No), the first halftone
このステップS2503においては、下記条件の時に、stateを1にする。
・SS[I]=1
・1画素前の結果が網点である。
・count_bkが、0である時。
In step S2503, state is set to 1 under the following conditions.
・ SS [I] = 1
-The result one pixel before is a halftone dot.
・ When count_bk is 0.
さらに、ステップS2503においては、count_bkが、0である時、SS[I]を1にする。 Further, in step S2503, when count_bk is 0, SS [I] is set to 1.
その後、第1網点検出部605は、網点間隔の判定を行う(ステップS2504)。ステップS2504において、state=0でかつ、count > tha_count_s(なお、tha_count_s:非網点領域上の網点パターン間の距離(閾値)とする)であれば、下記に示す変数の初期化を行う。
count_bk=tha_count
SS[I]=0
Thereafter, the first halftone
count_bk = tha_count
SS [I] = 0
また、ステップS2504において、count_bk, count_c, count_m, count_yのいずれかが、0でかつ、count>tha_count_e(なお、tha_count_e:非網点領域上の網点パターン間の距離(閾値)とする)であれば、下記に示す変数の初期化を行う。
count_bk=tha_count
state=0
SS[I]=0
In step S2504, any of count_bk, count_c, count_m, and count_y is 0 and count> tha_count_e (where tha_count_e is a distance (threshold) between halftone dot patterns on a non-halftone dot region). For example, the following variables are initialized.
count_bk = tha_count
state = 0
SS [I] = 0
そして、ステップS2504において、上記の判定及び初期化が終了した後、count=count+1を行う。 In step S2504, after the above determination and initialization are completed, count = count + 1 is performed.
次に、第1網点検出部605は、網点パターンを用いて、網点カウントを行う(ステップS2505)。図27は、網点パターンの例を示した図である。第1網点検出部605が、注目画素を含むブロックが、網点パターンに一致した場合に、countを0にすると共にcount_bkを-1する。
Next, the first halftone
そして、第1網点検出部605は、網点か否かの状態判定を行う(ステップS2506)。本処理手順においては、state=1であれば、網点と判定する。
Then, the first halftone
網点と判定した場合(ステップS2506:網点)、第1網点検出部605は、注目画素の左右(12画素)にステップS2501の白パターンが両側に存在すると共に、count_xが初期値であれば、細線と判断して、SS[I]=0とする(ステップS2507)。
When the halftone dot is determined (step S2506: halftone dot), the first halftone
その後、第1網点検出部605は、state=1にして、網点として結果を出力する(ステップS2509)。
Thereafter, the first halftone
一方、網点ではないと判定した場合(ステップS2506:非網点)、第1網点検出部605が、state=0にして、非網点として結果を出力する(ステップS2508)。
On the other hand, if it is determined that it is not a halftone dot (step S2506: non-halftone dot), the first
上述した処理手順により、第1網点検出部605が網点を検出することが可能になる。
By the processing procedure described above, the first halftone
次に、本実施の形態にかかる、第1グレー検出部607、第2グレー検出部608におけるグレー検出処理について説明する。図28は、本実施の形態にかかる第1グレー検出部607、又は第2グレー検出部608における上述した処理の手順を示すフローチャートである。本処理手順では、第1グレー検出部607の場合について説明するが、第2グレー検出部608も同様の処理手順となる。
Next, gray detection processing in the first
まず、第1グレー検出部607は、前処理を行う(ステップS2801)。なお、以下に示す変数MSは1画素の前まで処理結果で、グレー検出してから白画素の数とする。配列SS[i]は1ライン前の処理結果とする。そして、第1グレー検出部607は、前処理として、変数MSと配列SS[i]とを比較し、1ライン前の処理結果及び1画素前の処理結果のうち、大きい値を取得する。なお、処理対象となる画素を注目画素とする。
First, the first
第1グレー検出部607は、注目画素を含むブロックと、グレーパターンとが一致するか否かマッチングを行う(ステップS2802)。図29は、グレーパターンの例を示した図である。つまり、注目画素を含むブロックの画素値が中濃度であって、上記グレーパターンと一致している場合に、変数MS=5、S[i]としてグレー画素とする。なお、中濃度となる画素値とは、N値化された画素値であって、閾値Dtah=0の場合において、非白画素の時が該当する。
The first
グレーパターンに一致していない場合(ステップS2802:No)、第1グレー検出部607は、注目画素が、N値化された場合の白画素であるか否か判断する(ステップS2803)。白画素であると判断した場合(ステップS2803:Yes)、第1グレー検出部607は、変数MS>0か否か判断する(ステップS2804)。
When not matching with the gray pattern (step S2802: No), the first
変数MS>0であると判断された場合(ステップS2804:Yes)、第1グレー検出部607は、MS=MS−1、つまり変数MSから‘1’減算する(ステップS2805)。
If it is determined that the variable MS> 0 (step S2804: Yes), the first
一方、変数MS>0ではないと判断された場合(ステップS2804:No)、第1グレー検出部は、ステップS2808に進む。 On the other hand, if it is determined that the variable MS> 0 is not satisfied (step S2804: NO), the first gray detection unit proceeds to step S2808.
また、白画素ではないと判断された場合(ステップS2803:No)、及びステップS2805の処理が終了した後、第1グレー検出部607は、変数MS>0か否か判断する(ステップS2806)。
If it is determined that the pixel is not a white pixel (step S2803: NO), and after the process of step S2805 is completed, the first
そして、変数MS>0ではないと判断された場合(ステップS2806:No、ステップS2804:No)、注目画素が、非グレー画素と判断する(ステップS2808)。 If it is determined that the variable MS> 0 is not satisfied (step S2806: NO, step S2804: NO), the target pixel is determined to be a non-gray pixel (step S2808).
また、グレーパターンに一致した場合(ステップS2802:Yes)、及びMS>0と判断された場合(ステップS2806:Yes)、第1グレー検出部607は、注目画素をグレー画素と判断する(ステップS2807)。
If the gray pattern is matched (step S2802: YES), and if MS> 0 is determined (step S2806: YES), the first
その後、第1グレー検出部607は後処理を行う(ステップS2809)。後処理として、第1グレー検出部607は、色地か白地、且つ変数MS>1であれば、SS[I]=MS−1を設定する。さらに、第1グレー検出部607は、Bk画素であり、且つMS>0であれば、SS[I]=MS−1を設定する。
Thereafter, the first
さらに、第1グレー検出部607は、bkカウントを行う。例えば、bk画素の連続数をカウントして、連続数が閾値thg_count1以上であれば、bk連続ありと判定する。例えば、閾値thg_countが12で、連続数がNの時は、bk連続ありは、N−thg_count+1回となる。そして、第1グレー検出部607は、連続数あり時は、MSから‘1’減算する。
Further, the first
次に、本実施の形態にかかる出力フォーマット変換部133の二値化部511の黒文字判定部611内の判定部1109における黒文字などの領域判定処理について説明する。図30は、本実施の形態にかかる判定部1109における上述した処理の手順を示すフローチャートである。本処理手順においては、3ラインOR部1102の出力を黒文字エッジ、絵柄判定部1103の判定結果を絵柄、黒判定部1104の判定結果を黒として説明する。
Next, an area determination process such as a black character in the
まず、判定部1109は、注目画素が黒文字エッジか、絵柄か、それ以外か判断する(ステップS3001)。黒文字エッジと判断された場合、黒文字領域とし(ステップS3009)。絵柄と判断された場合、注目画素を、絵柄領域とする(ステップS3008)。
First, the
次に、判定部1109は、注目画素を含む注目ラインが、高濃度(黒)であるか否か判定する(ステップS3002)。注目ラインが黒画素判定の結果が高濃度(黒)でなければ(ステップS3002:No)、注目画素を中間領域とする(ステップS3007)。
Next, the
そして、判定部1109が、注目ラインが高濃度(黒)であると判定した場合(ステップS3002:Yes)、注目ラインの1つ前のラインが絵柄か否か判断する(ステップS3003)。そして、線分処理後の1ライン前の判定結果が絵柄領域であると判断した場合(ステップS3003:絵柄)であれば、判定部1109は、注目画素を絵柄領域とする。
If the
次に、判定部1109は、注目画素の1画素前について絵柄か否か判断する(ステップS3004)。そして、注目画素の1画素前の判定結果が絵柄領域であると判断された場合、注目画素も絵柄領域とする(ステップS3008)。
Next, the
そして、判定部1109は、注目画素を含む注目ラインについて、一ライン前が黒文字か否か判断する(ステップS3005)。黒文字と判断した場合、注目画素を黒文字領域とする(ステップS3009)。
Then, the
次に、判定部1109が、注目画素の一画素前が、黒文字か否か判断する(ステップS3006)。黒文字と判断した場合、注目画素を黒文字領域とする(ステップS3009)。黒文字ではないと判断した場合、注目画素を中間領域とする(ステップS3007)。
Next, the
最後に、判定部1109は、線分処理を行う(ステップS3010)。さらに、判定部1109は、色判定結果が色でなく、かつ高濃度の画素が、128画素以上連続していれば、絵柄領域として補正する。
Finally, the
上述した処理手順により、注目画素が黒文字領域等の適切な領域として判定することができる。 With the processing procedure described above, the target pixel can be determined as an appropriate region such as a black character region.
上述した複合機100によれば、読み込まれた原稿の画像データが、黒文字領域や絵柄領域などの各領域毎にHDD106に格納し、利用者から受け付けた画像処理モードや画像分離モードに従って、各領域に対して適切な処理を行った後、印刷処理を行っている。このため、モードの変更を行う毎に原稿の読み込み処理を行うことが無くなるため利用負担の軽減を行えると共に、原稿の読み込み毎に行う必要がある領域抽出が不要になるため処理速度の向上、さらには毎回適切に所望する条件による印刷が行われるので、利便性が向上する。
According to the
さらには、複合機100においては、文字重視、絵柄重視などの判定基準を、選択可能としたため、利用者の所望する画像データを生成することができる。
Furthermore, in the
上述した複合機100にかかるコントローラ104のハードウェア構成は、例えばCPUと、ノースブリッジ(NB)と、システムメモリ(MEM−P)と、サウスブリッジ(SB)と、ローカルメモリ(MEM−C)と、とを有している。スキャナ補正部102、圧縮処理部103、プリンタ補正部108及び伸張処理部107は、コントローラ104に接続されたASIC内に格納する等が考えられる。そして、複合機100は、コントローラ104とASICとの間をPCIe(PCI express)バスで接続した構成となる。また、MEM−Pは、ROM(Read Only Memory)と、RAM(Random Access Memory)とをさらに有する。
The hardware configuration of the controller 104 according to the
CPUは、複合機100の全体制御をおこなうものであり、NB、MEM−PおよびSBからなるチップセットを有し、このチップセットを介して他の機器と接続される。 The CPU performs overall control of the multifunction peripheral 100, has a chip set made up of NB, MEM-P, and SB, and is connected to other devices via this chip set.
NBは、CPUとMEM−P、SB、PCIeとを接続するためのブリッジであり、MEM−Pに対する読み書きなどを制御するメモリコントローラと、PCIeマスタを有する。 The NB is a bridge for connecting the CPU to the MEM-P, SB, and PCIe, and includes a memory controller that controls reading and writing to the MEM-P and a PCIe master.
MEM−Pは、プログラムやデータの格納用メモリ、プログラムやデータの展開用メモリ、プリンタの描画用メモリなどとして用いるシステムメモリであり、ROMとRAMとからなる。ROMは、プログラムやデータの格納用メモリとして用いる読み出し専用のメモリであり、RAMは、ページメモリ131として機能すると共に、プログラムやデータの展開用メモリ、プリンタの描画用メモリなどとして用いる書き込みおよび読み出し可能なメモリである。
The MEM-P is a system memory used as a memory for storing programs and data, a memory for developing programs and data, a drawing memory for printers, and the like, and includes a ROM and a RAM. The ROM is a read-only memory used as a memory for storing programs and data, and the RAM functions as a
ASICは、画像処理用のハードウェア要素を有する画像処理用途向けのIC(Integrated Circuit)とする。 The ASIC is an integrated circuit (IC) for image processing having hardware elements for image processing.
なお、本実施形態の複合機100のASIC又はコントローラ104で実行される画像処理プログラムは、それぞれROM等に予め組み込まれて提供される。
Note that the image processing program executed by the ASIC or the controller 104 of the
本実施形態の複合機100で実行される画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
The image processing program executed by the
さらに、本実施形態の複合機100で実行される画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の複合機100で実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。 Further, the image processing program executed by the multifunction peripheral 100 of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the image processing program executed by the multifunction peripheral 100 of the present embodiment may be provided or distributed via a network such as the Internet.
本実施の形態の複合機100で実行される画像処理プログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから画像処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上述した各部が主記憶装置上に生成されるようになっている。 The image processing program executed by the multifunction peripheral 100 according to the present embodiment has a module configuration including the above-described units. As actual hardware, a CPU (processor) reads the image processing program from the ROM and executes it. As a result, the above-described units are loaded on the main storage device, and the above-described units are generated on the main storage device.
100 複合機
101 スキャナ
102 スキャナ補正部
103 圧縮処理部
104 コントローラ
105 NIC
106 HDD
107 伸張処理部
108 プリンタ補正部
109 プロッタ
110 入力デバイス
121 領域抽出部
122 スキャナγ部
123 フィルタ処理部
130 外部PC端末
131 ページメモリ
132 圧縮伸張処理部
133 出力フォーマット変換部
134 データi/f部
135 入力フォーマット変換部
136 デバイスi/f部
141 中間調処理部
142 プリンタγ部
143 色補正処理部
144 エッジ量検出部
145 基準記憶部
146 選択部
321 フィルタ
322 エッジ抽出部
322a 3値化部
322b 黒画素連続検出部
322c 白画素連続検出部
322d 近傍画素検出部
322e 孤立点除去部
323 白領域抽出部
324 網点抽出部
325 色判定部
325a 色相分割部
325b cメモリ
325c mメモリ
325d yメモリ
325e wメモリ
325f 色画素判定部
326 総合判定部
326a 文字判定部
326b 膨張処理部
326c デコード部
501 色変換部
502 解像度変換部
503 TIFフォーマット生成部
504 JPGフォーマット生成部
505 圧縮フォーマット生成部
506 データi/f部
511 二値化部
512 二値画像生成部
513 黒画像生成部
514 第1解像度変換部
515 第2解像度変換部
516 背景画像生成部
517 文字画像生成部
518 ファイル合成部
518 画像ファイル合成部
601 文字解像度変換部
602 適応二値化部
603 孤立点除去部
604 N値化部
605 第1網点検出部
606 第2網点検出部
607 第1グレー検出部
608 第2グレー検出部
609 文字判定部
611 黒文字判定部
621 閾値選択部
622 二値化実行部
1101 文字判定部
1102 3ラインOR部
1103 絵柄判定部
1104 黒判定部
1105 第1抽出部
1106 第2抽出部
1107 第1ミラー
1108 第2ミラー
1109 判定部
1801 TIFフォーマット展開部
1802 JPGフォーマット展開部
1803 圧縮フォーマット展開部
1804 出力選択部
1811 画像ファイル展開部
1812 黒画像展開部
1813 二値画像展開部
1814 背景画像展開部
1815 文字画像展開部
1816 画像ファイル合成部
1817 合成選択部
100
106 HDD
107 Decompression processing unit 108 Printer correction unit 109 Plotter 110 Input device 121 Area extraction unit 122 Scanner γ unit 123 Filter processing unit 130 External PC terminal 131 Page memory 132 Compression / decompression processing unit 133 Output format conversion unit 134 Data i / f unit 135 Input Format conversion unit 136 Device i / f unit 141 Halftone processing unit 142 Printer γ unit 143 Color correction processing unit 144 Edge amount detection unit 145 Reference storage unit 146 Selection unit 321 Filter 322 Edge extraction unit 322a Tri-leveling unit 322b Continuous black pixels Detection unit 322c White pixel continuous detection unit 322d Neighboring pixel detection unit 322e Isolated point removal unit 323 White region extraction unit 324 Halftone dot extraction unit 325 Color determination unit 325a Hue division unit 325b c memory 325c m memory 325d Memory 325e w Memory 325f Color pixel determination unit 326 General determination unit 326a Character determination unit 326b Expansion processing unit 326c Decoding unit 501 Color conversion unit 502 Resolution conversion unit 503 TIF format generation unit 504 JPG format generation unit 505 Compression format generation unit 506 Data i / F section 511 binarization section 512 binary image generation section 513 black image generation section 514 first resolution conversion section 515 second resolution conversion section 516 background image generation section 517 character image generation section 518 file composition section 518 image file composition section 601 Character resolution conversion unit 602 Adaptive binarization unit 603 Isolated point removal unit 604 N-value conversion unit 605 First halftone dot detection unit 606 Second halftone dot detection unit 607 First gray detection unit 608 Second gray detection unit 609 Character determination Part 611 Black character judgment part 6 21 threshold selection unit 622 binarization execution unit 1101 character determination unit 1102 3-line OR unit 1103 picture determination unit 1104 black determination unit 1105 first extraction unit 1106 second extraction unit 1107 first mirror 1108 second mirror 1109 determination unit 1801 TIF Format development unit 1802 JPG format development unit 1803 Compression format development unit 1804 Output selection unit 1811 Image file development unit 1812 Black image development unit 1813 Binary image development unit 1814 Background image development unit 1815 Character image development unit 1816 Image file synthesis unit 1817 Composition Select part
Claims (8)
前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識手段と、
前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶する記憶手段と、
前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定部と、
前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理手段と、
を備えることを特徴とする画像処理装置。 Image data input means for inputting image data;
Recognizing means for recognizing the type of each area included in the image data with respect to the image data;
Storage means for storing the image data and the type of each area recognized by the recognition means;
Based on the output setting of the image data, from the type of each region stored in the storage means, a specifying unit for specifying one type,
Image processing means for performing image processing suitable for the specified type on the image data stored in the storage means;
An image processing apparatus comprising:
前記記憶手段は、さらに、前記エッジ領域の画像データと、前記絵柄領域の画像データと、を記憶し、
前記画像処理手段は、前記エッジ領域の画像データと、前記絵柄領域の画像データと、に対して、それぞれ異なる画像処理を行うこと、
を特徴とする請求項1に記載の画像処理装置。 The recognizing unit further extracts, from the image data, an edge region including characters and a pattern region including a figure or a drawing,
The storage means further stores the image data of the edge region and the image data of the pattern region,
The image processing means performs different image processing on the image data of the edge region and the image data of the pattern region;
The image processing apparatus according to claim 1.
前記特定手段は、文字を優先する時は、前記画像処理に適用する種別として、前記エッジ領域を特定し、絵柄を優先する時は、前記画像処理に適用する種別として、前記絵柄領域を特定すること、
を特徴とする請求項1又は2に記載の画像処理装置。 The recognizing means recognizes an edge area including characters and a pattern area including a figure or a picture from the image data,
The specifying unit specifies the edge region as a type to be applied to the image processing when giving priority to characters, and specifies the picture region as a type to be applied to the image processing when giving priority to a design. thing,
The image processing apparatus according to claim 1, wherein:
認識手段が、前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識ステップと、
前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶手段に記憶する記憶ステップと、
特定手段が、前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定ステップと、
画像処理手段が、前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理ステップと、
を有することを特徴とする画像処理方法。 An image data input means for inputting image data;
A recognition step for recognizing the type of each area included in the image data with respect to the image data;
A storage step of storing the image data and the type of each area recognized by the recognition unit in a storage unit;
A specifying step of specifying one type from the type of each area stored in the storage unit based on the output setting of the image data;
An image processing step in which image processing means performs image processing suitable for the specified type on the image data stored in the storage means;
An image processing method comprising:
前記画像データに対して、当該画像データに含まれる各領域の、種別を認識する認識ステップと、
前記画像データと、前記認識手段により認識された各領域の前記種別と、を記憶手段に記憶する記憶ステップと、
前記画像データの出力設定に基づいて、前記記憶手段に記憶された前記各領域の種別から、一つの種別を特定する特定ステップと、
前記記憶手段に記憶された前記画像データに対して、前記特定された前記種別に適した画像処理を行う画像処理ステップと、
をコンピュータに実行させるための画像処理プログラム。 An image data input step for inputting image data;
A recognition step for recognizing the type of each area included in the image data with respect to the image data;
A storage step of storing the image data and the type of each area recognized by the recognition unit in a storage unit;
Based on the output setting of the image data, a specifying step of specifying one type from the type of each area stored in the storage unit;
An image processing step for performing image processing suitable for the specified type on the image data stored in the storage unit;
An image processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008237203A JP2010074318A (en) | 2008-09-16 | 2008-09-16 | Image processing apparatus and method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008237203A JP2010074318A (en) | 2008-09-16 | 2008-09-16 | Image processing apparatus and method, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010074318A true JP2010074318A (en) | 2010-04-02 |
Family
ID=42205724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008237203A Pending JP2010074318A (en) | 2008-09-16 | 2008-09-16 | Image processing apparatus and method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010074318A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015088910A (en) * | 2013-10-30 | 2015-05-07 | 株式会社沖データ | Image processing device |
JP2020114028A (en) * | 2015-07-24 | 2020-07-27 | 株式会社リコー | Image processing apparatus, image processing method, and program |
JP7472695B2 (en) | 2020-07-17 | 2024-04-23 | 株式会社リコー | Image forming device |
-
2008
- 2008-09-16 JP JP2008237203A patent/JP2010074318A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015088910A (en) * | 2013-10-30 | 2015-05-07 | 株式会社沖データ | Image processing device |
JP2020114028A (en) * | 2015-07-24 | 2020-07-27 | 株式会社リコー | Image processing apparatus, image processing method, and program |
JP7472695B2 (en) | 2020-07-17 | 2024-04-23 | 株式会社リコー | Image forming device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5540553B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and image processing program | |
JP4662066B2 (en) | Image processing apparatus, image forming apparatus, image distribution apparatus, image processing method, program, and recording medium | |
JP4861711B2 (en) | Image processing apparatus, image compression method, image compression program, and recording medium | |
US7903872B2 (en) | Image-processing apparatus and method, computer program, and storage medium | |
US8538086B2 (en) | Image inspection apparatus, image inspection method, and computer program product | |
JP5287272B2 (en) | Image inspection apparatus, image inspection method, and program | |
KR100994644B1 (en) | Image processing apparatus and method thereof | |
US7916352B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
CN114302020A (en) | Image forming apparatus, control method thereof, and storage medium | |
JP4898601B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JP4884305B2 (en) | Image processing apparatus, image forming apparatus, computer program, and recording medium | |
JP2010074318A (en) | Image processing apparatus and method, and image processing program | |
JP3899872B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the same | |
JP4659789B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP4963559B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and program for causing computer to execute the method | |
US9082161B2 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
JP4515986B2 (en) | Image processing apparatus and program | |
JP2007235430A (en) | Image processor and processing method, image distribution device, image formation apparatus, program, and recording medium | |
JP4616199B2 (en) | Image processing apparatus and program | |
JP2007189275A (en) | Image processor | |
JP2001309183A (en) | Image processing unit and method | |
US20100188670A1 (en) | Image processing apparatus, image processing method and program executing the image processing method | |
JP7413751B2 (en) | Image processing systems and programs | |
JP2006262334A (en) | Image processing apparatus and scanner distribution apparatus | |
JP2023037968A (en) | Image processing apparatus, control method of the same, and program |