JP5591631B2 - Image processing apparatus, image processing system, image forming apparatus, image processing method, image processing program, and recording medium thereof - Google Patents

Image processing apparatus, image processing system, image forming apparatus, image processing method, image processing program, and recording medium thereof Download PDF

Info

Publication number
JP5591631B2
JP5591631B2 JP2010194788A JP2010194788A JP5591631B2 JP 5591631 B2 JP5591631 B2 JP 5591631B2 JP 2010194788 A JP2010194788 A JP 2010194788A JP 2010194788 A JP2010194788 A JP 2010194788A JP 5591631 B2 JP5591631 B2 JP 5591631B2
Authority
JP
Japan
Prior art keywords
image
image data
unit
identification signal
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010194788A
Other languages
Japanese (ja)
Other versions
JP2012054709A (en
Inventor
武司 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010194788A priority Critical patent/JP5591631B2/en
Publication of JP2012054709A publication Critical patent/JP2012054709A/en
Application granted granted Critical
Publication of JP5591631B2 publication Critical patent/JP5591631B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、原稿画像データの一部に合成用画像データを合成する画像合成処理を行う画像処理装置、画像処理システム、および画像処理方法に関するものである。   The present invention relates to an image processing apparatus, an image processing system, and an image processing method for performing image composition processing for compositing image data for composition on part of document image data.

従来からスキャナ等の画像読取装置で原稿を読み取られた画像データに対して各種の画像処理を施す画像処理装置が知られている。このような画像処理装置の適用対象の一例として、デジタル複合機があげられる。デジタル複合機は、例えば、原稿の画像データを記録用紙上に画像として形成する(印刷する)ことによりコピー機能を実現したり、他の装置(コンピュータ等)に画像データを転送することにより当該他の装置を用いてPUSHコピー機能を実現したりすることが可能である。   2. Description of the Related Art Conventionally, image processing apparatuses that perform various types of image processing on image data obtained by reading an original with an image reading apparatus such as a scanner are known. An example of an application target of such an image processing apparatus is a digital multifunction peripheral. The digital multi-function peripheral, for example, realizes a copy function by forming (printing) image data of a document as an image on a recording sheet, or transferring the image data to another device (such as a computer). It is possible to implement the PUSH copy function using the above apparatus.

ところで、画像読取装置において読み取られる原稿には、文字や写真、図形等の様々な種類(画像種別)の領域が含まれている場合がある。このため、画像処理装置で行われる領域分離処理において、例えば、原稿の印刷時に細かい点(網点)にて画像形成されている写真や図形の領域は網点領域として判定される。   By the way, a document read by the image reading apparatus may include various types (image types) of areas such as characters, photographs, and graphics. For this reason, in the area separation process performed by the image processing apparatus, for example, a photograph or graphic area formed with fine dots (halftone dots) at the time of printing an original is determined as a halftone dot area.

なお、網点領域は、原稿の網点間隔、画像読取装置の認識状態、画像データの特性、あるいは画像出力処理を行う画像形成装置の特性などの要因によってモアレの発生原因になりやすいという特性を有している。このため、網点領域については、一般に、画像データに平滑化処理を施すことによってモアレの発生の抑制が図られる。例えば、画像処理装置(デジタル複合機等)において「写真モード」等を選択すると、画像データに平滑化処理を施すことでモアレの発生の抑制が図られる。   Note that the halftone dot region has a characteristic that it tends to cause moire due to factors such as the halftone dot interval of the original, the recognition state of the image reading apparatus, the characteristics of the image data, or the characteristics of the image forming apparatus that performs image output processing. Have. For this reason, with respect to the halftone dot region, the occurrence of moire is generally suppressed by performing smoothing processing on the image data. For example, when “photo mode” or the like is selected in an image processing apparatus (such as a digital multi-function peripheral), generation of moire can be suppressed by performing smoothing processing on the image data.

また、文字が形成されている領域については、文字画像を鮮鋭に印刷、表示することが望まれるため、画像データに対して鮮鋭化処理が施される。例えば、画像処理装置において、「文字モード」等を選択すると、画像データに鮮鋭化処理を施して文字の再現性の向上が図られる。   In addition, since it is desired to print and display a character image sharply in a region where characters are formed, sharpening processing is performed on the image data. For example, when “character mode” or the like is selected in the image processing apparatus, sharpening processing is performed on the image data to improve character reproducibility.

このように、画像処理装置では、一般に、領域分離処理の結果に基づいて各領域の画像種別に応じた画像処理が施される。   As described above, the image processing apparatus generally performs image processing according to the image type of each region based on the result of the region separation processing.

また、従来の画像読取装置では、一般に、原稿を読み取って取得した画像データをハードディスク等のメモリに一旦保存し、必要に応じてメモリから画像データを読み出して印刷処理や送信処理などの画像データ出力処理を施すようになっている。また、メモリに対する画像データの保存量(原稿の画像データの保存枚数)を多くするため、画像データに対して不可逆の圧縮処理を施してからメモリに保存する場合が多い。このため、メモリから読み出される画像データは画像読取処理によって取得した画像データに含まれる情報の一部が欠落したものである場合が多い。   Also, in the conventional image reading apparatus, generally, image data obtained by reading a document is temporarily stored in a memory such as a hard disk, and the image data is read out from the memory as necessary to output image data such as print processing and transmission processing. Processing is to be performed. Further, in order to increase the storage amount of image data in the memory (number of stored original image data), the image data is often stored in the memory after being subjected to irreversible compression processing. For this reason, the image data read from the memory is often a part of the information included in the image data acquired by the image reading process.

このため、従来の画像読取装置では、一般に、領域分離処理の精度の低下を防止するため、画像読取処置によって取得した画像データに領域分離処理を施してから圧縮処理を施し、圧縮処理後の画像データと領域分離処理結果とを対応付けてメモリに保存するようになっている。また、画像読取処理によって取得した画像データをメモリに格納せずに他の装置に送信する場合にも、送信するデータ量を低減するために、画像読取処置によって取得した画像データに領域分離処理を施してから圧縮処理を施し、圧縮処理後の画像データと領域分離処理結果とを対応付けて送信するようになっている。   For this reason, in the conventional image reading apparatus, in general, in order to prevent a reduction in accuracy of the region separation processing, the image data acquired by the image reading processing is subjected to the region separation processing and then the compression processing, and the image after the compression processing is performed. Data and region separation processing results are associated with each other and stored in a memory. Also, when image data acquired by the image reading process is transmitted to another apparatus without being stored in the memory, a region separation process is applied to the image data acquired by the image reading process in order to reduce the amount of data to be transmitted. Then, the compression process is performed, and the image data after the compression process and the region separation process result are transmitted in association with each other.

しかしながら、これらの方法では、圧縮処理が施された画像データの一部に他の画像データ(例えばパーソナルコンピュータ等で作成されたCG画像、他の画像読取装置(デジタルカメラ等)で撮影された写真などの画像データ)を合成した合成画像データに対して各種の画像処理を施す場合に、圧縮処理および画像合成処理前の画像データに対する領域分離処理の結果に基づいて画像処理を施すと、合成された部分の画像に不適切な画像処理が施される場合がある。   However, in these methods, a part of the image data subjected to the compression process is a part of other image data (for example, a CG image created by a personal computer or the like, a photograph taken by another image reading device (digital camera or the like)). When image processing based on the result of region separation processing on image data before compression processing and image composition processing is performed when various image processing is performed on composite image data obtained by combining image data such as Inappropriate image processing may be performed on the portion of the image.

このような問題を回避するために、合成画像データに対して領域分離処理を再度行い、その結果に基づいて合成画像データに画像処理を施すことが考えられる。しかしながら、画像読取装置で読み取られた画像データの線数(解像度)や濃度と、この画像データに合成する画像データの線数や濃度とは異なる場合が多い。また、画像読取装置における領域分離処理は当該画像読取装置の読取処理の特性に応じて調整・最適化されている。このため、合成処理後の画像データに対して領域分離処理を施すと、合成された部分の領域分離処理を精度よく行うことができず、さらに不適切な画像処理を施してしまう場合がある。   In order to avoid such a problem, it is conceivable that the region separation process is performed again on the composite image data, and the image process is performed on the composite image data based on the result. However, the number of lines (resolution) and density of image data read by the image reading apparatus and the number of lines and density of image data combined with the image data are often different. Further, the region separation process in the image reading apparatus is adjusted and optimized according to the characteristics of the reading process of the image reading apparatus. For this reason, if the region separation process is performed on the image data after the synthesis process, the region separation process of the synthesized part cannot be performed with high accuracy, and an inappropriate image process may be performed.

なお、特許文献1では、撮像映像とCG映像とが合成された合成映像から撮像映像とCG映像とを分離し、撮像映像に対しては撮像映像用に設定されている通常のカットオフ周波数のローパスフィルタ処理を行い、CG映像に対しては撮像映像よりも高いカットオフ周波数のローパスフィルタ処理を行うことにより、撮像映像にモアレが生じることを抑制するとともに、CG映像を鮮明に表示することが記載されている。   In Patent Document 1, the captured video and the CG video are separated from the composite video obtained by combining the captured video and the CG video, and the normal cutoff frequency set for the captured video is set for the captured video. By performing low-pass filter processing and performing low-pass filter processing with a cut-off frequency higher than that of the captured image on the CG image, it is possible to suppress the occurrence of moire in the captured image and display the CG image clearly. Have been described.

特開2008−78989号公報(平成20年4月3日公開)JP 2008-78989 A (published April 3, 2008)

しかしながら、上記特許文献1の技術では、撮像素子によって撮像された動画像からなる撮像映像と、撮像以外の方法で生成されたCG映像等の合成映像とを合成する構成のみを想定している。このため、原稿を読み取って取得した画像データに対する画像処理を行う画像処理装置のように、原稿を読み取って取得した画像データに対して領域分離処理を行うこと、および領域分離された各領域に対して当該各領域の画像種別に応じた画像処理を行うことについては何ら考慮されていない。したがって、特許文献1の技術では、画像データの領域毎に当該領域の画像種別に応じた画像処理を施すことができない。   However, the technique disclosed in Patent Document 1 assumes only a configuration in which a captured video composed of a moving image captured by an image sensor and a composite video such as a CG video generated by a method other than imaging are combined. For this reason, as in an image processing apparatus that performs image processing on image data obtained by reading a document, region separation processing is performed on image data obtained by reading a document, and each region separated Thus, no consideration is given to performing image processing according to the image type of each area. Therefore, the technique of Patent Document 1 cannot perform image processing corresponding to the image type of each area of the image data.

より具体的に説明すると、特許文献1の技術では、撮像映像とCG映像とにカットオフ周波数の異なるローパスフィルタ処理を施すことが記載されているものの、撮像映像の全域に対して共通のカットオフ周波数のローパスフィルタ処理が施されるので、例えば撮像映像に文字と写真とが混在する場合、写真部分のモアレを抑制することができたとしても、文字の再現性が損なわれてしまう。すなわち、ローパスフィルタ処理では高周波成分をカットするため、周波数の高い細い文字や線などのエッジがぼけてしまう。このため、文字が含まれる画像の場合、網点のモアレを抑制するために単純にローパスフィルタ処理を施すと、全体的にぼけた画像になって文字の再現性が低下してしまう。   More specifically, although the technique of Patent Document 1 describes that low-pass filter processing with different cutoff frequencies is performed on a captured video and a CG video, a common cutoff is applied to the entire captured video. Since the low-pass filter processing of the frequency is performed, for example, when characters and photographs are mixed in the captured image, the reproducibility of characters is impaired even if the moire of the photograph portion can be suppressed. That is, since the high-frequency component is cut in the low-pass filter processing, edges such as thin characters and lines having a high frequency are blurred. For this reason, in the case of an image including characters, if a low-pass filter process is simply performed to suppress halftone moiré, the entire image becomes blurred and the reproducibility of the characters is reduced.

また、撮像映像に文字と写真とが混在する場合に、文字や線のエッジを強調するために全体的に鮮鋭化の処理を施すと、文字の再現性は高くなるが、写真部分にモアレが発生してしまう。   In addition, when characters and photos are mixed in the captured image, if sharpening is applied overall to emphasize the edges of characters and lines, the reproducibility of characters increases, but moiré occurs in the photo portion. Will occur.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、原稿画像データの一部に合成用画像データを合成して合成画像データを生成し、生成した合成画像データに対して画像処理を施す画像処理装置において、合成画像データの各画像領域に対して当該各画像領域に適した画像処理を施すことにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to generate composite image data by combining composite image data with a part of document image data, and to generate the composite image data. In the image processing apparatus that performs image processing, image processing suitable for each image region is performed on each image region of the composite image data.

本発明の画像処理装置は、原稿画像データを画像種別に応じた複数の画像領域に分離する領域分離処理を行い、上記各画像領域の画像種別を示す領域識別信号を生成する領域分離処理部と、上記各画像領域に対して当該各画像領域の画像種別に応じた画像処理を施す画像加工部とを備えた画像処理装置であって、上記原稿画像データの一部に合成用画像データを合成して合成画像データを生成する画像合成部と、上記合成用画像データの画像種別を特定する領域種別指定部と、上記原稿画像データにおける上記合成用画像データが合成された領域に対応する上記領域識別信号を、上記領域種別指定部によって特定された上記合成用画像データの画像種別に対応する領域識別信号に置換することによって上記合成画像データの領域識別信号を生成する領域識別信号置換部とを備え、上記画像加工部は、上記合成用画像データの各画像領域に対して上記領域識別信号置換部によって生成された上記合成画像データの領域識別信号によって示される当該各画像領域の画像種別に応じた画像処理を施すことを特徴としている。   An image processing apparatus according to the present invention includes a region separation processing unit that performs region separation processing for separating document image data into a plurality of image regions according to image types, and generates region identification signals indicating the image types of the image regions. An image processing apparatus comprising: an image processing unit that performs image processing on each image area according to an image type of each image area, wherein the image data for synthesis is combined with a part of the original image data An image composition unit that generates composite image data, an area type designation unit that specifies an image type of the composition image data, and the region corresponding to the region in which the composition image data in the document image data is composed By replacing the identification signal with an area identification signal corresponding to the image type of the image data for synthesis specified by the area type designation unit, the area identification signal of the synthesized image data is generated. A region identification signal replacement unit that performs the image processing unit for each image region of the image data for synthesis that is indicated by the region identification signal of the composite image data generated by the region identification signal replacement unit. The image processing according to the image type of each image area is performed.

また、本発明の画像処理システムは、原稿画像データを画像種別に応じた複数の画像領域に分離する領域分離処理を行い、上記各画像領域の画像種別を示す領域識別信号を生成する領域分離処理部と、上記各画像領域に対して当該各画像領域の画像種別に応じた画像処理を施す画像加工部とを備えた画像処理装置と、上記原稿画像データの一部に合成用画像データを合成して合成画像データを生成する画像合成部を備えた端末装置とが通信可能に接続された画像処理システムであって、上記合成用画像データの画像種別を特定する領域種別指定部と、上記原稿画像データにおける上記合成用画像データが合成された領域に対応する上記領域識別信号を、上記領域種別指定部によって特定された画像種別に対応する領域識別信号に置換することによって上記合成画像データの領域識別信号を生成する領域識別信号置換部とを備え、上記画像加工部は、上記合成用画像データの各画像領域に対して上記領域識別信号置換部によって生成された上記合成画像データの領域識別信号によって示される当該各画像領域の画像種別に応じた画像処理を施すことを特徴としている。   The image processing system of the present invention performs region separation processing for separating document image data into a plurality of image regions according to image types, and generates region identification signals indicating the image types of the image regions. And an image processing device that performs image processing on each of the image areas according to the image type of each of the image areas, and synthesizes the image data for synthesis with part of the original image data An image processing system that is communicably connected to a terminal device that includes an image composition unit that generates composite image data, the region type designation unit that identifies the image type of the image data for composition, and the original Replacing the area identification signal corresponding to the area where the image data for synthesis is combined in the image data with an area identification signal corresponding to the image type specified by the area type designation unit. Therefore, the image processing unit includes a region identification signal replacement unit that generates a region identification signal of the composite image data, and the image processing unit generates the region identification signal replacement unit for each image region of the composite image data. The image processing according to the image type of each image area indicated by the area identification signal of the composite image data is performed.

また、本発明の画像処理方法は、稿画像データを画像種別に応じた複数の画像領域に分離し、上記各画像領域の画像種別を示す領域識別信号を生成する領域分離処理工程と、上記各画像領域に対して当該各画像領域の画像種別に応じた画像処理を施す画像加工工程とを行う画像処理方法であって、画像合成アプリケーションによって上記原稿画像データの一部に合成用画像データを合成して合成画像データを生成する画像合成工程と、上記原稿画像データにおける上記合成用画像データが合成された領域に対応する上記領域識別信号を、上記合成用画像データの画像種別に対応する領域識別信号に置換することによって上記合成画像データの領域識別信号を生成する領域識別信号置換工程とを含み、上記画像加工工程では、上記合成用画像データの各画像領域に対して上記領域識別信号置換工程で生成した上記合成画像データの領域識別信号によって示される当該各画像領域の画像種別に応じた画像処理を施すことを特徴としている。   Further, the image processing method of the present invention separates the manuscript image data into a plurality of image regions according to the image type, generates a region identification signal indicating the image type of each image region, An image processing method for performing image processing on an image area according to an image type of each image area, and combining image data for synthesis with a part of the original image data by an image composition application An image composition step for generating composite image data, and an area identification signal corresponding to an area of the original image data corresponding to the area where the image data for composition is combined, and an area identification corresponding to an image type of the image data for composition A region identification signal replacement step of generating a region identification signal of the composite image data by replacing it with a signal. In the image processing step, It is characterized by performing image processing corresponding to the image type of each image region indicated by the region identification signal of the composite image data generated by the area identification signal substitution step for each image area of the data.

上記の画像処理装置、画像処理システム、および画像処理方法によれば、原稿画像データにおける合成用画像データが合成された領域に対応する領域識別信号を、合成用画像データの画像種別に対応する領域識別信号に置換することによって合成画像データの領域識別信号を生成する。また、合成用画像データの各画像領域に対して上記の合成画像データの領域識別信号によって示される当該各画像領域の画像種別に応じた画像処理を施す。これにより、合成画像データの各画像領域に対して当該各画像領域に適した画像処理を施すことができる。   According to the image processing apparatus, the image processing system, and the image processing method described above, the area identification signal corresponding to the area where the image data for synthesis is synthesized in the original image data is converted into the area corresponding to the image type of the image data for synthesis. A region identification signal of the composite image data is generated by replacing the identification signal. Further, image processing corresponding to the image type of each image area indicated by the above-described area identification signal of the composite image data is performed on each image area of the image data for synthesis. Thereby, image processing suitable for each image region can be performed on each image region of the composite image data.

また、本発明の画像処理装置は、上記画像加工部が、画像データに対してフィルタ処理を施すフィルタ処理部を備えており、上記フィルタ処理部が、上記領域識別信号によって示される画像種別に応じてフィルタ処理に用いるフィルタを変更する構成であってもよい。   In the image processing apparatus of the present invention, the image processing unit includes a filter processing unit that performs filter processing on the image data, and the filter processing unit responds to an image type indicated by the region identification signal. The filter used for the filter process may be changed.

上記の構成によれば、合成画像データの各画像領域に対して当該各画像領域に適したフィルタ処理を施すことができる。   According to said structure, the filter process suitable for each said image area can be performed with respect to each image area of synthetic | combination image data.

また、上記画像加工部は、複数の有彩色の組み合わせからなる画像データを、黒および複数の有彩色の組み合わせからなる画像データに変換する黒生成下色除去部を備えており、上記黒生成下色除去部は、上記領域識別信号によって示される画像種別に応じて黒の生成量を設定する構成としてもよい。   The image processing unit includes a black generation and under color removal unit that converts image data composed of a combination of a plurality of chromatic colors into image data composed of a combination of black and a plurality of chromatic colors. The color removal unit may be configured to set the black generation amount in accordance with the image type indicated by the region identification signal.

上記の構成によれば、合成画像データの各画像領域に対して当該各画像領域に適した黒生成下色除去処理を施すことができる。   According to the above configuration, it is possible to perform black generation and under color removal processing suitable for each image region for each image region of the composite image data.

また、上記画像加工部は、画像データにディザ処理を施すことによって当該画像データに応じた画像を再現するためのドットパターンを生成する階調再現処理部を備えており、
上記階調再現処理部は、上記領域識別信号によって示される画像種別に応じてディザ処理に用いるディザ行列を変更する構成としてもよい。
Further, the image processing unit includes a gradation reproduction processing unit that generates a dot pattern for reproducing an image corresponding to the image data by performing dither processing on the image data,
The gradation reproduction processing unit may be configured to change a dither matrix used for dither processing according to the image type indicated by the region identification signal.

上記の構成によれば、合成画像データの各画像領域に対して当該各画像領域に適した階調再現処理を施すことができる。   According to said structure, the gradation reproduction process suitable for each said image area can be performed with respect to each image area of synthetic | combination image data.

また、上記領域分離処理部は、原稿画像データの各画像領域を、網点領域、文字/エッジ領域、および印画紙写真/ベタ領域を含む複数の画像種別のうちのいずれかに分類する構成としてもよい。   The area separation processing unit classifies each image area of the document image data into one of a plurality of image types including a dot area, a character / edge area, and a photographic paper photo / solid area. Also good.

上記の構成によれば、合成画像データにおける網点領域、文字/エッジ領域、および印画紙写真/ベタ領域に対して当該各画像領域に適した画像処理を施すことができる。   According to the above configuration, it is possible to perform image processing suitable for each image region on the halftone dot region, the character / edge region, and the photographic paper photo / solid region in the composite image data.

また、ユーザからの指示入力を受け付ける指示入力部を備え、上記領域種別指定部は、ユーザからの指示入力に応じて上記合成用画像データの画像種別を特定する構成としてもよい。   Further, an instruction input unit that receives an instruction input from a user may be provided, and the region type designation unit may be configured to specify an image type of the image data for synthesis in accordance with an instruction input from the user.

上記の構成によれば、合成用画像データに対応する画像領域に対してユーザが所望する画像処理を施すことができる。   According to the above configuration, the image processing desired by the user can be performed on the image area corresponding to the image data for synthesis.

また、本発明の画像処理システムは、上記画像処理装置が、ユーザからの指示入力を受け付ける指示入力部と、上記指示入力部を介して入力されたユーザからの指示に応じて上記端末装置に備えられている上記画像合成部の動作を制御する制御部とを備えている構成としてもよい。また、上記端末装置は、複数の画像データを記憶する記憶部を備えており、上記画像合成部は、上記記憶部に記憶されている画像データのうち、上記画像処理装置に備えられている上記指示入力部を介してユーザが指定した画像データを上記合成用画像データとして用いて上記合成画像データを生成する構成としてもよい。   In the image processing system of the present invention, the image processing apparatus includes an instruction input unit that receives an instruction input from a user, and the terminal device according to an instruction from the user that is input via the instruction input unit. It is good also as a structure provided with the control part which controls operation | movement of the said image synthetic | combination part. In addition, the terminal device includes a storage unit that stores a plurality of image data, and the image composition unit includes the image processing device that includes the image data stored in the storage unit. The composite image data may be generated using the image data designated by the user via the instruction input unit as the composite image data.

上記の構成によれば、ユーザが画像処理装置の指示入力部を介して端末装置における画像合成処理に関する動作を制御することができる。   According to said structure, the user can control the operation | movement regarding the image synthesis process in a terminal device via the instruction | indication input part of an image processing apparatus.

本発明の画像形成装置は、上記したいずれかの画像処理装置と、上記画像処理装置から出力される画像データに応じた画像を記録材上に形成する画像出力部とを備えている。   The image forming apparatus of the present invention includes any one of the above-described image processing apparatuses and an image output unit that forms an image corresponding to image data output from the image processing apparatus on a recording material.

上記の構成によれば、合成画像データの各画像領域に対して当該各画像領域に適した画像処理が施された結果に基づいて画像形成処理を行うことができる。   According to the above configuration, the image forming process can be performed based on the result of the image process suitable for each image area being applied to each image area of the composite image data.

なお、上記画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各部として動作させることにより、上記画像処理装置をコンピュータにて実現させる画像処理プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に含まれる。   The image processing apparatus may be realized by a computer. In this case, an image processing program for causing the image processing apparatus to be realized by the computer by causing the computer to operate as the respective units, and the program are recorded. Computer-readable recording media are also included in the scope of the present invention.

以上のように、本発明の画像処理装置は、上記原稿画像データの一部に合成用画像データを合成して合成画像データを生成する画像合成部と、上記合成用画像データの画像種別を特定する領域種別指定部と、上記原稿画像データにおける上記合成用画像データが合成された領域に対応する上記領域識別信号を、上記領域種別指定部によって特定された上記合成用画像データの画像種別に対応する領域識別信号に置換することによって上記合成画像データの領域識別信号を生成する領域識別信号置換部とを備え、上記画像加工部は、上記合成用画像データの各画像領域に対して上記領域識別信号置換部によって生成された上記合成画像データの領域識別信号によって示される当該各画像領域の画像種別に応じた画像処理を施す。   As described above, the image processing apparatus of the present invention specifies an image composition unit that generates composition image data by compositing composition image data with a part of the document image data, and specifies an image type of the composition image data. Corresponding to the image type of the image data for synthesis specified by the area type specification unit, and the region identification signal corresponding to the region where the image data for synthesis in the original image data is combined. A region identification signal replacement unit that generates a region identification signal of the composite image data by replacing the region identification signal with the region identification signal, and the image processing unit identifies the region identification for each image region of the composition image data. Image processing corresponding to the image type of each image region indicated by the region identification signal of the composite image data generated by the signal replacement unit is performed.

また、本発明の画像処理システムは、上記合成用画像データの画像種別を特定する領域種別指定部と、上記原稿画像データにおける上記合成用画像データが合成された領域に対応する上記領域識別信号を、上記領域種別指定部によって特定された画像種別に対応する領域識別信号に置換することによって上記合成画像データの領域識別信号を生成する領域識別信号置換部とを備え、上記画像加工部は、上記合成用画像データの各画像領域に対して上記領域識別信号置換部によって生成された上記合成画像データの領域識別信号によって示される当該各画像領域の画像種別に応じた画像処理を施す。   The image processing system according to the present invention also includes an area type designation unit that specifies an image type of the image data for synthesis, and the area identification signal corresponding to the area where the image data for synthesis is synthesized in the document image data. A region identification signal replacement unit that generates a region identification signal of the composite image data by replacing with a region identification signal corresponding to the image type specified by the region type designation unit, and the image processing unit includes: Image processing corresponding to the image type of each image region indicated by the region identification signal of the composite image data generated by the region identification signal replacement unit is performed on each image region of the composite image data.

また、本発明の画像処理方法は、画像合成アプリケーションによって上記原稿画像データの一部に合成用画像データを合成して合成画像データを生成する画像合成工程と、上記原稿画像データにおける上記合成用画像データが合成された領域に対応する上記領域識別信号を、上記合成用画像データの画像種別に対応する領域識別信号に置換することによって上記合成画像データの領域識別信号を生成する領域識別信号置換工程とを含み、上記画像加工工程では、上記合成用画像データの各画像領域に対して上記領域識別信号置換工程で生成した上記合成画像データの領域識別信号によって示される当該各画像領域の画像種別に応じた画像処理を施す。   Further, the image processing method of the present invention includes an image composition step of generating composite image data by combining composite image data with a part of the original image data by an image composition application, and the composite image in the original image data. A region identification signal replacement step of generating a region identification signal of the composite image data by replacing the region identification signal corresponding to the region where the data is combined with a region identification signal corresponding to the image type of the image data for synthesis. In the image processing step, the image type of each image region indicated by the region identification signal of the composite image data generated in the region identification signal replacement step for each image region of the image data for synthesis is Appropriate image processing is performed.

それゆえ、本発明の画像処理装置、画像処理システム、および画像処理方法によれば、合成画像データの各画像領域に対して当該各画像領域に適した画像処理を施すことができる。   Therefore, according to the image processing apparatus, the image processing system, and the image processing method of the present invention, it is possible to perform image processing suitable for each image area on each image area of the composite image data.

本発明の一実施形態にかかる画像処理システムにおける処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the image processing system concerning one Embodiment of this invention. 図1の画像処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image processing system of FIG. 図1の画像処理システムに備えられる画像処理装置の構成を示す模式図である。It is a schematic diagram which shows the structure of the image processing apparatus with which the image processing system of FIG. 1 is equipped. 図1の画像処理システムにおける、画像領域の画像種別と空間フィルタ処理の内容との関係を示す説明図である。FIG. 2 is an explanatory diagram illustrating a relationship between an image type of an image region and the content of spatial filter processing in the image processing system of FIG. 1. (a)は原稿画像データの一例を示す説明図である。(b)は合成用画像データの一例を示す説明図である。(c)は原稿画像データに対する合成用画像データの合成位置を示す合成位置情報の一例を示す説明図である。(d)は(a)の原稿画像データにおける(c)の合成位置情報に示される位置に(b)の合成用画像データを合成して得られる合成画像データの一例を示す説明図である。(A) is explanatory drawing which shows an example of original image data. (B) is explanatory drawing which shows an example of the image data for a synthesis | combination. (C) is an explanatory view showing an example of composite position information indicating a composite position of composite image data with respect to document image data. (D) is an explanatory view showing an example of composite image data obtained by combining the image data for synthesis (b) at the position indicated by the composite position information of (c) in the original image data of (a).

本発明の一実施形態について説明する。   An embodiment of the present invention will be described.

(1−1.画像処理システム1000の全体構成)
図2は本実施形態にかかる画像処理システム1000の構成を示すブロック図である。この図に示すように、画像処理システム1000は、デジタル複合機(画像処理装置、画像形成装置)10と外部装置(端末装置)800とを備えており、これら両装置が通信ネットワーク等を介して通信可能に接続されている。
(1-1. Overall Configuration of Image Processing System 1000)
FIG. 2 is a block diagram showing a configuration of the image processing system 1000 according to the present embodiment. As shown in this figure, an image processing system 1000 includes a digital multifunction peripheral (image processing apparatus, image forming apparatus) 10 and an external apparatus (terminal apparatus) 800, both of which are connected via a communication network or the like. It is connected so that it can communicate.

図3は画像処理システム1000に備えられるデジタル複合機(画像処理装置、画像形成装置)10の概略構成を示す模式図である図2および図3に示すように、デジタル複合機10は、画像入力部100、画像処理部200、画像出力部300、制御部400、操作パネル500、通信部600、および画像記憶部700を備えている。   FIG. 3 is a schematic diagram showing a schematic configuration of a digital multifunction peripheral (image processing apparatus, image forming apparatus) 10 provided in the image processing system 1000. As shown in FIG. 2 and FIG. Unit 100, image processing unit 200, image output unit 300, control unit 400, operation panel 500, communication unit 600, and image storage unit 700.

制御部400は、演算部401と記憶部402とを備えており、デジタル複合機10の各部、すなわち画像入力部100、画像処理部200、画像出力部300、操作パネル500、通信部600、および画像記憶部700の動作を制御する。   The control unit 400 includes a calculation unit 401 and a storage unit 402, and each unit of the digital multifunction peripheral 10, that is, the image input unit 100, the image processing unit 200, the image output unit 300, the operation panel 500, the communication unit 600, and The operation of the image storage unit 700 is controlled.

記憶部402は、操作パネル500を介してユーザから入力される各種コマンドや設定値、デジタル複合機10の内部に配置される各種センサの検知結果、デジタル複合機10の各部の動作を制御するための各種設定値およびデータテーブル、各種制御を実行するためのプログラムなどを記憶するものである。記憶部402としては、この分野で常用される各種記憶手段、例えば、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、ハードディスクドライブ(HDD)などを用いることができる。   The storage unit 402 controls various commands and setting values input from the user via the operation panel 500, detection results of various sensors arranged in the digital multifunction peripheral 10, and operations of each unit of the digital multifunction peripheral 10. The program stores various setting values and data tables, programs for executing various controls, and the like. As the storage unit 402, various storage means commonly used in this field, for example, a read only memory (ROM), a random access memory (RAM), a hard disk drive (HDD), or the like can be used.

演算部401は、記憶部402に記憶されている各種情報および各種制御を実施するためのプログラムを読み出して演算処理や判定処理を行い、これらの処理結果に基づいてデジタル複合機10の各部に制御信号を送って各部の動作を制御する。なお、演算部401は、例えば、中央演算処理装置(CPU:Central Processing Unit)を備えるマイクロコンピュータ、マイクロプロセッサなどによって実現される処理回路である。   The arithmetic unit 401 reads various information stored in the storage unit 402 and a program for performing various controls, performs arithmetic processing and determination processing, and controls each unit of the digital multifunction peripheral 10 based on the processing results. Signals are sent to control the operation of each part. Note that the arithmetic unit 401 is a processing circuit realized by, for example, a microcomputer or a microprocessor that includes a central processing unit (CPU).

画像入力部100は、図3に示したように、画像出力部300が収容される筐体の上面に備えられており、原稿を読み取ってこの原稿の画像データである原稿画像データを取得するものである。画像入力部100にて読み取られた原稿画像データは、画像処理部200へと送られて所定の画像処理が施される。   As shown in FIG. 3, the image input unit 100 is provided on the upper surface of the casing in which the image output unit 300 is accommodated, and acquires original image data that is image data of the original by reading the original. It is. The document image data read by the image input unit 100 is sent to the image processing unit 200 and subjected to predetermined image processing.

画像処理部200は、画像入力部100が原稿を読み取って取得した原稿画像データに対して、画像出力部300における印刷処理に適した画像データにするための画像処理を施すものである。なお、図2に示したように、画像処理部200は、A/D変換部201、シェーディング補正部202、入力階調補正部203、領域分離処理部204、領域識別信号置換部205、色補正部206、黒生成下色除去部207、空間フィルタ処理部208、出力階調補正部209、および階調再現処理部(中間調生成部)210を備えている。なお、色補正部206、黒生成下色除去部207、空間フィルタ処理部208、出力階調補正部209、および階調再現処理部(中間調生成部)210によって画像加工部(印刷処理部)220が構成されている。   The image processing unit 200 performs image processing for making image data suitable for print processing in the image output unit 300 on the document image data acquired by the image input unit 100 reading the document. 2, the image processing unit 200 includes an A / D conversion unit 201, a shading correction unit 202, an input tone correction unit 203, a region separation processing unit 204, a region identification signal replacement unit 205, and color correction. A unit 206, a black generation and under color removal unit 207, a spatial filter processing unit 208, an output tone correction unit 209, and a tone reproduction processing unit (halftone generation unit) 210. Note that an image processing unit (print processing unit) is configured by a color correction unit 206, a black generation and under color removal unit 207, a spatial filter processing unit 208, an output tone correction unit 209, and a tone reproduction processing unit (halftone generation unit) 210. 220 is configured.

A/D変換部201は、画像入力部100から入力されたRGBのアナログ信号をデジタル信号に変換してシェーディング補正部202に出力する。   The A / D conversion unit 201 converts the RGB analog signal input from the image input unit 100 into a digital signal and outputs the digital signal to the shading correction unit 202.

シェーディング補正部202は、A/D変換部201から送られてきた原稿画像データに対して、画像入力部100の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施し、入力階調補正部203に出力する。   The shading correction unit 202 performs processing for removing various distortions generated in the illumination system, the imaging system, and the imaging system of the image input unit 100 on the document image data sent from the A / D conversion unit 201, and performs input. Output to the gradation correction unit 203.

入力階調補正部203は、シェーディング補正部202から入力された画像データに対して、カラーバランスを整えると同時に、濃度信号など画像処理部200において採用されている画像処理システムの扱い易い信号に変換する処理を施す。また、下地濃度の除去やコントラストなどの画質調整処理を行う。また、入力階調補正部203は、上記の各処理を施した原稿画像データを領域分離処理部204に出力する。   The input tone correction unit 203 adjusts the color balance of the image data input from the shading correction unit 202, and at the same time converts it into a signal that can be handled easily by the image processing system employed in the image processing unit 200, such as a density signal. Apply the process. Also, image quality adjustment processing such as background density removal and contrast is performed. Further, the input tone correction unit 203 outputs the document image data subjected to each of the above processes to the region separation processing unit 204.

領域分離処理部204は、入力階調補正部203から入力される原稿画像データ中の画像領域を文字エッジ領域、網点領域、印画紙写真/ベタ領域、その他領域、不定領域に分離(領域分離)する。また、領域分離処理部204は、分離結果に基づき、各画素がどの領域に属しているかを示す領域識別信号(領域分離信号)を生成する。例えば、領域分離処理部204は、後述する図4に示すように、文字エッジ領域を0、網点領域を1、印画紙写真/ベタ領域を2、その他領域を3、不定領域を4として表した領域識別信号を生成する。なお、領域分離処理部204における領域分離処理方法は特に限定されるものでなく、従来から公知の種々の方法を用いることができる。   The region separation processing unit 204 separates the image region in the document image data input from the input tone correction unit 203 into a character edge region, a halftone dot region, a photographic paper photograph / solid region, other regions, and an indefinite region (region separation). ) Further, the region separation processing unit 204 generates a region identification signal (region separation signal) indicating which region each pixel belongs to based on the separation result. For example, as shown in FIG. 4 to be described later, the region separation processing unit 204 represents a character edge region as 0, a halftone dot region as 1, a photographic paper photo / solid region as 2, an other region as 3, and an indefinite region as 4. A region identification signal is generated. The region separation processing method in the region separation processing unit 204 is not particularly limited, and various conventionally known methods can be used.

また、本実施形態では、画像入力部100によって読み取られた原稿画像データの一部に他の画像(合成用画像)の画像データを合成する画像合成モードをユーザが任意に選択できるようになっている。そして、画像合成モードが選択されている場合、領域分離処理部204は、原稿画像データとこの原稿画像データに基づいて生成した領域識別信号とを対応付けて画像記憶部700に一旦記憶させる。これにより、通信部600が画像記憶部700に記憶された原稿画像データを適宜読み出して外部装置800に送信し、領域識別信号置換部205が画像記憶部700に記憶された領域識別信号を適宜読み出すようになっている。なお、画像合成モードが選択されていない場合、領域分離処理部204は、図2に破線で示したように、入力階調補正部203から入力された原稿画像データとこの原稿画像データに基づいて生成した領域識別信号とをそのまま領域識別信号置換部205に出力する。あるいは、画像合成モードが選択されていない場合にも、領域分離処理部204が原稿画像データとこの原稿画像データに基づいて生成した領域識別信号とを画像記憶部700に一旦記憶させ、領域識別信号置換部205が画像記憶部700に記憶されている原稿画像データと領域識別信号とを画像記憶部700から読み出すようにしてもよい。   In the present embodiment, the user can arbitrarily select an image composition mode in which image data of another image (composition image) is combined with part of the document image data read by the image input unit 100. Yes. When the image composition mode is selected, the region separation processing unit 204 temporarily stores the document image data in association with the region identification signal generated based on the document image data in the image storage unit 700. As a result, the communication unit 600 appropriately reads out the document image data stored in the image storage unit 700 and transmits it to the external apparatus 800, and the region identification signal replacement unit 205 appropriately reads out the region identification signal stored in the image storage unit 700. It is like that. When the image composition mode is not selected, the region separation processing unit 204 is based on the document image data input from the input tone correction unit 203 and the document image data, as indicated by a broken line in FIG. The generated area identification signal is output to the area identification signal replacement unit 205 as it is. Alternatively, even when the image composition mode is not selected, the region separation processing unit 204 temporarily stores the document image data and the region identification signal generated based on the document image data in the image storage unit 700, and the region identification signal The replacement unit 205 may read the document image data and the area identification signal stored in the image storage unit 700 from the image storage unit 700.

領域識別信号置換部205は、画像合成モードが選択されている場合、通信部600を介して外部装置800から原稿画像データに対する合成用画像データの合成位置を示す合成位置情報と合成用画像データの画像種別(文字エッジ領域、網点領域、印画紙写真/ベタ領域、その他領域、および不定領域のいずれか)を示す領域種別情報を取得する。また、画像記憶部700から当該原稿画像データに対応する領域識別信号を読み出し、読み出した領域識別信号のうち、合成位置情報に対応する領域の領域識別信号を領域種別情報に応じた領域識別信号に置換する。そして、置換後の領域識別信号を黒生成下色除去部207、空間フィルタ処理部208、および階調再現処理部210に出力する。   When the image composition mode is selected, the area identification signal replacement unit 205 receives the composition position information indicating the composition position of the composition image data and the composition image data from the external device 800 via the communication unit 600 and the composition image data. Area type information indicating an image type (any one of a character edge area, a halftone dot area, a photographic paper photo / solid area, another area, and an indefinite area) is acquired. Further, an area identification signal corresponding to the document image data is read from the image storage unit 700, and among the read area identification signals, the area identification signal of the area corresponding to the combined position information is converted into an area identification signal corresponding to the area type information. Replace. Then, the replacement area identification signal is output to the black generation and under color removal unit 207, the spatial filter processing unit 208, and the gradation reproduction processing unit 210.

また、画像合成モードが選択されていない場合、領域識別信号置換部205は、領域分離処理部204から入力された原稿画像データ(あるいは画像記憶部700から読み出した原稿画像データ)をそのまま色補正部206に出力し、領域分離処理部204から入力された当該原稿画像データに対応する領域識別信号(あるいは画像記憶部700から読み出した当該原稿画像データに対応する領域識別信号)をそのまま黒生成下色除去部207、空間フィルタ処理部208、および階調再現処理部210に出力する。   When the image composition mode is not selected, the region identification signal replacement unit 205 directly uses the original image data input from the region separation processing unit 204 (or the original image data read from the image storage unit 700) as a color correction unit. The region identification signal corresponding to the document image data input to the region separation processing unit 204 (or the region identification signal corresponding to the document image data read from the image storage unit 700) is output to The data is output to the removal unit 207, the spatial filter processing unit 208, and the gradation reproduction processing unit 210.

なお、画像合成モードが選択されていない場合に、領域分離処理部204が、領域識別信号を、領域識別信号置換部205を介さずに黒生成下色除去部207、空間フィルタ処理部208、および階調再現処理部210に直接出力するようにしてもよい。あるいは、黒生成下色除去部207、空間フィルタ処理部208、および階調再現処理部210が画像記憶部700から領域識別信号を読み出すようにしてもよい。   When the image composition mode is not selected, the region separation processing unit 204 outputs the region identification signal without passing through the region identification signal replacement unit 205, the black generation and under color removal unit 207, the spatial filter processing unit 208, and You may make it output directly to the gradation reproduction process part 210. FIG. Alternatively, the black generation and under color removal unit 207, the spatial filter processing unit 208, and the gradation reproduction processing unit 210 may read the region identification signal from the image storage unit 700.

また、画像合成モードが選択されていない場合、領域分離処理部204が、原稿画像データを、領域識別信号置換部205を介さずに色補正部206に直接出力するようにしてもよい。また、色補正部206が画像記憶部700から原稿画像データを読み出すようにしてもよい。   When the image composition mode is not selected, the region separation processing unit 204 may directly output the document image data to the color correction unit 206 without going through the region identification signal replacement unit 205. Further, the color correction unit 206 may read the document image data from the image storage unit 700.

色補正部206には、画像合成モードが選択されている場合には外部装置800において原稿画像に対して合成用画像を合成した合成画像データが通信部600を介して入力され、画像合成モードが選択されていない場合には領域識別信号置換部205から原稿画像データが入力される。   When the image composition mode is selected, the color correction unit 206 receives composite image data obtained by compositing the image for composition with the document image in the external apparatus 800 via the communication unit 600, and the image composition mode is set. If not selected, document image data is input from the area identification signal replacement unit 205.

そして、色補正部206は、入力されたRGB信号からなる原稿画像データまたは合成画像データをCMY(C:シアン、M:マゼンタ、Y:イエロー)信号からなる画像データに変換するとともに、色再現の忠実化実現のために、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りを取り除く処理を行う。また、色補正部206は、色補正後の画像データを黒生成下色除去部207に出力する。   The color correction unit 206 converts the input document image data or composite image data composed of RGB signals into image data composed of CMY (C: cyan, M: magenta, Y: yellow) signals, and performs color reproduction. In order to realize faithfulness, a process of removing color turbidity based on the spectral characteristics of the CMY color material including an unnecessary absorption component is performed. The color correction unit 206 outputs the color-corrected image data to the black generation and under color removal unit 207.

黒生成下色除去部207は、色補正部206から入力されたCMY信号(複数の有彩色の組み合わせからなる画像データ)から黒(K)信号を生成する黒生成処理と、元のCMY信号から黒生成処理で得た黒信号に相当する値を差し引いて新たなCMY信号を出力する処理とを実行し、CMYK信号(黒と複数の有彩色の組み合わせとからなる画像データ)を生成する。そして、黒生成下色除去部207は、生成したCMYK信号を空間フィルタ処理部208に出力する。   The black generation and under color removal unit 207 generates a black (K) signal from the CMY signal (image data including a combination of a plurality of chromatic colors) input from the color correction unit 206, and the original CMY signal. A process of subtracting a value corresponding to the black signal obtained by the black generation process and outputting a new CMY signal is executed to generate a CMYK signal (image data composed of a combination of black and a plurality of chromatic colors). Then, the black generation and under color removal unit 207 outputs the generated CMYK signal to the spatial filter processing unit 208.

具体的には、黒生成下色除去部207は、黒生成下色除去処理の一般的な方法であるスケルトンブラックによる黒生成下色除去処理を行う。この方法は、スケルトンカーブの入出力特性をy=f(x)、UCR(Under Color Removal、下色除去)率をα(0<α<1)、色補正部206から黒生成下色除去部207に入力されるデータをC、M、Y、黒生成下色除去部207によって生成されるデータをC’、M’、Y’、K’とすると、
K’=f{min(C,M,Y)}
C’=C−αK’
M’=M−αK’
Y’=M−αK’
を演算することによってC’、M’、Y’、K’が算出される。
Specifically, the black generation and under color removal unit 207 performs black generation and under color removal processing using skeleton black, which is a general method of black generation and under color removal processing. In this method, the input / output characteristics of the skeleton curve are y = f (x), the UCR (Under Color Removal) rate is α (0 <α <1), and the black correction and under color removal unit from the color correction unit 206. If the data input to 207 is C, M, Y, and the data generated by the black generation and under color removal unit 207 is C ′, M ′, Y ′, K ′,
K ′ = f {min (C, M, Y)}
C ′ = C−αK ′
M ′ = M−αK ′
Y ′ = M−αK ′
C ′, M ′, Y ′, and K ′ are calculated by calculating.

なお、黒生成下色除去部207は、領域識別信号に応じてUCR率αの値を設定するようになっている。具体的には、文字エッジ領域については、網点領域、印画紙写真/ベタ領域、およびその他領域よりもUCR率αの値を大きくしてKの量(濃度)を多くし、CMYの量を減らす。また、網点領域、印画紙写真/ベタ領域、およびその他領域については、文字エッジ領域よりもUCR率αの値を小さくしてKの量を少なくし、CMYの量を増やす。なお、黒生成下色除去部207は、不定領域については黒生成下色除去処理を行わない。すなわち、不定領域については黒生成下色除去処理をスルーする。   Note that the black generation and under color removal unit 207 sets the value of the UCR rate α in accordance with the region identification signal. Specifically, for the character edge area, the value of UCR rate α is increased to increase the amount of K (density) compared to the halftone dot area, photographic paper photo / solid area, and other areas, and the amount of CMY is increased. cut back. For the halftone dot area, the photographic paper photograph / solid area, and other areas, the UCR rate α is made smaller than the character edge area to reduce the amount of K and the amount of CMY. Note that the black generation and under color removal unit 207 does not perform black generation and under color removal processing for the indefinite region. That is, the black generation and under color removal processing is passed through for the indefinite region.

空間フィルタ処理部208は、黒生成下色除去部207から入力されたCMYKの画像データにおける各画像領域に対し、空間周波数特性を補正して出力画像のぼやけや粒状性劣化を防止するために、領域識別信号に基づいて当該各画像領域の画像種別に応じたフィルタ処理(デジタルフィルタによる空間フィルタ処理)を施す。また、空間フィルタ処理部208は、フィルタ処理後の画像データを出力階調補正部209に出力する。図4は、画像領域の画像種別と空間フィルタ処理部208におけるフィルタ処理の内容との関係を示している。   The spatial filter processing unit 208 corrects the spatial frequency characteristics for each image area in the CMYK image data input from the black generation and under color removal unit 207 to prevent blurring of the output image and deterioration of graininess. Based on the region identification signal, filter processing (spatial filter processing using a digital filter) corresponding to the image type of each image region is performed. Further, the spatial filter processing unit 208 outputs the image data after the filter processing to the output tone correction unit 209. FIG. 4 shows the relationship between the image type of the image area and the content of the filter processing in the spatial filter processing unit 208.

この図に示すように、空間フィルタ処理部208は、文字エッジ領域に対しては、黒文字または色文字の再現性を高めるために、鮮鋭強調処理(鮮鋭強調のためのフィルタ処理)を行って高周波数の強調量を大きくする。   As shown in this figure, the spatial filter processing unit 208 performs sharp enhancement processing (filter processing for sharp enhancement) on the character edge region in order to improve the reproducibility of black characters or color characters. Increase the amount of frequency enhancement.

また、空間フィルタ処理部208は、網点領域に対しては、入力網点成分を除去するための平滑化処理(平滑化のためのフィルタ処理)を施す。   Further, the spatial filter processing unit 208 performs a smoothing process (filtering process for smoothing) for removing the input halftone dot component on the halftone dot region.

また、空間フィルタ処理部208は、印画紙写真/ベタ領域およびその他領域に対しては、適応化混合フィルタ処理、すなわち、高周波成分に対してある程度の平滑化を行いつつ、低周波成分に対してある程度の鮮鋭化を行うフィルタ処理(適応化混合処理)を行う。これにより、網点領域とも文字エッジ領域とも判定しにくい領域(例えば写真領域や原稿の下地領域など)に対しても適切な処理を行う。また、空間フィルタ処理部208は、不定領域(例えば文字と網点とが混在する領域など)にはフィルタ処理を適用しない。   In addition, the spatial filter processing unit 208 performs adaptive mixed filter processing on the photographic paper photograph / solid region and other regions, that is, performs some smoothing on the high-frequency component, while performing low-frequency component. A filter process (adaptive mixing process) that performs sharpening to some extent is performed. As a result, appropriate processing is performed even on regions that are difficult to determine as halftone regions or character edge regions (for example, photographic regions and document background regions). Also, the spatial filter processing unit 208 does not apply the filter process to indefinite areas (for example, areas where characters and halftone dots are mixed).

出力階調補正部209は、画像出力部300の出力特性に応じた網点面積率に変換する出力階調補正処理(出力γ補正処理)を実行し、出力階調補正処理後の画像データを階調再現処理部210に出力する。   The output tone correction unit 209 executes an output tone correction process (output γ correction process) for converting to a halftone dot area ratio according to the output characteristics of the image output unit 300, and outputs the image data after the output tone correction process. Output to the gradation reproduction processing unit 210.

階調再現処理部210は、出力階調補正部209から入力されたCMYKの画像データを画素に分離するとともに、各画素に対して当該画素の領域識別信号に応じた最適なスクリーンを用いて階調を再現する階調再現処理(中間調処理)を施す。すなわち、画像データに応じた画像を記録材上に形成するためのドットパターンを生成する。具体的には、文字エッジ領域に対しては、文字エッジ領域以外の画像領域よりもサイズの小さいディザ行列(例えば1×1サイズのディザ行列)を用いたディザ処理を行って文字の解像度を高める。また、文字エッジ領域以外の画像領域に対しては、文字エッジ領域よりもサイズの大きいディザ行列(例えば、3×3サイズのディザ行列)を用いたディザ処理を行って階調性を保つ。   The gradation reproduction processing unit 210 separates the CMYK image data input from the output gradation correction unit 209 into pixels, and uses a screen that is optimal for each pixel according to the region identification signal of the pixel. A tone reproduction process (halftone process) for reproducing a tone is performed. That is, a dot pattern for forming an image corresponding to the image data on the recording material is generated. Specifically, the character edge region is subjected to dither processing using a dither matrix (for example, a 1 × 1 size dither matrix) smaller in size than the image region other than the character edge region to increase the character resolution. . In addition, the image area other than the character edge area is subjected to dither processing using a dither matrix having a size larger than that of the character edge area (for example, a 3 × 3 size dither matrix) to maintain gradation.

画像処理部200において上述した各処理が施された画像データは、画像出力部300に出力される。なお、画像処理部200において上述した各処理が施された画像データを、一旦、画像記憶部700あるいは他のメモリ(図示せず)に記憶させ、所定のタイミングで読み出して画像出力部300に出力するようにしてもよい。   The image data that has been subjected to the above-described processes in the image processing unit 200 is output to the image output unit 300. The image data subjected to the above-described processes in the image processing unit 200 is temporarily stored in the image storage unit 700 or another memory (not shown), read out at a predetermined timing, and output to the image output unit 300. You may make it do.

なお、上記の説明では、A/D変換部201、シェーディング補正部202、入力階調補正部203、領域分離処理部204、領域識別信号置換部205、色補正部206、黒生成下色除去部207、空間フィルタ処理部208、出力階調補正部209、および階調再現処理部(中間調生成部)210が画像データを次段の処理部に順次出力していくものとしている。しかしながら、これに限らず、必要に応じて、画像データを画像記憶部700あるいは他のメモリ(図示せず)に一旦格納し、所定のタイミングで読み出して次段の処理部に入力するようにしてもよい。領域識別信号についても同様に、画像記憶部700あるいは他のメモリに一旦格納し、所定のタイミングで読み出して所定の処理部に出力するようにしてもよい。上記メモリとしては、例えばランダムアクセスメモリ(RAM)やハードディスクドライブ(HDD)などを用いることができる。   In the above description, the A / D conversion unit 201, the shading correction unit 202, the input tone correction unit 203, the region separation processing unit 204, the region identification signal replacement unit 205, the color correction unit 206, and the black generation lower color removal unit. 207, the spatial filter processing unit 208, the output tone correction unit 209, and the tone reproduction processing unit (halftone generation unit) 210 sequentially output image data to the processing unit of the next stage. However, the present invention is not limited to this, and if necessary, the image data is temporarily stored in the image storage unit 700 or other memory (not shown), read at a predetermined timing, and input to the processing unit in the next stage. Also good. Similarly, the region identification signal may be temporarily stored in the image storage unit 700 or another memory, read out at a predetermined timing, and output to a predetermined processing unit. For example, a random access memory (RAM) or a hard disk drive (HDD) can be used as the memory.

画像出力部300は、画像処理部200から入力される画像データに応じた画像を記録材上に形成(印刷)する。   The image output unit 300 forms (prints) an image corresponding to the image data input from the image processing unit 200 on a recording material.

なお、画像出力部300の構成は特に限定されるものではないが、本実施形態では、電子写真方式のものを採用している。具体的には、画像出力部300は、図3に示したように、給紙トレイ81、手差し給紙トレイ82、ピックアップローラ11a,11b、搬送ローラ12a,12b,12c,12d、画像形成ユニット20c,20m,20y,20k、中間転写装置6、2次転写ローラ14、および定着装置7を備えている。   The configuration of the image output unit 300 is not particularly limited, but in the present embodiment, an electrophotographic system is adopted. Specifically, as shown in FIG. 3, the image output unit 300 includes a paper feed tray 81, a manual paper feed tray 82, pickup rollers 11a and 11b, transport rollers 12a, 12b, 12c, and 12d, and an image forming unit 20c. 20m, 20y, 20k, an intermediate transfer device 6, a secondary transfer roller 14, and a fixing device 7.

記録材搬送処理部301は、ピックアップローラ11a,11b、搬送ローラ12a,12b,12c,12d等の動作を制御し、給紙トレイ81または手差し給紙トレイ82に載置された記録材、あるいは定着装置7による定着処理が行われた後、表裏を反転させた記録材を2次転写ローラ14と中間転写装置6との対向部に搬送し、この対向部でトナー像が転写された記録材を定着装置7に搬送し、定着処理後の記録材を排紙トレイ83に排出させる。   The recording material conveyance processing unit 301 controls the operations of the pickup rollers 11a and 11b, the conveyance rollers 12a, 12b, 12c, and 12d and the like, and the recording material placed on the paper feed tray 81 or the manual paper feed tray 82 or the fixing. After the fixing process by the apparatus 7 is performed, the recording material with the front and back reversed is conveyed to a facing portion between the secondary transfer roller 14 and the intermediate transfer device 6, and the recording material onto which the toner image has been transferred is transferred to this facing portion. The recording material is conveyed to the fixing device 7 and discharged onto the paper discharge tray 83 after the fixing process.

画像形成処理部302は、画像形成ユニット20c,20m,20y,20k、中間転写装置6、および2次転写ローラ14の動作を制御し、画像データに応じたトナー像を形成して記録材に転写させる。   The image forming processing unit 302 controls the operations of the image forming units 20c, 20m, 20y, and 20k, the intermediate transfer device 6, and the secondary transfer roller 14, and forms a toner image according to the image data and transfers it to the recording material. Let

画像形成ユニット20c,20m,20y,20kは、画像データに応じて、それぞれシアン、マゼンタ、イエロー、ブラックのトナー像を生成するものであり、これら各画像形成ユニットは使用するトナーの色が異なる以外は略同様の構成を有している。すなわち、各画像形成ユニットは、感光体ドラム3と、感光体ドラム3の表面を均一に帯電する帯電器5と、帯電された感光体ドラム3の表面に当該画像形成ユニットに対応する色の画像データに応じた光を照射して感光体ドラム3の表面に静電潜像を形成する光走査ユニット1と、感光体ドラム3の表面に形成された静電潜像を当該画像形成ユニットに対応する色のトナーを用いて現像する現像装置2と、感光体ドラム3から後述する中間転写ベルト91に転写されずに感光体ドラム3の表面に残留したトナーを除去するクリーニング装置4とを備えている。   The image forming units 20c, 20m, 20y, and 20k generate cyan, magenta, yellow, and black toner images, respectively, according to the image data. These image forming units are different in the color of the toner that is used. Have substantially the same configuration. That is, each image forming unit includes a photosensitive drum 3, a charger 5 that uniformly charges the surface of the photosensitive drum 3, and an image of a color corresponding to the image forming unit on the surface of the charged photosensitive drum 3. The optical scanning unit 1 that irradiates light according to data to form an electrostatic latent image on the surface of the photosensitive drum 3 and the electrostatic latent image formed on the surface of the photosensitive drum 3 correspond to the image forming unit. And a cleaning device 4 that removes toner remaining on the surface of the photosensitive drum 3 without being transferred from the photosensitive drum 3 to an intermediate transfer belt 91 described later. Yes.

中間転写装置6は、支持ローラ92,93と、これら各支持ローラに懸架されて回転駆動される中間転写ベルト91と、中間転写ベルト91を介して各感光体ドラム3にそれぞれ対向するように配置された転写ローラ94とを備えている。各転写ローラ94には、感光体ドラム3の表面に形成されたトナー像の帯電極性とは逆極性の電圧が印加され、それによって感光体ドラム3の表面に形成された各色のトナー像が中間転写ベルト91上に重ね合わせて転写されるようになっている。また、中間転写ベルト91上に転写されたトナー像は、この中間転写ベルト91の回転によって2次転写ローラ14との対向部に搬送される。   The intermediate transfer device 6 is disposed so as to face support rollers 92 and 93, an intermediate transfer belt 91 that is suspended and driven by rotation of these support rollers, and the photosensitive drums 3 via the intermediate transfer belt 91. The transfer roller 94 is provided. A voltage having a polarity opposite to the charging polarity of the toner image formed on the surface of the photoconductive drum 3 is applied to each transfer roller 94, whereby each color toner image formed on the surface of the photoconductive drum 3 is intermediate. The image is transferred onto the transfer belt 91 in a superimposed manner. Further, the toner image transferred onto the intermediate transfer belt 91 is conveyed to a portion facing the secondary transfer roller 14 by the rotation of the intermediate transfer belt 91.

2次転写ローラ14と中間転写ベルト91との間には、中間転写ベルト91上のトナー像が2次転写ローラ14との対向部に搬送されるのに同期して、トナー像の転写対象となる記録材が搬送される。つまり、2次転写ローラ14と中間転写ベルト91との間には、(1)給紙トレイ81からピックアップローラ11aによって抽出されて搬送ローラ12a、レジストローラ13等を介して搬送された記録材、(2)手差し給紙トレイ82からピックアップローラ11bによって抽出されて搬送ローラ12a、レジストローラ13等を介して搬送された記録材、あるいは(3)後述する定着装置7による定着処理が行われた後、搬送ローラ12dによるスイッチバックによって表裏を反転され、搬送ローラ12c,12d、レジストローラ13等を介して再搬送された記録材が搬送される。また、2次転写ローラ14にはトナーの帯電極性とは逆極性の高電圧が印加され、それによって中間転写ベルト91上のトナー像が記録材に2次転写される。   Between the secondary transfer roller 14 and the intermediate transfer belt 91, the toner image on the intermediate transfer belt 91 is conveyed to a portion facing the secondary transfer roller 14 in synchronization with the transfer target of the toner image. A recording material is conveyed. That is, between the secondary transfer roller 14 and the intermediate transfer belt 91, (1) a recording material extracted from the paper feed tray 81 by the pickup roller 11a and conveyed via the conveying roller 12a, the registration roller 13, and the like, (2) Recording material extracted from the manual paper feed tray 82 by the pickup roller 11b and conveyed through the conveyance roller 12a, the registration roller 13, or the like, or (3) after the fixing process by the fixing device 7 described later is performed. Then, the front and back are reversed by the switchback by the transport roller 12d, and the recording material transported again through the transport rollers 12c and 12d, the registration roller 13 and the like is transported. Further, a high voltage having a polarity opposite to the charging polarity of the toner is applied to the secondary transfer roller 14, whereby the toner image on the intermediate transfer belt 91 is secondarily transferred to the recording material.

定着処理部303は、定着装置7の動作を制御して記録材上に転写されたトナー像をこの記録材に定着させる。つまり、2次転写ローラ14と中間転写ベルト91との対向部においてトナー像が転写された記録材は定着装置7に搬送され、定着装置7によってトナー像を記録材に定着させる定着処理が行われる。   The fixing processing unit 303 controls the operation of the fixing device 7 to fix the toner image transferred onto the recording material to the recording material. That is, the recording material onto which the toner image has been transferred at the opposing portion between the secondary transfer roller 14 and the intermediate transfer belt 91 is conveyed to the fixing device 7 and the fixing device 7 fixes the toner image on the recording material. .

なお、画像出力部300の構成は電子写真方式の画像形成装置に限るものではなく、例えばインクジェット方式の画像形成装置などを用いてもよい。   Note that the configuration of the image output unit 300 is not limited to the electrophotographic image forming apparatus, and for example, an inkjet image forming apparatus may be used.

操作パネル500は、ユーザからの指示入力を受け付けて制御部400に伝達する入力部502と、ユーザに呈示する各種情報を表示するための表示部501とを備えている。表示部501は、例えば液晶ディスプレイなどによって構成され、入力部502は例えば各種設定ボタンなどよって構成される。なお、表示部501の機能と入力部502の機能とを一体化させたタッチパネルを操作パネル500に備えてもよい。   The operation panel 500 includes an input unit 502 that receives an instruction input from a user and transmits the instruction input to the control unit 400, and a display unit 501 for displaying various information presented to the user. The display unit 501 is configured by, for example, a liquid crystal display, and the input unit 502 is configured by, for example, various setting buttons. Note that the operation panel 500 may include a touch panel in which the function of the display unit 501 and the function of the input unit 502 are integrated.

通信部600は、例えばモデムやネットワークカードより構成される。通信部600は、ネットワークカード、LANケーブル等を介してデジタル複合機10をネットワークに接続し、このネットワークに通信可能に接続された外部装置(例えば、パーソナルコンピュータ、サーバ装置、他のデジタル複合機、ファクシミリ装置等)とデータ通信を行う。また、通信部600は、USBインタフェース等を介してデジタルカメラやメモリカード等の外部装置と通信を行う機能を有している。   The communication unit 600 is configured by a modem or a network card, for example. The communication unit 600 connects the digital multifunction peripheral 10 to a network via a network card, a LAN cable, and the like, and an external device (for example, a personal computer, a server device, another digital multifunction peripheral, Data communication with a facsimile machine or the like). The communication unit 600 has a function of communicating with an external device such as a digital camera or a memory card via a USB interface or the like.

外部装置800は、通信部801、画像合成アプリケーション802、および記憶部806を備えている。また、画像合成アプリケーション802は、画像合成部803、合成位置決定部804、および領域種別指定部805を備えている。   The external device 800 includes a communication unit 801, an image composition application 802, and a storage unit 806. The image composition application 802 includes an image composition unit 803, a composition position determination unit 804, and an area type designation unit 805.

なお、本実施形態では、外部装置800に対する操作指示をユーザがデジタル複合機10の操作パネル500を用いて行うようになっており、デジタル複合機10の制御部400が通信部600を介して外部装置800に制御命令を送信し、外部装置800の動作をデジタル複合機10の制御部400が直接制御するようになっている(いわゆるオープンシステムモード)。ただし、これに限らず、外部装置800の制御部(図示せず)がデジタル複合機10からの画像合成指示に応じて外部装置800の各部の動作を制御するようにしてもよい。また、外部装置800に液晶ディスプレイ等の表示装置とキーボードやマウス等の指示入力装置(いずれも図示せず)とを設け、この指示入力装置を介してユーザが指示入力を行うようにしてもよい。   In the present embodiment, the user issues an operation instruction to the external device 800 using the operation panel 500 of the digital multifunction device 10, and the control unit 400 of the digital multifunction device 10 is externally connected via the communication unit 600. A control command is transmitted to the apparatus 800, and the control unit 400 of the digital multi-function peripheral 10 directly controls the operation of the external apparatus 800 (so-called open system mode). However, the present invention is not limited to this, and a control unit (not shown) of the external device 800 may control the operation of each unit of the external device 800 in accordance with an image composition instruction from the digital multifunction peripheral 10. The external device 800 may be provided with a display device such as a liquid crystal display and an instruction input device (none of which is shown) such as a keyboard and a mouse, and the user may input an instruction via the instruction input device. .

通信部801は、例えばモデムやネットワークカードより構成される。通信部801は、ネットワークカード、LANケーブル等を介して外部装置800をネットワークに接続し、このネットワークに通信可能に接続されたデジタル複合機10あるいは他の装置(パーソナルコンピュータ、サーバ装置等)とデータ通信を行う。また、通信部801は、USBインタフェース等を介してデジタルカメラやメモリカード等の他の装置と通信を行う機能を有している。   The communication unit 801 is constituted by a modem or a network card, for example. The communication unit 801 connects the external device 800 to a network via a network card, a LAN cable, etc., and the digital multi-function peripheral 10 or other devices (personal computer, server device, etc.) connected to the network so as to communicate with the data. Communicate. The communication unit 801 has a function of communicating with other devices such as a digital camera and a memory card via a USB interface or the like.

記憶部806は、画像合成処理に用いる合成用画像の画像データ(合成用画像データ)を記憶している。この合成用画像データは、例えば、スキャナやデジタルカメラ等によって撮像された画像データであってもよく、外部装置800に備えられる各種アプリケーションソフトによって生成された画像データであってもよく、外部装置800が通信部801を介して他の装置から取得した画像データであってもよい。また、合成用画像データの解像度は原稿画像データの解像度と異なっていてもよい。   The storage unit 806 stores image data of a composition image (composition image data) used for image composition processing. The image data for synthesis may be, for example, image data captured by a scanner, a digital camera, or the like, or may be image data generated by various application software provided in the external device 800. May be image data acquired from another device via the communication unit 801. Further, the resolution of the composition image data may be different from the resolution of the document image data.

画像合成アプリケーション802は、画像合成部803、合成位置決定部804、および領域種別指定部805を備えている。   The image composition application 802 includes an image composition unit 803, a composition position determination unit 804, and an area type designation unit 805.

画像合成部803は、通信部801を介してデジタル複合機10から受信した原稿画像データの一部に合成用画像データを合成する画像合成処理を行って合成画像データを生成し、生成した合成画像データを、通信部801を介してデジタル複合機10に送信する。なお、この画像合成処理に用いる合成用画像データは、ユーザがデジタル複合機10の操作パネル500を操作して外部装置800の記憶部806に格納されている画像データの中から選択する。ただし、これに限らず、例えば、原稿画像データだけでなく合成用画像データについてもデジタル複合機10から外部装置800に送信するようにしてもよい。また、外部装置800に対して通信可能に接続された他の装置から合成用画像データを外部装置800に送信させ、外部装置800が受信した上記合成用画像データを用いて画像合成処理を行うようにしてもよい。   The image composition unit 803 generates composite image data by performing image composition processing for compositing image data for composition on a part of the document image data received from the digital multifunction peripheral 10 via the communication unit 801, and the generated composite image Data is transmitted to the digital multi-function peripheral 10 via the communication unit 801. Note that the image data for synthesis used for this image synthesis processing is selected from the image data stored in the storage unit 806 of the external apparatus 800 by the user operating the operation panel 500 of the digital multifunction peripheral 10. However, the present invention is not limited to this. For example, not only document image data but also image data for synthesis may be transmitted from the digital multifunction peripheral 10 to the external device 800. Further, the image data for synthesis is transmitted from another device communicably connected to the external device 800 to the external device 800, and the image composition processing is performed using the image data for synthesis received by the external device 800. It may be.

合成位置決定部804は、原稿画像に対する合成画像の合成位置を示す合成位置情報を生成し、通信部801を介してデジタル複合機10に送信する。例えば、ユーザがデジタル複合機10の表示部501に表示された原稿画像のレイアウトに対して入力部502を操作して合成画像の合成位置を示す図形(例えば合成範囲を示す矩形)の位置を指定すると、指定された位置および範囲を示す情報が外部装置800に送信される。合成位置決定部804は、これらの情報に基づいて原稿画像データにおける合成用画像データを合成する範囲および位置を特定し、それを示す合成位置情報を生成する。   The composite position determination unit 804 generates composite position information indicating the composite position of the composite image with respect to the document image, and transmits the composite position information to the digital multifunction peripheral 10 via the communication unit 801. For example, the user operates the input unit 502 with respect to the layout of the original image displayed on the display unit 501 of the digital multi-function peripheral 10 and specifies the position of a figure (for example, a rectangle indicating the synthesis range) indicating the synthesis position of the synthesized image. Then, information indicating the designated position and range is transmitted to the external device 800. Based on these pieces of information, the composition position determination unit 804 specifies a range and a position for compositing the image data for composition in the document image data, and generates composition position information indicating the range and position.

領域種別指定部805は、合成用画像の画像種別(文字エッジ領域、網点領域、印画紙写真/ベタ領域、その他領域、および不定領域のうちのいずれであるか)を示す領域識別情報を生成し、通信部801を介してデジタル複合機10に送信する。   The area type designation unit 805 generates area identification information indicating the image type (character edge area, halftone dot area, photographic paper photo / solid area, other area, or indefinite area) of the composition image. Then, the data is transmitted to the digital multifunction peripheral 10 via the communication unit 801.

例えば、ユーザが合成用画像を指定する際に、当該合成用画像の画像種別を指定するようにしてもよい。また、画像データを記憶部806に記録させる際にその画像データの画像種別を対応付けて記憶させておき、領域種別指定部705が合成用画像として選択された画像の画像種別を記憶部806から読み出して領域識別情報を生成するようにしてもよい。また、合成用画像データに対して領域分離処理を施し、その結果に基づいて領域識別情報を生成するようにしてもよい。この場合、領域分離処理は外部装置800において行ってもよく、合成用画像データをデジタル複合機10に送信し、デジタル複合機10の領域分離処理部204において行ってもよい。   For example, when the user designates a composition image, the image type of the composition image may be designated. In addition, when the image data is recorded in the storage unit 806, the image type of the image data is stored in association with the image type, and the image type of the image selected as the composition image by the region type designation unit 705 is stored from the storage unit 806. The region identification information may be generated by reading. Alternatively, region separation processing may be performed on the composition image data, and region identification information may be generated based on the result. In this case, the region separation processing may be performed by the external device 800, or the image data for synthesis may be transmitted to the digital multifunction device 10 and performed by the region separation processing unit 204 of the digital multifunction device 10.

(1−2.画像処理システム1000の動作)
まず、デジタル複合機10の画像入力部100がユーザからの指示に応じて原稿の画像読取処理を行って原稿画像データを取得し(S1)、画像処理部200に出力する。
(1-2. Operation of Image Processing System 1000)
First, the image input unit 100 of the digital multifunction peripheral 10 performs document image reading processing in accordance with an instruction from the user, acquires document image data (S1), and outputs the document image data to the image processing unit 200.

画像処理部200では、入力された原稿画像データに対して、A/D変換部201がA/D変換処理を施し(S2)、シェーディング補正部202がシェーディング補正処理を施し(S3)、入力階調補正部203が入力階調補正処理を施し(S4)、領域分離処理部204が領域分離処理を施す(S5)。その後、領域分離処理部204は、画像合成処理を行うか否かを判断する(S6)。この判断は、例えば、ユーザからの画像合成処理の実行指示があったか否かに基づいて行う。   In the image processing unit 200, the A / D conversion unit 201 performs A / D conversion processing on the input document image data (S2), and the shading correction unit 202 performs shading correction processing (S3). The tone correction unit 203 performs input tone correction processing (S4), and the region separation processing unit 204 performs region separation processing (S5). Thereafter, the region separation processing unit 204 determines whether or not to perform image composition processing (S6). This determination is made based on, for example, whether or not there has been an instruction to perform image composition processing from the user.

S6において画像合成処理を行うと判断した場合、領域分離処理部204は、入力階調補正部203から入力された原稿画像データ、および領域分離処理の結果を示す領域識別信号を画像記憶部700に一旦記憶させる。そして、通信部600が、画像記憶部700に記憶された原稿画像データを読み出して外部装置800に送信する(S7)。   If it is determined in S6 that the image composition processing is to be performed, the region separation processing unit 204 receives the document image data input from the input tone correction unit 203 and a region identification signal indicating the result of the region separation processing in the image storage unit 700. Remember once. Then, the communication unit 600 reads the document image data stored in the image storage unit 700 and transmits it to the external device 800 (S7).

外部装置800では、通信部801がデジタル複合機10から送信された原稿画像データを受信すると(S21)、合成位置決定部804がユーザからの指示入力に応じて原稿画像データに対する合成用画像の合成位置を決定して合成位置情報を生成する。例えば、合成位置決定部804は、原稿画像データにおける合成用画像データを合成する領域に属する各画素における合成位置情報に対応する値を1、その他の領域における合成位置情報に対応する値を0として示した合成位置情報を生成する。ただし、合成位置情報の構成はこれに限らず、例えば合成位置の輪郭部あるいは角部の位置を示す座標値あるいは画素を特定する値などによって合成位置を示すものであってもよい。   In the external apparatus 800, when the communication unit 801 receives the original image data transmitted from the digital multifunction peripheral 10 (S21), the combining position determination unit 804 combines the combining image with the original image data in response to an instruction input from the user. The position is determined and composite position information is generated. For example, the composition position determination unit 804 sets the value corresponding to the composition position information in each pixel belonging to the region to be composed of the composition image data in the document image data to 1 and the value corresponding to the composition position information in the other regions to 0. The indicated composite position information is generated. However, the configuration of the composite position information is not limited to this, and the composite position may be indicated by, for example, a coordinate value indicating the position of the outline or corner of the composite position or a value specifying a pixel.

また、画像合成部803がユーザからの合成用画像データの選択指示に応じて合成用画像データを特定する(S23)。さらに、画像合成部803が、原稿画像データに対する合成用画像データの画像合成処理を行って合成画像データを生成する(S24)。   Further, the image composition unit 803 specifies the image data for composition in response to the selection instruction of the image data for composition from the user (S23). Further, the image composition unit 803 performs image composition processing of the image data for composition on the document image data to generate composite image data (S24).

また、領域種別指定部805がユーザからの指示入力に応じて合成用画像データの画像種別を指定する領域種別情報を生成する。その後、通信部801が、合成画像データ、合成位置情報、および領域種別情報をデジタル複合機10に返信し、外部装置800は処理を終了する。   Further, the area type designation unit 805 generates area type information for designating the image type of the image data for synthesis in response to an instruction input from the user. Thereafter, the communication unit 801 returns the composite image data, the composite position information, and the area type information to the digital multi-function peripheral 10, and the external device 800 ends the process.

図5(a)は文字/エッジ領域、網点領域、および印画紙写真/ベタ領域が混在している原稿画像データの一例を示す説明図であり、図5(b)は合成用画像データの一例を示す説明図である。なお、この合成用画像データの画像種別はユーザによって印画紙写真/ベタ画像(印画紙写真/ベタ領域)として指定されているものとする。   FIG. 5A is an explanatory diagram showing an example of document image data in which a character / edge area, a halftone dot area, and a photographic paper photograph / solid area are mixed, and FIG. 5B is an example of composition image data. It is explanatory drawing which shows an example. It is assumed that the image type of the composition image data is designated by the user as a photographic paper photograph / solid image (printed paper photograph / solid area).

図5(c)は原稿画像データに対する合成用画像データの合成位置を示す合成位置情報の一例を示す説明図である。図5(d)は、図5(a)の原稿画像データにおける図5(c)の合成位置情報に示される位置に図5(b)の合成用画像データを合成して得られる合成画像データの一例を示す説明図である。なお、上述したように、合成用画像データの画像種別はユーザによって印画紙写真/ベタ画像(印画紙写真/ベタ領域)として指定されているので、図5(d)に示したように、領域識別信号置換部205によって置換処理がなされた後の領域識別信号では、合成画像データにおける合成用画像が合成された領域の画像種別は印画紙写真/ベタ画像(印画紙写真/ベタ領域)となる。   FIG. 5C is an explanatory diagram showing an example of the synthesis position information indicating the synthesis position of the synthesis image data with respect to the document image data. FIG. 5D shows composite image data obtained by combining the image data for synthesis shown in FIG. 5B at the position indicated by the composite position information shown in FIG. 5C in the original image data shown in FIG. It is explanatory drawing which shows an example. As described above, since the image type of the image data for composition is designated by the user as a photographic paper photo / solid image (photographic paper photo / solid region), as shown in FIG. In the area identification signal after the replacement processing is performed by the identification signal replacement unit 205, the image type of the area where the image for synthesis is combined in the combined image data is photographic paper photograph / solid image (photographic paper photograph / solid area). .

デジタル複合機10の通信部600が外部装置800から返信されてきた合成画像データ、合成位置情報、および領域種別情報を受信すると(S8)、領域識別信号置換部205が領域分離処理部204によって生成された領域識別信号における合成用画像に対応する領域を外部装置800から受信した領域種別情報に対応する信号に置換(補正)する(S9)。そして、領域識別信号置換部205は、外部装置800から受信した合成画像データを色補正部206に出力するとともに、置換処理後の領域識別信号を黒生成下色除去部207、空間フィルタ処理部208、および階調再現処理部210に出力する。   When the communication unit 600 of the digital multifunction peripheral 10 receives the composite image data, composite position information, and region type information returned from the external device 800 (S8), the region identification signal replacement unit 205 generates the region separation processing unit 204. The area corresponding to the synthesis image in the area identification signal thus replaced is replaced (corrected) with a signal corresponding to the area type information received from the external device 800 (S9). Then, the area identification signal replacement unit 205 outputs the composite image data received from the external device 800 to the color correction unit 206, and outputs the area identification signal after the replacement process to the black generation and under color removal unit 207 and the spatial filter processing unit 208. , And the gradation reproduction processing unit 210.

一方、S6において画像合成処理を行わないと判断した場合、領域分離処理部204は、入力階調補正部203から入力された原稿画像データをそのまま色補正部206に出力するとともに、領域分離処理の結果を示す領域識別信号を黒生成下色除去部207、空間フィルタ処理部208、および階調再現処理部210に出力する。   On the other hand, if it is determined in S6 that the image composition processing is not performed, the region separation processing unit 204 outputs the document image data input from the input tone correction unit 203 to the color correction unit 206 as it is, and performs region separation processing. A region identification signal indicating the result is output to the black generation and under color removal unit 207, the spatial filter processing unit 208, and the gradation reproduction processing unit 210.

その後、色補正部206が、領域識別信号置換部205から入力された画像データ(原稿画像データあるいは合成画像データ)に対して色補正処理を行い(S10)、色補正処理後の画像データを黒生成下色除去部207に出力する。   Thereafter, the color correction unit 206 performs color correction processing on the image data (original image data or composite image data) input from the region identification signal replacement unit 205 (S10), and the image data after the color correction processing is converted to black. The data is output to the generated under color removal unit 207.

次に、黒生成下色除去部207が色補正部206から入力された画像データに対して領域識別信号置換部205から入力された領域識別信号に基づいて黒生成下色除去処理を行い(S11)、空間フィルタ処理部208に出力する。   Next, the black generation and under color removal unit 207 performs black generation and under color removal processing on the image data input from the color correction unit 206 based on the region identification signal input from the region identification signal replacement unit 205 (S11). ) And output to the spatial filter processing unit 208.

次に、空間フィルタ処理部208が黒生成下色除去部207から入力された画像データに対して領域識別信号置換部205から入力された領域識別信号に基づいて空間フィルタ処理を行い(S12)、出力階調補正部209に出力する。   Next, the spatial filter processing unit 208 performs spatial filter processing on the image data input from the black generation and under color removal unit 207 based on the region identification signal input from the region identification signal replacement unit 205 (S12), The data is output to the output tone correction unit 209.

次に、出力階調補正部209が空間フィルタ処理部208から入力された画像データに対して出力階調補正処理を行い(S13)、階調再現処理部210に出力する。   Next, the output tone correction unit 209 performs output tone correction processing on the image data input from the spatial filter processing unit 208 (S13), and outputs it to the tone reproduction processing unit 210.

そして、階調再現処理部210が出力階調補正部209から入力された画像データに対して領域識別信号置換部205から入力された領域識別信号に基づいて階調再現処理を行い(S14)、階調再現処理後の画像データを画像出力部300に出力する。   The gradation reproduction processing unit 210 performs gradation reproduction processing on the image data input from the output gradation correction unit 209 based on the region identification signal input from the region identification signal replacement unit 205 (S14). The image data after the gradation reproduction process is output to the image output unit 300.

その後、画像出力部300が画像処理部200の階調再現処理部210から入力された画像データに応じた画像を記録材上に形成する画像形成処理を行い(S15)、デジタル複合機10は処理を終了する。   Thereafter, the image output unit 300 performs an image forming process for forming an image on the recording material according to the image data input from the gradation reproduction processing unit 210 of the image processing unit 200 (S15). Exit.

以上のように、本実施形態にかかる画像処理システム1000は、原稿画像データに領域分離処理を施して各画像領域の画像種別を示す領域識別信号を生成する領域分離処理部204と、各画像領域に対して当該各画像領域の画像種別に応じた画像処理を施す画像加工部220と、原稿画像データの一部に合成用画像データを合成して合成画像データを生成する画像合成部803と、原稿画像データにおける合成用画像データが合成された領域に対応する領域識別信号を合成用画像データの画像種別に対応する領域識別信号に置換することによって合成画像データの領域識別信号を生成する領域識別信号置換部205とを備え、画像加工部220が、合成画像データの各画像領域に対して上記置換後の領域識別信号によって示される当該各画像領域の画像種別に応じた画像処理を施す。   As described above, the image processing system 1000 according to the present embodiment includes the area separation processing unit 204 that performs area separation processing on document image data to generate an area identification signal indicating the image type of each image area, and each image area. An image processing unit 220 that performs image processing according to the image type of each image region, an image combining unit 803 that combines the image data for combining with a part of the document image data, and generates combined image data; Region identification for generating a region identification signal of composite image data by replacing a region identification signal corresponding to a region where the image data for composition in the document image data is composed with a region identification signal corresponding to the image type of the image data for composition A signal replacement unit 205, and the image processing unit 220 displays each image indicated by the replacement region identification signal for each image region of the composite image data. It performs image processing in accordance with the image type of the region.

これにより、合成画像データの各画像領域に対して当該各画像領域に適した画像処理を施すことができる。   Thereby, image processing suitable for each image region can be performed on each image region of the composite image data.

例えば、上述した図5(a)の原稿画像データに図5(b)の合成用画像データを合成して得られる図5(d)の合成画像データに対して画像処理を行う場合に、原稿画像データに対する領域分離処理で得られた領域識別信号を用いて画像処理を行うと、合成用画像データが合成された画像領域に対して文字/エッジ領域に対応する画像処理が施されてしまう。すなわち、合成用画像データの画像種別は印画紙写真/ベタ領域であるにもかかわらず、文字/エッジ領域に対応する画像処理が施されてしまう。   For example, when image processing is performed on the composite image data in FIG. 5D obtained by combining the image data for synthesis in FIG. 5B with the original image data in FIG. When image processing is performed using a region identification signal obtained by region separation processing on image data, image processing corresponding to a character / edge region is performed on the image region combined with the image data for combining. That is, the image processing corresponding to the character / edge area is performed even though the image type of the image data for composition is photographic paper photograph / solid area.

これに対して、本実施形態によれば、原稿画像データに基づいて生成された領域識別信号のうち、合成用画像データが合成される画像領域の領域識別信号を、合成用画像データの画像種別に応じた領域識別信号に置換する。これにより、合成画像データにおける非合成領域に対して原稿画像データに基づいて生成された領域識別信号によって示される画像種別に応じた画像処理を施すとともに、合成領域に対して合成用画像データの画像種別に応じた画像処理を施すことができる。したがって、合成画像データの各画像領域に対して適切な画像処理を施すことができる。   On the other hand, according to the present embodiment, among the area identification signals generated based on the document image data, the area identification signal of the image area in which the composition image data is synthesized is used as the image type of the composition image data. It replaces with the area identification signal according to. As a result, image processing corresponding to the image type indicated by the area identification signal generated based on the document image data is performed on the non-composite area in the composite image data, and the image of the image data for synthesis is applied to the composite area. Image processing according to the type can be performed. Therefore, appropriate image processing can be performed on each image area of the composite image data.

なお、本実施形態では、画像合成部803、合成位置決定部804、および領域種別指定部805を備えた画像合成アプリケーション802と合成用画像データを記憶する記憶部806とが、デジタル複合機10との間で通信を行う外部装置800に備えられている構成について説明したが、本発明はこれに限るものではない。例えば、画像合成アプリケーション802および記憶部806の一方または両方をデジタル複合機10に設けてもよい。   In this embodiment, an image composition application 802 including an image composition unit 803, a composition position determination unit 804, and an area type designation unit 805, and a storage unit 806 that stores image data for composition are combined with the digital multi-function peripheral 10. Although the configuration of the external device 800 that performs communication between the devices has been described, the present invention is not limited to this. For example, one or both of the image composition application 802 and the storage unit 806 may be provided in the digital multifunction peripheral 10.

また、本発明の適用対象は、デジタル複合機に限られるものではなく、例えば、原稿を読み取って原稿画像データを取得するスキャナ等の画像読取装置に設けてもよく、原稿画像データを外部から受信して画像形成を行うプリンタ等の画像出力装置に設けてもよい。また、画像読取装置と画像出力装置とがネットワークを介して接続された画像形成システムに適用することもできる。   In addition, the application target of the present invention is not limited to a digital multi-function peripheral. For example, the present invention may be provided in an image reading apparatus such as a scanner that reads a document and acquires document image data, and receives the document image data from the outside. Then, it may be provided in an image output apparatus such as a printer that performs image formation. The present invention can also be applied to an image forming system in which an image reading device and an image output device are connected via a network.

また、本実施形態において、デジタル複合機10に備えられる各部(各ブロック)を、CPU等のプロセッサを用いてソフトウェアによって実現してもよい。すなわち、デジタル複合機10は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている構成としてもよい。この場合、本発明の目的は、上述した機能を実現するソフトウェアであるデジタル複合機10の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、デジタル複合機10に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによって達成される。   In the present embodiment, each unit (each block) provided in the digital multi-function peripheral 10 may be realized by software using a processor such as a CPU. That is, the digital multi-function peripheral 10 includes a CPU (central processing unit) that executes instructions of a control program for realizing each function, a ROM (read only memory) that stores the program, and a RAM (random access memory) that expands the program. A configuration may be adopted in which a storage device (recording medium) such as a memory for storing the program and various data is provided. In this case, an object of the present invention is a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the digital multi-function peripheral 10 which is software for realizing the above-described functions is recorded so as to be readable by a computer. Is supplied to the digital multi-function peripheral 10, and the computer (or CPU or MPU) reads and executes the program code recorded on the recording medium.

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、デジタル複合機10を通信ネットワークと接続可能に構成し、通信ネットワークを介して上記プログラムコードを供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the digital multi-function peripheral 10 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Further, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

また、デジタル複合機10の各ブロックは、ソフトウェアを用いて実現されるものに限らず、ハードウェアロジックによって構成されるものであってもよく、処理の一部を行うハードウェアと当該ハードウェアの制御や残余の処理を行うソフトウェアを実行する演算手段とを組み合わせたものであってもよい。   In addition, each block of the digital multi-function peripheral 10 is not limited to being realized using software, and may be configured by hardware logic. Hardware that performs a part of the processing and hardware of the hardware It may be a combination of arithmetic means for executing software for performing control and remaining processing.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

本発明は、原稿画像データの一部に合成用画像データを合成して合成画像データを生成する画像処理装置および画像処理システムに適用することができる。   The present invention can be applied to an image processing apparatus and an image processing system for generating composite image data by combining composite image data with a part of document image data.

10 デジタル複合機(画像処理装置、画像形成装置)
100 画像入力部
200 画像処理部
201 A/D変換部
202 シェーディング補正部
203 入力階調補正部
204 領域分離処理部
205 領域識別信号置換部
206 色補正部
207 黒生成下色除去部
208 空間フィルタ処理部
209 出力階調補正部
210 階調再現処理部
220 画像加工部
300 画像出力部
301 記録材搬送処理部
302 画像形成処理部
303 定着処理部
400 制御部
401 演算部
402 記憶部
500 操作パネル
501 表示部
502 入力部(指示入力部)
600 通信部
700 画像記憶部
705 領域種別指定部
800 外部装置(端末装置)
801 通信部
802 画像合成アプリケーション
803 画像合成部
804 合成位置決定部
805 領域種別指定部
806 記憶部
1000 画像処理システム
10 Digital multifunction peripherals (image processing devices, image forming devices)
DESCRIPTION OF SYMBOLS 100 Image input part 200 Image processing part 201 A / D conversion part 202 Shading correction | amendment part 203 Input tone correction | amendment part 204 Area | region separation process part 205 Area | region identification signal replacement part 206 Color correction part 207 Black generation under color removal part 208 Spatial filter process Unit 209 output tone correction unit 210 tone reproduction processing unit 220 image processing unit 300 image output unit 301 recording material conveyance processing unit 302 image formation processing unit 303 fixing processing unit 400 control unit 401 calculation unit 402 storage unit 500 operation panel 501 display Unit 502 Input unit (instruction input unit)
600 Communication unit 700 Image storage unit 705 Area type designation unit 800 External device (terminal device)
801 Communication unit 802 Image composition application 803 Image composition unit 804 Composition position determination unit 805 Area type designation unit 806 Storage unit 1000 Image processing system

Claims (13)

原稿画像データを画像種別に応じた複数の画像領域に分離する領域分離処理を行い、上記各画像領域の画像種別を示す領域識別信号を生成する領域分離処理部と、上記各画像領域に対して当該各画像領域の画像種別に応じた画像処理を施す画像加工部とを備えた画像処理装置であって、
上記原稿画像データのうちの一部の領域に合成用画像データを合成して合成画像データを生成する画像合成部と、
上記合成用画像データの画像種別を特定する領域種別指定部と、
上記原稿画像データに対応する上記領域識別信号のうち上記合成用画像データが合成された上記一部の領域に対応する上記領域識別信号を、上記領域種別指定部によって特定された上記合成用画像データの画像種別に対応する領域識別信号に置換することによって上記合成画像データの領域識別信号を生成する領域識別信号置換部とを備え、
上記画像加工部は、上記合成画像データにおける上記合成用画像データが合成された各画像領域に対して上記領域識別信号置換部によって生成された上記合成画像データの領域識別信号によって示される当該各画像領域の画像種別に応じた画像処理を施すことを特徴とする画像処理装置。
An area separation process for separating the document image data into a plurality of image areas according to the image type, and generating an area identification signal indicating the image type of each image area; An image processing apparatus including an image processing unit that performs image processing according to an image type of each image area,
An image synthesizing unit that synthesizes the image data for synthesis with a part of the original image data to generate synthesized image data;
An area type designation unit for specifying the image type of the image data for synthesis,
Of the region identification signal corresponding to the original image data, the region identification signal corresponding to the part of the region where the image data for synthesis is combined is identified by the region type designation unit. An area identification signal replacement unit that generates an area identification signal of the composite image data by replacing with an area identification signal corresponding to the image type of
The image processing section, each such that the synthetic image data in the composite image data is shown for each image region which is synthesized, by the region identification signal of the composite image data generated by the region identification signal replacement portion An image processing apparatus that performs image processing according to an image type of an image area.
上記画像加工部は、画像データに対してフィルタ処理を施すフィルタ処理部を備えており、
上記フィルタ処理部は、上記領域識別信号によって示される画像種別に応じてフィルタ処理に用いるフィルタを変更することを特徴とする請求項1に記載の画像処理装置。
The image processing unit includes a filter processing unit that performs filter processing on image data,
The image processing apparatus according to claim 1, wherein the filter processing unit changes a filter used for the filter processing according to an image type indicated by the region identification signal.
上記画像加工部は、複数の有彩色の組み合わせからなる画像データを、黒および複数の有彩色の組み合わせからなる画像データに変換する黒生成下色除去部を備えており、
上記黒生成下色除去部は、上記領域識別信号によって示される画像種別に応じて黒の生成量を設定することを特徴とする請求項1または2に記載の画像処理装置。
The image processing unit includes a black generation and under color removal unit that converts image data composed of a combination of a plurality of chromatic colors into image data composed of a combination of black and a plurality of chromatic colors,
The image processing apparatus according to claim 1, wherein the black generation and under color removal unit sets a black generation amount according to an image type indicated by the region identification signal.
上記画像加工部は、画像データにディザ処理を施すことによって当該画像データに応じた画像を再現するためのドットパターンを生成する階調再現処理部を備えており、
上記階調再現処理部は、上記領域識別信号によって示される画像種別に応じてディザ処理に用いるディザ行列を変更することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The image processing unit includes a gradation reproduction processing unit that generates a dot pattern for reproducing an image corresponding to the image data by performing dither processing on the image data,
The image processing apparatus according to claim 1, wherein the gradation reproduction processing unit changes a dither matrix used for dither processing according to an image type indicated by the region identification signal. .
上記領域分離処理部は、原稿画像データの各画像領域を、網点領域、文字/エッジ領域、および印画紙写真/ベタ領域を含む複数の画像種別のうちのいずれかに分類することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。   The area separation processing unit classifies each image area of the document image data into one of a plurality of image types including a dot area, a character / edge area, and a photographic paper photograph / solid area. The image processing apparatus according to any one of claims 1 to 4. ユーザからの指示入力を受け付ける指示入力部を備え、
上記領域種別指定部は、ユーザからの指示入力に応じて上記合成用画像データの画像種別を特定することを特徴とする請求項1に記載の画像処理装置。
An instruction input unit for receiving an instruction input from a user;
The image processing apparatus according to claim 1, wherein the region type designation unit specifies an image type of the image data for synthesis in accordance with an instruction input from a user.
原稿画像データを画像種別に応じた複数の画像領域に分離する領域分離処理を行い、上記各画像領域の画像種別を示す領域識別信号を生成する領域分離処理部と、上記各画像領域に対して当該各画像領域の画像種別に応じた画像処理を施す画像加工部とを備えた画像処理装置と、上記原稿画像データのうちの一部の領域に合成用画像データを合成して合成画像データを生成する画像合成部を備えた端末装置とが通信可能に接続された画像処理システムであって、
上記合成用画像データの画像種別を特定する領域種別指定部と、
上記原稿画像データに対応する上記領域識別信号のうち上記合成用画像データが合成された上記一部の領域に対応する上記領域識別信号を、上記領域種別指定部によって特定された画像種別に対応する領域識別信号に置換することによって上記合成画像データの領域識別信号を生成する領域識別信号置換部とを備え、
上記画像加工部は、上記合成画像データにおける上記合成用画像データが合成された各画像領域に対して上記領域識別信号置換部によって生成された上記合成画像データの領域識別信号によって示される当該各画像領域の画像種別に応じた画像処理を施すことを特徴とする画像処理システム。
An area separation process for separating the document image data into a plurality of image areas according to the image type, and generating an area identification signal indicating the image type of each image area; An image processing apparatus including an image processing unit that performs image processing according to the image type of each image area, and combining image data by combining the image data for synthesis with a part of the original image data. An image processing system that is communicably connected to a terminal device that includes an image composition unit to be generated,
An area type designation unit for specifying the image type of the image data for synthesis,
Of the region identification signal corresponding to the document image data, the region identification signal corresponding to the partial region combined with the composition image data corresponds to the image type specified by the region type specifying unit. An area identification signal replacement unit that generates an area identification signal of the composite image data by replacing with an area identification signal;
The image processing section, each such that the synthetic image data in the composite image data is shown for each image region which is synthesized, by the region identification signal of the composite image data generated by the region identification signal replacement portion An image processing system that performs image processing according to an image type of an image area.
上記画像処理装置は、
ユーザからの指示入力を受け付ける指示入力部と、
上記指示入力部を介して入力されたユーザからの指示に応じて上記端末装置に備えられている上記画像合成部の動作を制御する制御部とを備えていることを特徴とする請求項7に記載の画像処理システム。
The image processing apparatus includes:
An instruction input unit for receiving an instruction input from a user;
The control unit according to claim 7, further comprising: a control unit that controls an operation of the image synthesizing unit provided in the terminal device in response to an instruction from a user input through the instruction input unit. The image processing system described.
上記端末装置は、複数の画像データを記憶する記憶部を備えており、
上記画像合成部は、上記記憶部に記憶されている画像データのうち、上記画像処理装置に備えられている上記指示入力部を介してユーザが指定した画像データを上記合成用画像データとして用いて上記合成画像データを生成することを特徴とする請求項8に記載の画像処理システム。
The terminal device includes a storage unit that stores a plurality of image data,
The image composition unit uses, as image data for synthesis, image data designated by a user via the instruction input unit provided in the image processing apparatus among the image data stored in the storage unit. The image processing system according to claim 8, wherein the composite image data is generated.
請求項1から6のいずれか1項に記載の画像処理装置、または請求項7から9のいずれか1項に記載の画像処理システムに備えられる上記画像処理装置と、
上記画像処理装置から出力される画像データに応じた画像を記録材上に形成する画像出力部とを備えていることを特徴とする画像形成装置。
The image processing device according to any one of claims 1 to 6, or the image processing device provided in the image processing system according to any one of claims 7 to 9,
An image forming apparatus comprising: an image output unit configured to form an image on a recording material according to image data output from the image processing apparatus.
原稿画像データを画像種別に応じた複数の画像領域に分離し、上記各画像領域の画像種別を示す領域識別信号を生成する領域分離処理工程と、上記各画像領域に対して当該各画像領域の画像種別に応じた画像処理を施す画像加工工程とを行う画像処理方法であって、
画像合成アプリケーションによって上記原稿画像データのうちの一部の領域に合成用画像データを合成して合成画像データを生成する画像合成工程と、
上記原稿画像データに対応する上記領域識別信号のうち上記合成用画像データが合成された上記一部の領域に対応する上記領域識別信号を、上記合成用画像データの画像種別に対応する領域識別信号に置換することによって上記合成画像データの領域識別信号を生成する領域識別信号置換工程とを含み、
上記画像加工工程では、上記合成画像データにおける上記合成用画像データが合成された各画像領域に対して上記領域識別信号置換工程で生成した上記合成画像データの領域識別信号によって示される当該各画像領域の画像種別に応じた画像処理を施すことを特徴とする画像処理方法。
The original image data is separated into a plurality of image areas according to the image type, and an area separation processing step for generating an area identification signal indicating the image type of each image area, and for each image area, An image processing method for performing an image processing step of performing image processing according to an image type,
An image compositing step of compositing image data for compositing with a part of the original image data by an image compositing application to generate composite image data;
Of the region identification signal corresponding to the document image data, the region identification signal corresponding to the part of the region where the composition image data is synthesized is used as the region identification signal corresponding to the image type of the composition image data. A region identification signal replacement step of generating a region identification signal of the composite image data by replacing with
In the above image processing step, the composite image for each image area where the image data for the above synthesis is synthesized in the data, the respective images represented by the region identification signal of the composite image data generated by the area identification signal replacement step An image processing method, which performs image processing according to an image type of a region.
請求項1から6のいずれか1項に記載の画像処理装置を動作させるプログラムであって、コンピュータを上記各部として機能させるためのプログラム。   A program for operating the image processing apparatus according to any one of claims 1 to 6, wherein the program causes a computer to function as each unit. 請求項12に記載のプログラムをコンピュータ読み取り可能に格納した記録媒体。

A recording medium storing the program according to claim 12 in a computer-readable manner.

JP2010194788A 2010-08-31 2010-08-31 Image processing apparatus, image processing system, image forming apparatus, image processing method, image processing program, and recording medium thereof Active JP5591631B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010194788A JP5591631B2 (en) 2010-08-31 2010-08-31 Image processing apparatus, image processing system, image forming apparatus, image processing method, image processing program, and recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010194788A JP5591631B2 (en) 2010-08-31 2010-08-31 Image processing apparatus, image processing system, image forming apparatus, image processing method, image processing program, and recording medium thereof

Publications (2)

Publication Number Publication Date
JP2012054709A JP2012054709A (en) 2012-03-15
JP5591631B2 true JP5591631B2 (en) 2014-09-17

Family

ID=45907600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010194788A Active JP5591631B2 (en) 2010-08-31 2010-08-31 Image processing apparatus, image processing system, image forming apparatus, image processing method, image processing program, and recording medium thereof

Country Status (1)

Country Link
JP (1) JP5591631B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6489761B2 (en) * 2014-05-14 2019-03-27 キヤノン株式会社 Image processing apparatus, image processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3983694B2 (en) * 2003-03-07 2007-09-26 シャープ株式会社 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP2006303678A (en) * 2005-04-18 2006-11-02 Canon Inc Image processing apparatus
JP4814026B2 (en) * 2006-09-05 2011-11-09 株式会社リコー Image processing apparatus, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2012054709A (en) 2012-03-15

Similar Documents

Publication Publication Date Title
US8274707B2 (en) Image processing apparatus, image processing method, and program for determining or computing an extended region of a block region of image data or an input image
JP3989738B2 (en) Image forming method, image forming apparatus, program, and recording medium
JP2009239887A (en) Image processor, image processing method, image forming apparatus, program, and recording medium
JP2007034040A (en) Image forming apparatus
JP4955082B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP4437825B2 (en) Image processing method, image processing apparatus, image forming apparatus, program, and recording medium
JP5058299B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP5095667B2 (en) Output instruction apparatus, image forming system, output instruction method, control program, and recording medium therefor
JP5290360B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and recording medium
JP4555192B2 (en) Image processing apparatus, image processing method, and program causing computer to execute the method
JP2008305099A (en) Image processing method, image processor, image forming device, computer program and recording medium
JP4659858B2 (en) Image forming apparatus, program, and recording medium
JP5591631B2 (en) Image processing apparatus, image processing system, image forming apparatus, image processing method, image processing program, and recording medium thereof
JP5025611B2 (en) Image processing apparatus, image forming apparatus, computer program, recording medium, and image processing method
JP5023035B2 (en) Image processing apparatus, image forming apparatus including the image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the image processing program
JP2009017208A (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and computer readable recording medium
JP7266462B2 (en) IMAGE PROCESSING APPARATUS, IMAGE FORMING APPARATUS, IMAGE PROCESSING METHOD AND PROGRAM
JP2004214812A (en) Image processing apparatus
JP2009225451A (en) Image forming apparatus and method
JP2005017562A (en) Image forming apparatus and image forming system
JP5061144B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium recording the computer program
JP5863497B2 (en) Image processing apparatus, image forming apparatus, computer program, and storage medium
JP2007129447A (en) Image processor, image processing method, program implementing image processing method, and storage medium
JP4271644B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording image processing program
JP6114614B2 (en) Image generating apparatus and image forming apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140408

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140730

R150 Certificate of patent or registration of utility model

Ref document number: 5591631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150