JP2006197239A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2006197239A
JP2006197239A JP2005006575A JP2005006575A JP2006197239A JP 2006197239 A JP2006197239 A JP 2006197239A JP 2005006575 A JP2005006575 A JP 2005006575A JP 2005006575 A JP2005006575 A JP 2005006575A JP 2006197239 A JP2006197239 A JP 2006197239A
Authority
JP
Japan
Prior art keywords
pixel
character
image data
edge
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005006575A
Other languages
Japanese (ja)
Other versions
JP4135714B2 (en
Inventor
Kazunobu Noguchi
和宣 野口
Hideyuki Toriyama
秀之 鳥山
Takahiro Tsutsumi
隆弘 堤
Hidekazu Takahama
英一 高濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2005006575A priority Critical patent/JP4135714B2/en
Publication of JP2006197239A publication Critical patent/JP2006197239A/en
Application granted granted Critical
Publication of JP4135714B2 publication Critical patent/JP4135714B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate an image where characters are clarified, and gradation is expressed inside the characters. <P>SOLUTION: This image processor is provided with first to third screen processing parts 125A, 125B and 125C for inputting image data and attribute data for discriminating pixels, configuring characters and outline pixels configuring the outline section of the characters from the other pixels, and for executing screen processing on the image data, based on the attribute data. The first screen processing part 125A executes first screen processing to the outline pixels of the image data, and the second screen processing part 125B executes second screen processing to pixels included in the character region of the image data, excluding the outline pixels, and the third screen processing part 125C executes third screen processing to pixels which are not included in the character region of the image data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は画像処理装置および画像処理プログラムに関し、特に、画像データにスクリーン処理を実行する画像処理装置および画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program, and more particularly to an image processing apparatus and an image processing program for executing screen processing on image data.

特開平07−333822号公報(特許文献1)には、原画像を表わす画像信号から印刷版画像を作成する方法であって、(A)前記原画像を複数の領域に分割し、前記複数の領域のそれぞれに対して、互いに異なる形状または/および線数を有する複数種類のドットのいずれか一種類をそれぞれ割当てる工程と、(B)前記画像信号の階調特性と、前記複数種類のドットを形成するためのしきい値を表わす複数種類のドットパターン信号の階調特性とのうちの少なくとも一方を、前記複数種類のドットのそれぞれのドットゲイン特性に応じて補正する工程と、(C)補正済みの画像信号とドットパターン信号とを比較することによって、前記複数の領域を前記複数種類のドットでそれぞれ再現した印刷版画像を表わす画像記録信号を生成する工程と、を備えることを特徴とする印刷版画像の作成方法が記載されている。   Japanese Patent Application Laid-Open No. 07-333822 (Patent Document 1) is a method for creating a printing plate image from an image signal representing an original image, and (A) the original image is divided into a plurality of regions, Assigning each one of a plurality of types of dots having different shapes or / and the number of lines to each of the regions, and (B) gradation characteristics of the image signal and the plurality of types of dots. A step of correcting at least one of the gradation characteristics of a plurality of types of dot pattern signals representing threshold values for forming according to the respective dot gain characteristics of the plurality of types of dots; and (C) correction By comparing the completed image signal and the dot pattern signal, an image recording signal representing a printing plate image in which the plurality of areas are respectively reproduced by the plurality of types of dots is generated. Create a binary halftone image, characterized in that it comprises a step, is described.

しかしながら、特開平07−333822号公報では、形状または/および線数を有する複数種類のドットのいずれか一種類をそれぞれ割当てるので、文字にスクリーン処理が実行されることになる。このため、文字エッジが鮮明に表すことができないといった問題があった。また、画像データの文字部分にエッジ強調処理を実行することも考えられるが、この場合には、階調のある文字を表現することができないといった問題がある。
特開平07−333822号公報
However, in Japanese Patent Application Laid-Open No. 07-333822, since any one of a plurality of types of dots having a shape and / or the number of lines is assigned, screen processing is executed on characters. For this reason, there is a problem that the character edge cannot be clearly displayed. Although it is conceivable to perform edge enhancement processing on the character portion of the image data, in this case, there is a problem that a character with gradation cannot be expressed.
Japanese Patent Laid-Open No. 07-333822

この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、文字をくっきりさせるとともに文字内部で階調を表現した画像を生成することが可能な画像処理装置および画像処理プログラムを提供することである。   The present invention has been made to solve the above-described problems, and one of the objects of the present invention is an image processing apparatus capable of generating an image in which a character is sharpened and a gradation is expressed inside the character. And providing an image processing program.

上述した目的を達成するためにこの発明のある局面によれば、画像処理装置は、画像データを入力する画像データ入力手段と、文字を構成する画素を含む文字領域と文字の輪郭部分を構成する輪郭画素とを他の画素と区別する属性データを取得する属性データ取得手段と、属性データに基づき、画像データにスクリーン処理を実行するスクリーン処理手段とを備え、スクリーン処理手段は、画像データの輪郭画素に第1のスクリーン処理を実行し、画像データの文字領域に含まれ、かつ、輪郭画素でない画素に第2のスクリーン処理を実行し、画像データの文字領域に含まれない画素に第3のスクリーン処理を実行する。   In order to achieve the above-described object, according to one aspect of the present invention, an image processing apparatus forms image data input means for inputting image data, a character region including pixels constituting a character, and a character outline portion. Attribute data acquisition means for acquiring attribute data for distinguishing contour pixels from other pixels, and screen processing means for executing screen processing on image data based on the attribute data. The screen processing means includes contours of image data. The first screen processing is performed on the pixel, the second screen processing is performed on the pixel that is included in the character region of the image data and is not the contour pixel, and the third pixel is not included in the character region of the image data. Perform screen processing.

この発明に従えば、画像データの輪郭画素に第1のスクリーン処理が実行され、文字領域に含まれるが輪郭画素でない画素に第2のスクリーン処理が実行され、文字領域に含まれない画素に第3のスクリーン処理が実行される。このため、例えば、文字の輪郭を強調して、文字の内部と文字の背景に階調性を持たせることができる。その結果、文字をくっきりさせるとともに、文字内部で階調を表現した画像を生成することが可能な画像処理装置を提供することができる。   According to the present invention, the first screen processing is performed on the contour pixels of the image data, the second screen processing is performed on the pixels that are included in the character region but are not the contour pixels, and the pixels that are not included in the character region are processed. 3 screen processing is executed. For this reason, for example, the outline of a character can be emphasized to give gradation to the inside of the character and the background of the character. As a result, it is possible to provide an image processing apparatus that can sharpen characters and generate an image expressing gradation inside the characters.

好ましくは、第1のスクリーン処理は、エッジ強調処理であり、第2のスクリーン処理は、解像度を優先したスクリーン処理であり、第3のスクリーン処理は、階調を優先したスクリーン処理である。   Preferably, the first screen processing is edge enhancement processing, the second screen processing is screen processing giving priority to resolution, and the third screen processing is screen processing giving priority to gradation.

好ましくは、属性データ取得手段は、入力された画像データから文字領域を抽出する文字領域抽出手段と、抽出された文字領域に基づき、文字の輪郭部分を構成する輪郭画素を抽出する輪郭画素抽出手段とを含む。   Preferably, the attribute data acquisition unit includes a character region extraction unit that extracts a character region from the input image data, and a contour pixel extraction unit that extracts a contour pixel constituting a contour portion of the character based on the extracted character region. Including.

好ましくは、文字領域抽出手段は、入力された画像データからエッジ画素を抽出するエッジ画素抽出手段と、エッジ画素と、エッジ画素で囲まれた画素とを含む文字領域を抽出する文字領域決定手段とを含む。   Preferably, the character area extraction means includes edge pixel extraction means for extracting edge pixels from the input image data, and character area determination means for extracting a character area including the edge pixels and pixels surrounded by the edge pixels. including.

好ましくは、輪郭画素抽出手段は、文字領域抽出手段により抽出された文字領域を拡張する拡張手段と、文字画素抽出手段により抽出された文字領域を収縮する収縮手段と、拡張手段により拡張された後の文字領域に含まれ、かつ、収縮手段により収縮された後の文字領域に含まれない画素を輪郭画素とする輪郭画素決定手段とを含む。   Preferably, the contour pixel extracting means includes an expanding means for expanding the character area extracted by the character area extracting means, a contracting means for contracting the character area extracted by the character pixel extracting means, and after being expanded by the expanding means. And a contour pixel determining unit that uses a pixel that is included in the character region and not included in the character region after being contracted by the contracting unit as a contour pixel.

好ましくは、属性データ取得手段は、入力された画像データからエッジ画素を輪郭画素として抽出するエッジ画素抽出手段と、抽出されたエッジ画素を含む矩形の文字属性領域を文字領域として抽出する文字属性領域抽出手段とを含む。   Preferably, the attribute data acquisition means extracts edge pixel from the input image data as edge pixels, and character attribute area that extracts a rectangular character attribute area including the extracted edge pixels as a character area Extraction means.

好ましくは、画像データの階調性を補正するガンマ補正手段をさらに備え、ガンマ補正手段は、画像データの輪郭画素、画像データの文字領域に含まれ、かつ、輪郭画素でない画素、および画像データの文字領域に含まれない画素に、それぞれに対して予め準備された特性曲線に応じてガンマ補正する。   Preferably, the image data further includes a gamma correction unit that corrects the gradation of the image data, and the gamma correction unit includes a contour pixel of the image data, a pixel that is included in the character region of the image data and is not a contour pixel, and the image data Gamma correction is performed on the pixels not included in the character area in accordance with a characteristic curve prepared in advance for each pixel.

この発明の他の局面によれば画像処理プログラムは、画像データを入力するステップと、文字を構成する画素を含む文字領域と文字の輪郭部分を構成する輪郭画素とを他の画素と区別する属性データを取得するステップと、画像データの輪郭画素に第1のスクリーン処理を実行するステップと、画像データの文字領域に含まれ、かつ、輪郭画素でない画素に第2のスクリーン処理を実行するステップと、画像データの文字領域に含まれない画素に第3のスクリーン処理を実行するステップとをコンピュータに実行させる。   According to another aspect of the present invention, an image processing program has an attribute for distinguishing a step of inputting image data and a character region including pixels constituting a character and a contour pixel constituting a contour portion of the character from other pixels. A step of acquiring data; a step of executing a first screen process on a contour pixel of image data; and a step of executing a second screen process on a pixel that is included in a character region of image data and is not a contour pixel; And causing the computer to execute a third screen process on pixels not included in the character area of the image data.

この発明に従えば、文字をくっきりさせるとともに、文字内部で階調を表現した画像を生成することが可能な画像処理プログラムを提供することができる。   According to the present invention, it is possible to provide an image processing program capable of generating an image that sharpens characters and expresses gradation inside the characters.

この発明のさらに他の局面によれば、画像処理装置は、画像データを入力する画像データ入力手段と、入力された画像データからエッジ画素を抽出するエッジ画素抽出手段と、画像データにスクリーン処理を実行するスクリーン処理手段とを備え、スクリーン処理手段は、画像データのエッジ画素にエッジ強調処理を実行し、画像データのエッジ画素として抽出されなかった画素に解像度を優先したスクリーン処理を実行する。   According to still another aspect of the present invention, an image processing apparatus includes image data input means for inputting image data, edge pixel extraction means for extracting edge pixels from the input image data, and screen processing for the image data. And a screen processing unit that executes edge enhancement processing on the edge pixels of the image data, and performs screen processing that prioritizes resolution for pixels that are not extracted as edge pixels of the image data.

この発明に従えば、画像データのエッジ画素にエッジ強調処理が実行され、画像データのエッジ画素として抽出されなかった画素に解像度を優先したスクリーン処理を実行が実行される。このため、例えば、文字の輪郭を強調して、文字の内部と文字の背景に階調性を持たせることができる。その結果、文字をくっきりさせるとともに、文字内部で階調を表現した画像を生成することが可能な画像処理装置を提供することができる。   According to the present invention, the edge emphasis process is executed on the edge pixels of the image data, and the screen process giving priority to the resolution is executed on the pixels that are not extracted as the edge pixels of the image data. For this reason, for example, the outline of a character can be emphasized to give gradation to the inside of the character and the background of the character. As a result, it is possible to provide an image processing apparatus that can sharpen characters and generate an image expressing gradation inside the characters.

この発明のさらに他の局面によれば、画像処理プログラムは、画像データを入力するステップと、入力された画像データからエッジ画素を抽出するステップと、画像データのエッジ画素にエッジ強調処理を実行するステップと、画像データのエッジ画素として抽出されなかった画素に解像度を優先したスクリーン処理を実行するステップとをコンピュータに実行させる。   According to still another aspect of the present invention, an image processing program executes a step of inputting image data, a step of extracting edge pixels from the input image data, and an edge enhancement process on the edge pixels of the image data. Causing the computer to execute a step and a step of executing a screen process giving priority to the resolution of the pixels that are not extracted as edge pixels of the image data.

この発明に従えば、文字をくっきりさせるとともに、文字内部で階調を表現した画像を生成することが可能な画像処理プログラムを提供することができる。   According to the present invention, it is possible to provide an image processing program capable of generating an image that sharpens characters and expresses gradation inside the characters.

以下、図面を参照しつつ本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<第1の実施の形態>
図1は、本発明の第1の実施の形態におけるMFP(Multi Function Peripheral)の斜視図である。図1を参照して、MFPは、原稿画像を読取るための画像読取装置10と、画像読取装置10の下部に設けられた画像形成装置20とを含む。MFPは、画像読取装置10で読取られた画像を紙などの記録媒体に形成する。また、MFPは、フアクシミリ装置、ローカルエリアネットワーク(LAN)、公衆回線などのネットワークと接続するための通信インターフェースを備える。
<First Embodiment>
FIG. 1 is a perspective view of an MFP (Multi Function Peripheral) according to the first embodiment of the present invention. Referring to FIG. 1, the MFP includes an image reading device 10 for reading a document image and an image forming device 20 provided at a lower portion of the image reading device 10. The MFP forms an image read by the image reading device 10 on a recording medium such as paper. The MFP also includes a communication interface for connecting to a network such as a facsimile device, a local area network (LAN), or a public line.

また、MFPには、フラッシュROM30が装着可能である。このフラッシュROM30に記憶された画像処理プログラムが、MFPが備える中央演算装置(CPU)で実行される。なお、プログラムを、フラッシュROM30から読出すのに代えて、EEPROM(electrically erasable/programable read only memory)に記憶するようにしてもよい。MFPは、EEPROMに記憶されたプログラムをCPUで実行する。またこのEEPROMは、記憶内容を書換えるまたは追加して書込みすることが可能なので、ネットワークに接続された他のコンピュータが、MFPのEEPROMに記憶されたプログラムを書換えたり、新たなプログラムを追加して書込んだりするようにしてもよい。さらに、MFPが、ネットワークに接続されたコンピュータからプログラムをダウンロードして、そのプログラムをEEPROMに記憶するようにしてもよい。   A flash ROM 30 can be attached to the MFP. The image processing program stored in the flash ROM 30 is executed by a central processing unit (CPU) provided in the MFP. The program may be stored in an EEPROM (electrically erasable / programmable read only memory) instead of being read from the flash ROM 30. The MFP executes a program stored in the EEPROM by the CPU. In addition, this EEPROM can be rewritten or additionally written, so that another computer connected to the network can rewrite the program stored in the EEPROM of the MFP or add a new program. You may make it write. Further, the MFP may download a program from a computer connected to the network and store the program in the EEPROM.

なお、MFPで実行されるプログラムはフラッシュROM30に記憶されて流通される例を示すが、他の記録媒体、たとえば、フレキシブルディスク、カセットテープ、CD−ROM(Compact Disc − Read Only Memory)、ハードディスク、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード(メモリカードを含む)、光カード、マスクROM、EPROM、EEPROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。   The program executed by the MFP is shown as an example of being stored in the flash ROM 30 and distributed, but other recording media such as a flexible disk, a cassette tape, a CD-ROM (Compact Disc-Read Only Memory), a hard disk, Optical disks (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc)), IC cards (including memory cards), optical cards, semiconductor memories such as mask ROM, EPROM, EEPROM, etc. It may be a medium carrying a program.

また、ここでいうプログラムは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム方式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The program referred to here includes not only a program that can be directly executed by the CPU but also a source program type program, a compressed program, an encrypted program, and the like.

図2は、本実施の形態におけるMFPの構成を示すブロック図である。図2を参照して、MFPは、原稿をライン単位で読取りR(赤)、G(緑)およびB(青)のアナログ信号を出力するCCD(Charge Coupled Device)101と、CCD101から入力された偶数番目の信号Reven,Geven,Bevenと奇数番目の信号Rodd,Godd,Boddを合成する画像合成部102と、アナログ信号をデジタル信号に変換するためのアナログデジタル変換部(A/D変換部)103と、光源の照明ムラ等を補正するためのシェーディング補正部104と、R信号,G信号およびB信号が原稿の同一ラインとなるように同期させるためのライン間補正部105と、レンズによる主走査方向の歪を補正するための色収差補正部106と、倍率の変更および画像データ中の位置を移動させる変倍・移動処理部107と、RGB色空間で表わされた画像データをCMY色空間で表わされる画像データ(CMYKデータ)に変換する色変換部108とを含む。   FIG. 2 is a block diagram showing the configuration of the MFP in the present embodiment. Referring to FIG. 2, the MFP reads a document line by line and outputs an R (red), G (green), and B (blue) analog signal, and a CCD (Charge Coupled Device) 101, and the CCD 101 inputs it. An image synthesis unit 102 that synthesizes even-numbered signals Reven, Geven, and Beven and odd-numbered signals Rodd, Godd, and Bodd, and an analog-to-digital conversion unit (A / D conversion unit) 103 that converts an analog signal into a digital signal. A shading correction unit 104 for correcting illumination unevenness of the light source, an interline correction unit 105 for synchronizing the R signal, the G signal, and the B signal to be the same line of the document, and main scanning by the lens A chromatic aberration corrector 106 for correcting directional distortion, and a magnification / movement processor 10 for changing the magnification and moving the position in the image data. When, and a color conversion unit 108 for converting the image data (CMYK data) represented the image data represented in the RGB color space by the CMY color space.

MFPは、さらに、R信号、G信号、B信号が入力されて画像データの各画素の属性を判別する属性判別部109と、属性判別部109による属性判別結果に応じてスクリーン処理等を行なうプリントデータ生成部110と、生成されたプリントデータを画像形成装置20に出力するためのプリンタI/F111とを備えている。   The MFP further receives an R signal, a G signal, and a B signal to determine the attribute of each pixel of the image data, and prints that perform screen processing or the like according to the attribute determination result by the attribute determination unit 109 A data generation unit 110 and a printer I / F 111 for outputting the generated print data to the image forming apparatus 20 are provided.

なお、ここでは、画像読取装置10で原稿を読取って得られた画像データを、画像形成装置20から出力する例を示すが、MFPとネットワークを介して接続された他のコンピュータから送信された画像データを画像形成装置20から出力するようにしてもよい。この場合には、MFPが備える通信インターフェースで画像データが受信され、その画像データが色変換部108および属性判別部109に入力される。また、MFPが備えるハードディスクから読み出された画像データを画像形成装置20から出力するようにしてもよい。この場合には、MFPが備えるハードディスクから読み出された画像データが色変換部108および属性判別部109に入力される。   Although an example in which image data obtained by reading an original with the image reading apparatus 10 is output from the image forming apparatus 20 is shown here, an image transmitted from another computer connected to the MFP via a network is shown. Data may be output from the image forming apparatus 20. In this case, image data is received by the communication interface provided in the MFP, and the image data is input to the color conversion unit 108 and the attribute determination unit 109. Further, the image data read from the hard disk included in the MFP may be output from the image forming apparatus 20. In this case, image data read from the hard disk included in the MFP is input to the color conversion unit 108 and the attribute determination unit 109.

次に、図3および図4を用いて、属性判別部109を説明する。図3は、属性判別部109の構成を示すブロック図である。図4は、属性判別部で生成されるエッジデータの一例を示す図である。   Next, the attribute determination unit 109 will be described with reference to FIGS. 3 and 4. FIG. 3 is a block diagram illustrating a configuration of the attribute determination unit 109. FIG. 4 is a diagram illustrating an example of edge data generated by the attribute determination unit.

属性判別部109には、R,G,Bそれぞれの画像データが1ラインずつ入力される。属性判別部109は、R,G,Bの3つの画像データを明度データに変換し、明度データを処理する。属性判別部109は、ラインバッファ(FIFO)を有し、複数ライン分の明度データを処理することが可能となっている。   The attribute discrimination unit 109 receives R, G, and B image data line by line. The attribute discriminating unit 109 converts the three image data of R, G, and B into lightness data, and processes the lightness data. The attribute determination unit 109 has a line buffer (FIFO) and can process brightness data for a plurality of lines.

属性判別部109は、明度データからエッジ画素を抽出するエッジ抽出部131と、エッジ画素を拡張する第1ダイレーション処理部132と、拡張されたエッジを縮める第1エロージョン処理部133と、縮められたエッジを拡張する第2ダイレーション処理部134と、縮められたエッジをさらに縮める第2エロージョン処理部135と、第2ダイレージョン処理部134の出力から第2エロージョン処理部135の出力を減算して差のある差分領域を抽出して属性信号を出力する差分抽出部136とを含む。   The attribute discriminating unit 109 is shrunk by an edge extracting unit 131 that extracts edge pixels from lightness data, a first dilation processing unit 132 that expands edge pixels, and a first erosion processing unit 133 that contracts expanded edges. A second erosion processing unit 134 for extending the edge, a second erosion processing unit 135 for further reducing the shrunken edge, and an output of the second erosion processing unit 135 from the output of the second dilation processing unit 134. A difference extracting unit 136 that extracts a difference area having a difference and outputs an attribute signal.

エッジ抽出部131は、明度データが入力される。エッジ抽出部131は、1次微分フィルタおよび2次微分フィルタを備え、明度データに1次微分フィルタを用いたフィルタ処理と、明度データに2次微分フィルタを用いたフィルタ処理とを実行する。そして、1次微分フィルタを用いたフィルタ処理でエッジと判定された画素(エッジ画素)、および、2次微分フィルタを用いたフィルタ処理でエッジと判定された画素(エッジ画素)を「1」とし、他の画素を「0」とするエッジデータを、第1ダイレーション処理部132に出力する。図4(A)は、エッジ抽出部131が出力するエッジデータの一例を示す図である。図では、文字「L」に対応するエッジデータを示している。文字を構成する線の輪郭部分をエッジ画素とされる。図では実線で示している。文字「L」を構成する線の輪郭の内部は、エッジ画素とされていない。   The edge extraction unit 131 receives brightness data. The edge extraction unit 131 includes a first-order differential filter and a second-order differential filter, and executes filter processing using a first-order differential filter for lightness data and filter processing using a second-order differential filter for lightness data. Then, the pixel determined to be an edge (edge pixel) by the filter processing using the primary differential filter and the pixel (edge pixel) determined to be the edge by the filter processing using the secondary differential filter are set to “1”. The edge data with other pixels set to “0” is output to the first dilation processing unit 132. FIG. 4A is a diagram illustrating an example of edge data output by the edge extraction unit 131. In the figure, edge data corresponding to the character “L” is shown. An outline portion of a line constituting a character is set as an edge pixel. In the figure, it is shown by a solid line. The inside of the outline of the line constituting the character “L” is not an edge pixel.

第1ダイレーション処理部132は、エッジデータが入力される。第1ダイレーション処理部132は、エッジ画素の周辺の画素をエッジ画素とすることにより、エッジ画素を拡張する。周辺の画素は、エッジ画素から所定の数だけ離れた画素を含む。文字がある程度の太さを有する場合に、エッジ画素は、その文字の輪郭として抽出される。第1ダイレーション処理部132による処理は、文字の輪郭として抽出されたエッジ画素を、文字を構成する線にまで拡張する処理である。このため、周辺の画素の範囲は、文字を構成する線幅の1/2の範囲とすればよい。また、周辺の画素を徐々に拡大していき、2つのエッジ画素を拡張した2つの領域が重なった時点で周辺の画素の範囲を定めるようにしてもよい。第1ダイレーション処理部132は、エッジ画素を拡張したエッジデータを第1エロージョン処理部133に出力する。   Edge data is input to the first dilation processing unit 132. The first dilation processing unit 132 expands the edge pixel by setting pixels around the edge pixel as edge pixels. The peripheral pixels include pixels that are separated from the edge pixels by a predetermined number. When the character has a certain thickness, the edge pixel is extracted as the outline of the character. The process by the first dilation processing unit 132 is a process of extending the edge pixels extracted as the outline of the character to the lines constituting the character. For this reason, the range of surrounding pixels may be a range that is ½ of the line width constituting the character. Alternatively, the peripheral pixels may be enlarged gradually, and the range of the peripheral pixels may be determined at the time when the two regions obtained by expanding the two edge pixels overlap. The first dilation processing unit 132 outputs edge data obtained by extending the edge pixels to the first erosion processing unit 133.

図4(B)は、第1ダイレーション処理部132が出力するエッジデータの一例を示す図である。図中斜線部分がエッジ画素であることを示している。図4(A)に示したエッジ画素が周辺の画素にまで拡張されて、文字「L」を構成する線の内部がエッジ画素とされているとともに、線幅が拡張されている。   FIG. 4B is a diagram illustrating an example of edge data output from the first dilation processing unit 132. The hatched portion in the figure indicates an edge pixel. The edge pixel shown in FIG. 4A is extended to surrounding pixels, the inside of the line constituting the character “L” is an edge pixel, and the line width is extended.

第1エロージョン処理部133は、エッジ画素をエッジでない画素とすることにより文字の線幅を縮ませる。第1ダイレーション処理部132により文字の線幅が拡張されたため、これを元の線幅にまで縮小させる。縮小させる画素数は、第1ダイレーション処理部132で拡張した画素数と同じにすればよい。これにより、第1エロージョン処理部133は、文字を構成する線の内側のエッジ画素はそのままエッジ画素とし、文字を構成する線の外側のエッジ画素をエッジでない画素とする。第1エロージョン処理部133は、エッジ画素を縮めたエッジデータを第2ダイレーション処理部134および第2エロージョン処理部135に出力する。第1エロージョン処理部133が出力するエッジデータは、文字の線を構成する画素をエッジ画素とし、他の画素をエッジ画素としないデータである。   The first erosion processing unit 133 reduces the line width of the character by making the edge pixel a pixel that is not an edge. Since the line width of the character is expanded by the first dilation processing unit 132, it is reduced to the original line width. The number of pixels to be reduced may be the same as the number of pixels expanded by the first dilation processing unit 132. As a result, the first erosion processing unit 133 sets the edge pixels inside the line forming the character as edge pixels as they are, and sets the edge pixels outside the line forming the character as pixels that are not edges. The first erosion processing unit 133 outputs the edge data obtained by shrinking the edge pixels to the second dilation processing unit 134 and the second erosion processing unit 135. The edge data output from the first erosion processing unit 133 is data in which the pixels constituting the character line are edge pixels and the other pixels are not edge pixels.

図4(C)は、第1エロージョン処理部133が出力するエッジデータの一例を示す図である。図中斜線部分がエッジ画素であることを示している。エッジ画素を含む領域が文字領域である。図4(B)に示したエッジ画素で構成される領域が縮められ、文字の線幅が縮小されている。図4(C)に示すエッジ画素で示される文字の大きさは、図4(A)に示したエッジ画素でその輪郭が示される文字の大きさと同じとなる。   FIG. 4C is a diagram illustrating an example of edge data output from the first erosion processing unit 133. The hatched portion in the figure indicates an edge pixel. A region including the edge pixel is a character region. The area formed by the edge pixels shown in FIG. 4B is reduced, and the line width of the character is reduced. The character size indicated by the edge pixel shown in FIG. 4C is the same as the character size indicated by the edge pixel shown in FIG. 4A.

このように、エッジ抽出部131、第1ダイレーション処理部132および第1エロージョン処理部133とで、画像データから文字を含む文字領域が抽出される。   In this manner, the edge extraction unit 131, the first dilation processing unit 132, and the first erosion processing unit 133 extract character regions including characters from the image data.

第2ダイレーション処理部134は、エッジ画素の周辺の画素をエッジ画素とすることによりエッジ画素を拡張する。これにより、文字の線幅が拡張される。エッジ画素の周辺の画素は、ここではエッジ画素から1画素だけ離れた画素としている。第2ダイレーション処理部134は、文字の線幅を拡張したエッジデータを差分抽出部136に出力する。   The second dilation processing unit 134 expands the edge pixel by using pixels around the edge pixel as edge pixels. Thereby, the line width of the character is expanded. Here, the peripheral pixels of the edge pixel are pixels separated from the edge pixel by one pixel. The second dilation processing unit 134 outputs edge data obtained by extending the line width of the character to the difference extraction unit 136.

図4(D)は、第2ダイレーション処理部134が出力するエッジデータの一例を示す図である。図中斜線部分がエッジ画素であることを示している。図4(C)に示したエッジ画素で構成される領域が拡張され、文字の線幅が拡張されている。   FIG. 4D is a diagram illustrating an example of edge data output from the second dilation processing unit 134. The hatched portion in the figure indicates an edge pixel. The area formed by the edge pixels shown in FIG. 4C is expanded, and the line width of the character is expanded.

第2エロージョン処理部135は、エッジ画素をエッジでない画素とすることにより文字の線幅を縮ませる。連続するエッジ画素の両端の所定数の画素をエッジでない画素とする。ここでは、連続するエッジ画素の両端の1画素をエッジでない画素とする。第2エロージョン処理部135は、文字の線幅を縮めたエッジデータを差分抽出部136に出力する。   The second erosion processing unit 135 reduces the line width of the character by making the edge pixel a pixel that is not an edge. A predetermined number of pixels at both ends of a continuous edge pixel are pixels that are not edges. Here, one pixel at both ends of a continuous edge pixel is a pixel that is not an edge. The second erosion processing unit 135 outputs edge data obtained by reducing the line width of the character to the difference extraction unit 136.

図4(E)は、第2エロージョン処理部135が出力するエッジデータの一例を示す図である。図中斜線部分がエッジ画素であることを示している。図4(C)に示したエッジ画素で構成される領域が縮小され、文字の線幅が縮められている。   FIG. 4E is a diagram illustrating an example of edge data output from the second erosion processing unit 135. The hatched portion in the figure indicates an edge pixel. The area formed by the edge pixels shown in FIG. 4C is reduced, and the line width of the character is reduced.

差分抽出部136は、第2ダイレーション処理部134から出力されるエッジデータから、第2エロージョン処理部135から出力されるエッジデータを減算して、差分領域を抽出する。この差分領域は、文字の輪郭部分に該当する。   The difference extraction unit 136 subtracts the edge data output from the second erosion processing unit 135 from the edge data output from the second dilation processing unit 134 to extract a difference region. This difference area corresponds to the outline portion of the character.

図4(F)は、差分抽出部136で生成されるエッジデータの一例を示す図である。図中斜線部分が差分領域(輪郭部分)を示している。   FIG. 4F is a diagram illustrating an example of edge data generated by the difference extraction unit 136. A hatched portion in the figure indicates a difference region (outline portion).

このように、第2ダイレーション処理部134、第2エロージョン処理部135および差分抽出部136で、文字領域から輪郭部分が抽出される。   As described above, the second dilation processing unit 134, the second erosion processing unit 135, and the difference extraction unit 136 extract the contour portion from the character region.

差分抽出部136は、第2ダイレーション処理部134から出力されるエッジデータでエッジとされるエッジ画素のうち、差分領域に含まれる画素を輪郭部分の属性(属性値「00」)とし、差分領域に含まれない画素を文字内の属性(属性値「01」)とし、第2ダイレーション処理部134から出力されるエッジデータでエッジとされていない画素を文字以外の属性(属性値「11」)とする。この属性値は、画素ごとに付され、属性信号としてプリントデータ生成部110に出力される。   The difference extraction unit 136 sets the pixels included in the difference region among the edge pixels that are edges in the edge data output from the second dilation processing unit 134 as the attribute of the contour portion (attribute value “00”), and the difference Pixels not included in the region are set as attributes in the character (attribute value “01”), and pixels not edged in the edge data output from the second dilation processing unit 134 are set as attributes other than characters (attribute value “11”). ]). This attribute value is assigned to each pixel and is output to the print data generation unit 110 as an attribute signal.

図5は、画素の属性と属性信号との関係を示す図である。図5を参照して、画素の属性が輪郭部分の属性に対して属性信号「00」が割当てられ、画素の属性が文字内の属性に対して属性信号「01」が割当てられ、画素の属性が文字以外の属性に対して属性信号「11」が割当てられられている。   FIG. 5 is a diagram illustrating the relationship between pixel attributes and attribute signals. Referring to FIG. 5, an attribute signal “00” is assigned to the attribute of the contour portion of the pixel, an attribute signal “01” is assigned to the attribute of the pixel in the character, and the pixel attribute The attribute signal “11” is assigned to the attribute other than the character.

なお、本実施の形態においては、属性判別部109を、エッジ抽出部131と、第1ダイレーション処理部132と、第1エロージョン処理部133と、第2ダイレーション処理部134と、第2エロージョン処理部135と、差分抽出部136とで構成する例をしめしたが、属性判別部109はこれに限られるものではない。本実施の形態における属性判別部109は、文字の輪郭部分と、文字の内側部分と、文字以外の部分とを区別する他の方法を用いて、属性を判別するようにしてもよい。   In the present embodiment, the attribute determination unit 109 includes an edge extraction unit 131, a first dilation processing unit 132, a first erosion processing unit 133, a second dilation processing unit 134, and a second erosion. Although the example comprised by the process part 135 and the difference extraction part 136 was shown, the attribute discrimination | determination part 109 is not restricted to this. The attribute discriminating unit 109 in this embodiment may discriminate the attribute by using another method for discriminating the outline portion of the character, the inner portion of the character, and the portion other than the character.

図6は、プリントデータ生成部110の構成を示すブロック図である。図6を参照して、プリントデータ生成部110には、色変換部108からC(シアン),M(マゼンタ),Y(イエロ),K(黒)それぞれの画像データと、属性判別部109から属性信号が入力される。ここでは、C、M,Y,Kの4つの画像データは、すべて同じ処理が施されるので、それらを総称して単に画像データという。   FIG. 6 is a block diagram illustrating a configuration of the print data generation unit 110. Referring to FIG. 6, the print data generation unit 110 receives image data from C (cyan), M (magenta), Y (yellow), and K (black) from the color conversion unit 108, and from the attribute determination unit 109. An attribute signal is input. Here, the four image data of C, M, Y, and K are all subjected to the same processing, and therefore are collectively referred to as image data.

プリントデータ生成部110には、画像データが1ラインずつ入力される。また、複数ラインを格納するバッファ(FIFO)を有しており、複数ライン単位で処理を実行することが可能である。なお、画像データの全てを格納可能なバッファを設けても良い。   Image data is input line by line to the print data generation unit 110. In addition, a buffer (FIFO) for storing a plurality of lines is provided, and processing can be executed in units of a plurality of lines. A buffer capable of storing all of the image data may be provided.

プリントデータ生成部110は、エッジ強調処理部121と、第1および第2スムージング処理部122A,122Bと、エッジ強調処理部121、第1および第2スムージング処理部122A,122Bが出力する画素値のいずれかを選択する第1選択部123と、第1選択部123で選択された画素値をガンマ補正するガンマ補正部124と、ガンマ補正された画素値が入力される第1〜第3スクリーン処理部125A,125B,125Cと、第1〜第3スクリーン処理部125A,125B,125Cが出力する画素値のいずれかを選択する第2選択部126とを含む。   The print data generation unit 110 includes pixel values output from the edge enhancement processing unit 121, the first and second smoothing processing units 122A and 122B, the edge enhancement processing unit 121, and the first and second smoothing processing units 122A and 122B. A first selection unit 123 that selects one of them, a gamma correction unit 124 that gamma-corrects the pixel value selected by the first selection unit 123, and first to third screen processes in which the gamma-corrected pixel value is input. Sections 125A, 125B, and 125C, and a second selection section 126 that selects one of the pixel values output from the first to third screen processing sections 125A, 125B, and 125C.

エッジ強調処理部121は、画像データが入力される。エッジ強調処理部121は、画像データのエッジを強調するように画像データの値を変換する。具体的には、エッジ強調処理部121は、エッジ強調用のフィルタを有し、処理対象画素の画素値と周辺の画素の画素値とを用いて処理対象画素の画素値を補正する。そして、エッジ強調した画素値を第1選択部123に出力する。   The edge enhancement processing unit 121 receives image data. The edge enhancement processing unit 121 converts the value of the image data so as to enhance the edge of the image data. Specifically, the edge enhancement processing unit 121 includes an edge enhancement filter, and corrects the pixel value of the processing target pixel using the pixel value of the processing target pixel and the pixel values of surrounding pixels. Then, the edge-enhanced pixel value is output to the first selection unit 123.

第1スムージング処理部122Aは、画像データが入力される。第1スムージング処理部122Aは、解像度をできるだけ減少させることなく画像データの階調の変化がなだらかとなるように画像データの値を変換する。具体的には、第1スムージング処理部122Aは、解像度を優先させた平滑化フィルタを有し、処理対象画素の画素値と周辺の画素の画素値とを用いて処理対象画素の画素値を補正する。そして、解像度を優先させて平滑化した画素値を第1選択部123に出力する。   Image data is input to the first smoothing processing unit 122A. The first smoothing processing unit 122A converts the value of the image data so that the gradation change of the image data becomes gentle without reducing the resolution as much as possible. Specifically, the first smoothing processing unit 122A includes a smoothing filter that prioritizes resolution, and corrects the pixel value of the processing target pixel using the pixel value of the processing target pixel and the pixel values of surrounding pixels. To do. Then, the pixel value smoothed with priority given to the resolution is output to the first selection unit 123.

第2スムージング処理部122Bは、画像データが入力される。第2スムージング処理部122Bは、画像データの階調の変化が滑らかとなるように画像データの値を変換する。具体的には、第1スムージング処理部122Bは、階調の変化を優先させた平滑化フィルタを有し、処理対象画素の画素値と周辺の画素の画素値とを用いて処理対象画素の画素値を補正する。そして、階調を優先させて平滑化した画素値を第1選択部123に出力する。   Image data is input to the second smoothing processing unit 122B. The second smoothing processing unit 122B converts the value of the image data so that the change in gradation of the image data is smooth. Specifically, the first smoothing processing unit 122B includes a smoothing filter that prioritizes change in gradation, and uses the pixel value of the processing target pixel and the pixel values of surrounding pixels to process the pixel of the processing target pixel. Correct the value. Then, the pixel value that has been smoothed with priority on gradation is output to the first selection unit 123.

第1選択部123は、属性判別部109から入力される属性信号に従って、エッジ強調処理部121が出力する画素値、第1スムージング処理部122Aが出力する画素値および第2スムージング処理部122Bが出力する画素値のいずれか1つを選択し、選択した画素値をガンマ補正部124に出力する。具体的には、入力された属性信号が輪郭部分の属性を示す「00」の場合にはエッジ強調処理部121が出力する画素値を選択し、入力された属性信号が文字内の属性を示す「01」の場合には第1スムージング処理部122Aが出力する画素値を選択し、入力された属性信号が文字以外の属性を示す「11」の場合には第2スムージング処理部122Bが出力する画素値を選択する。   The first selection unit 123 outputs the pixel value output from the edge enhancement processing unit 121, the pixel value output from the first smoothing processing unit 122A, and the second smoothing processing unit 122B according to the attribute signal input from the attribute determination unit 109. One of the pixel values to be selected is selected, and the selected pixel value is output to the gamma correction unit 124. Specifically, when the input attribute signal is “00” indicating the attribute of the contour portion, the pixel value output by the edge enhancement processing unit 121 is selected, and the input attribute signal indicates the attribute in the character. In the case of “01”, the pixel value output from the first smoothing processing unit 122A is selected, and in the case where the input attribute signal is “11” indicating an attribute other than characters, the second smoothing processing unit 122B outputs. Select a pixel value.

ガンマ補正部124は、選択部123から画素値が入力され、属性判別部109から属性信号が入力される。ガンマ補正部124は、画素の属性に対応して特性曲線を備えている。そして、入力された画素値を、入力された属性信号に対応する特性曲線を用いてその特性曲線に応じて階調を補正する。これにより、画素の属性に応じて階調性が補正される。そして、ガンマ補正部124は、補正した画素値を第1〜第3スクリーン処理部125A,125B,125Cに出力する。   The gamma correction unit 124 receives a pixel value from the selection unit 123 and an attribute signal from the attribute determination unit 109. The gamma correction unit 124 has a characteristic curve corresponding to the attribute of the pixel. Then, the gradation of the input pixel value is corrected according to the characteristic curve using the characteristic curve corresponding to the input attribute signal. Thereby, the gradation is corrected according to the attribute of the pixel. Then, the gamma correction unit 124 outputs the corrected pixel values to the first to third screen processing units 125A, 125B, and 125C.

第1スクリーン処理部125Aは、ガンマ補正部124からガンマ補正された画素値が入力される。第1スクリーン処理部125Aは、エッジ強調用のスクリーンを有する。第1スクリーン処理部125Aは、複数あるスクリーンのうちから画素値に対応する1のスクリーンを選択して、第2選択部126に出力する。   The first screen processing unit 125 </ b> A receives the gamma corrected pixel value from the gamma correction unit 124. The first screen processing unit 125A has an edge enhancement screen. The first screen processing unit 125A selects one screen corresponding to the pixel value from among a plurality of screens, and outputs the selected screen to the second selection unit 126.

第2スクリーン処理部125Bは、ガンマ補正部124からガンマ補正された画素値が入力される。第2スクリーン処理部125Bは、解像度をできるだけ減少させることなく画像データの階調の変化がなだらかとなるスクリーンを有する。第2スクリーン処理部125Bは、複数あるスクリーンのうちから画素値に対応する1のスクリーンを選択して、第2選択部126に出力する。   The second screen processing unit 125B receives the gamma corrected pixel value from the gamma correction unit 124. The second screen processing unit 125B has a screen in which the gradation of the image data changes gently without reducing the resolution as much as possible. The second screen processing unit 125B selects one screen corresponding to the pixel value from among a plurality of screens, and outputs the selected screen to the second selection unit 126.

第3スクリーン処理部125Cは、ガンマ補正部124からガンマ補正された画素値が入力される。第3スクリーン処理部125Cは、階調の変化がなだらかとなるスクリーンを有する。第3スクリーン処理部125Cは、複数あるスクリーンのうちから画素値に対応する1のスクリーンを選択して、第2選択部126に出力する。第3スクリーン処理部125Cが有するスクリーンは、第2スクリーン処理部125Bがスクリーンよりも同じ階調であれば線数が少ない。換言すれば、第3スクリーン処理部125Cが実行するスクリーン処理は、写真などが表された領域に実行するのに適している。第2スクリーン処理部125Bが実行するスクリーン処理は、文字が表された領域に実行するのに適している。   The third screen processing unit 125C receives the gamma corrected pixel value from the gamma correction unit 124. The third screen processing unit 125C includes a screen in which the gradation change is gentle. The third screen processing unit 125C selects one screen corresponding to the pixel value from among a plurality of screens, and outputs the selected screen to the second selection unit 126. The screen of the third screen processing unit 125C has fewer lines if the second screen processing unit 125B has the same gradation as the screen. In other words, the screen processing executed by the third screen processing unit 125C is suitable for execution on an area where a photograph or the like is represented. The screen processing executed by the second screen processing unit 125B is suitable for execution on an area where characters are represented.

第2選択部126は、第1〜第3スクリーン処理部125A,125B,125Cそれぞれからスクリーンが入力され、属性判別部109から属性信号が入力される。第2選択部126は、属性判別部109から入力される属性信号に従って、第1〜第3スクリーン処理部125A,125B,125Cそれぞれから入力されるスクリーンのいずれか1つを選択し、選択したスクリーンを画像データとして出力する。具体的には、入力された属性信号が輪郭部分の属性を示す「00」の場合には第1スクリーン処理部125Aが出力するスクリーンを選択し、入力された属性信号が文字内の属性を示す「01」の場合には第2スクリーン処理部125Bが出力するスクリーンを選択し、入力された属性信号が文字以外の属性を示す「11」の場合には第3スクリーン処理部125Cが出力するスクリーンを選択する。   The second selection unit 126 receives screens from the first to third screen processing units 125A, 125B, and 125C, and receives attribute signals from the attribute determination unit 109. The second selection unit 126 selects one of the screens input from the first to third screen processing units 125A, 125B, and 125C according to the attribute signal input from the attribute determination unit 109, and selects the selected screen. Is output as image data. Specifically, when the input attribute signal is “00” indicating the attribute of the contour portion, the screen output by the first screen processing unit 125A is selected, and the input attribute signal indicates the attribute in the character. If “01”, the screen output by the second screen processing unit 125B is selected, and if the input attribute signal is “11” indicating an attribute other than characters, the screen output by the third screen processing unit 125C. Select.

図7は、本実施の形態におけるMFPで実行される画像処理の流れを示すフローチャートである。図7を参照して、MFPには、画像データが入力される(ステップS01)。画像データは、画像読取装置10で原稿を読取って出力される画像データ、通信インターフェースを介して他のコンピュータから送信された画像データのいずれであってもよい。   FIG. 7 is a flowchart showing a flow of image processing executed by the MFP in the present embodiment. Referring to FIG. 7, image data is input to the MFP (step S01). The image data may be either image data output by reading a document with the image reading apparatus 10 or image data transmitted from another computer via a communication interface.

次のステップS02では、ステップS01で入力された画像データから文字を抽出する。この処理は、上述した、エッジ抽出部131、第1ダイレーション処理部132および第1エロージョン処理部133で実行される処理と同様である。これにより、図4(C)に示した文字をエッジ画素とするエッジデータが生成される。   In the next step S02, characters are extracted from the image data input in step S01. This processing is the same as the processing executed by the edge extraction unit 131, the first dilation processing unit 132, and the first erosion processing unit 133 described above. As a result, edge data having the character shown in FIG. 4C as the edge pixel is generated.

次のステップS03では、ステップS02で抽出された文字からその文字の輪郭部分が抽出される。この処理は、第2ダイレーション処理部134、第2エロージョン処理部135および差分抽出部136で実行される処理と同様である。これにより、図4(F)に示した輪郭部分をエッジ画素とするエッジデータが生成される。   In the next step S03, the outline portion of the character is extracted from the character extracted in step S02. This processing is the same as the processing executed by the second dilation processing unit 134, the second erosion processing unit 135, and the difference extraction unit 136. As a result, edge data having the edge portion shown in FIG. 4F as the edge pixel is generated.

以下、ステップS02で抽出された文字に含まれる画素であって、ステップS03で抽出された輪郭部分に含まれない画素を文字内画素といい、輪郭部分に含まれる画素でなく、文字内画素でもない画素を文字以外の画素という。   Hereinafter, pixels included in the character extracted in step S02 and not included in the contour portion extracted in step S03 are referred to as intra-character pixels, and pixels included in the character are not included in the contour portion. Non-character pixels are referred to as pixels other than characters.

次のステップS04では、ステップS01で入力されたRGB表色系の画像データの各画素値を、CMY表色系の画像データに変換する。これにより、以降の処理で処理対象となる画像データは、CMY表色系の画像データとなる。   In the next step S04, each pixel value of the RGB color system image data input in step S01 is converted into CMY color system image data. As a result, the image data to be processed in the subsequent processing becomes CMY color system image data.

次のステップS05では、画像データのうちから1画素を選択して処理対象画素とし、その処理対象画素が文字か否かが判定される。文字と判定された場合にはステップS06に進み、そうでない場合にはステップS13に進む。ステップS05の判断は、処理対象画素がステップS02で抽出された文字に含まれるか否かにより判断される。具体的には、文字をエッジ画素とするエッジデータを用いて、処理対象画素がエッジ画素か否かが判断される。   In the next step S05, one pixel is selected from the image data as a processing target pixel, and it is determined whether or not the processing target pixel is a character. If it is determined that the character is a character, the process proceeds to step S06, and if not, the process proceeds to step S13. The determination in step S05 is determined based on whether or not the pixel to be processed is included in the character extracted in step S02. Specifically, it is determined whether or not the processing target pixel is an edge pixel by using edge data having a character as an edge pixel.

ステップS06では、処理対象画素が輪郭部分か否かが判定される。輪郭部分と判定された場合にはステップS07に進み、そうでない場合にはステップS10に進む。ステップS06の判断は、処理対象画素がステップS03で抽出された輪郭に含まれるか否かにより判断される。具体的には、輪郭部分をエッジ画素とするエッジデータを用いて、処理対象画素がエッジ画素か否かが判断される。   In step S06, it is determined whether or not the processing target pixel is a contour portion. If it is determined that the contour portion is determined, the process proceeds to step S07. If not, the process proceeds to step S10. The determination in step S06 is determined based on whether or not the pixel to be processed is included in the contour extracted in step S03. Specifically, it is determined whether or not the processing target pixel is an edge pixel by using edge data having an edge portion as an edge pixel.

すなわち、ステップS07に進む場合は、処理対象画素が輪郭部分に含まれる場合であり、ステップS10に進む場合は処理対象画素が文字内画素の場合であり、ステップS13に進む場合には処理対象画素が文字以外の画素の場合である。   That is, when the process proceeds to step S07, the process target pixel is included in the contour portion, when the process proceeds to step S10, the process target pixel is a pixel in the character, and when proceeding to step S13, the process target pixel is processed. Is a pixel other than a character.

ステップS07では、処理対象画素にエッジを強調するエッジ強調処理を行なう。具体的には、エッジ強調用のフィルタを用いて、処理対象画素の画素値と周辺の画素の画素値とから処理対象画素の画素値を補正する。   In step S07, edge emphasis processing for emphasizing the edge of the processing target pixel is performed. Specifically, the pixel value of the processing target pixel is corrected from the pixel value of the processing target pixel and the pixel values of surrounding pixels using an edge enhancement filter.

次のステップS08では、ステップS07で補正された処理対象画素の画素値をエッジ強調用に準備された特性曲線を用いてガンマ補正する。   In the next step S08, the pixel value of the pixel to be processed corrected in step S07 is gamma-corrected using a characteristic curve prepared for edge enhancement.

次のステップS09では、エッジ強調用に予め準備されたスクリーンのうちから、ガンマ補正された処理対象画素の画素値に対応する1のスクリーンを選択する。そして、ステップS16に進む。   In the next step S09, one screen corresponding to the pixel value of the processing target pixel subjected to gamma correction is selected from the screens prepared in advance for edge enhancement. Then, the process proceeds to step S16.

ステップS10では、処理対象画素に解像度を優先したスムージング処理を行なう。具体的には、解像度を優先させた平滑化フィルタを用いて、処理対象画素の画素値とその周辺の画素の画素値とに基づき処理対象画素の画素値を補正する。   In step S10, a smoothing process giving priority to resolution is performed on the processing target pixel. Specifically, the pixel value of the processing target pixel is corrected based on the pixel value of the processing target pixel and the pixel values of surrounding pixels using a smoothing filter that prioritizes resolution.

次のステップS11では、ステップS10でスムージング処理された処理対象画素の画素値を、文字内の画素用に準備された特性曲線を用いてガンマ補正する。   In the next step S11, the pixel value of the processing target pixel subjected to the smoothing process in step S10 is gamma-corrected using the characteristic curve prepared for the pixels in the character.

次のステップS12では、文字内画素用に予め準備されたスクリーンのうちから、ガンマ補正された処理対象画素の画素値に対応する1のスクリーンを選択する。そして、ステップS16に進む。   In the next step S12, one screen corresponding to the pixel value of the processing target pixel subjected to gamma correction is selected from screens prepared in advance for the pixels in the character. Then, the process proceeds to step S16.

ステップS13では、処理対象画素に階調を優先したスムージング処理を行なう。具体的には、階調を優先させた平滑化フィルタを用いて、処理対象画素の画素値とその周辺の画素の画素値とに基づき処理対象画素の画素値を補正する。   In step S13, a smoothing process is performed with priority given to the gradation for the processing target pixel. Specifically, the pixel value of the processing target pixel is corrected based on the pixel value of the processing target pixel and the pixel values of surrounding pixels using a smoothing filter that prioritizes gradation.

次のステップS14では、ステップS13でスムージング処理された処理対象画素の画素値を、文字以外の画素用に準備された特性曲線を用いてガンマ補正する。   In the next step S14, the pixel value of the processing target pixel subjected to the smoothing process in step S13 is gamma-corrected using a characteristic curve prepared for pixels other than characters.

次のステップS15では、文字以外の画素用に予め準備されたスクリーンのうちから、ガンマ補正された処理対象画素の画素値に対応する1のスクリーンを選択する。そして、ステップS16に進む。   In the next step S15, one screen corresponding to the pixel value of the pixel to be processed subjected to gamma correction is selected from screens prepared for pixels other than characters. Then, the process proceeds to step S16.

ステップS16では、次に処理対象とするべき画素があるか否かが判断され、真の場合にはステップS05に戻り、次の画素を処理対象画素に選択して上述した処理を繰り返し実行する。偽の場合にはステップS17に進む。   In step S16, it is determined whether or not there is a pixel to be processed next. If true, the process returns to step S05, the next pixel is selected as the processing target pixel, and the above-described processing is repeatedly executed. If not, the process proceeds to step S17.

ステップS17では、スクリーン処理された画像データを出力する。これにより、画像形成装置20で画像形成され、画像データに基づいて、用紙などの記録媒体に画像が形成される。   In step S17, the screen-processed image data is output. As a result, an image is formed by the image forming apparatus 20, and an image is formed on a recording medium such as paper based on the image data.

以上説明したように第1の実施の形態におけるMFPでは、画像データから抽出された文字の輪郭部分にエッジを強調するスクリーン処理を実行し、文字内部分に解像度を優先したスクリーン処理を実行し、文字以外の部分に階調を優先したスクリーン処理を実行する。このため、文字の輪郭部分がエッジ強調され、文字の外部に加えて文字の内部の領域に階調を表現することができる。このため、文字の輪郭を鮮明にするとともに、文字の内部に階調性を持たせた画像を形成することができる。さらに文字の内部に解像度を優先させたスクリーン処理を実行し、文字の外部に階調を優先させたスクリーン処理を実行するので、文字を鮮明に表現することができる。   As described above, in the MFP according to the first embodiment, the screen processing for emphasizing the edge is performed on the outline portion of the character extracted from the image data, and the screen processing with priority on the resolution is performed on the inner portion of the character. Executes screen processing that prioritizes gradation for parts other than characters. For this reason, the outline portion of the character is edge-enhanced, and gradation can be expressed in the area inside the character in addition to the outside of the character. For this reason, it is possible to form an image in which the outline of the character is clear and the character has gradation. Furthermore, screen processing with priority given to resolution is executed inside the character, and screen processing with priority given to gradation outside the character is executed, so that the character can be expressed clearly.

<属性判別部の変形例>
上述した属性判別部109では、画像データから文字を抽出するようにした。変形された属性判別部109Aでは、文字を抽出することなく、エッジとそのエッジを含む矩形のエッジ領域を抽出することによって、画素の属性を判別する。
<Modification of attribute discrimination unit>
The attribute determination unit 109 described above extracts characters from the image data. The deformed attribute discriminating unit 109A discriminates pixel attributes by extracting an edge and a rectangular edge region including the edge without extracting a character.

図8は、変形された属性判別部109Aの構成を示すブロック図である。図9は、変形された属性判別部109Aで生成されるエッジデータの一例を示す図である。図8および図9を参照して、属性判別部109Aは、エッジ抽出部131と、文字属性領域抽出部137と、属性信号生成部138とを含む。   FIG. 8 is a block diagram showing the configuration of the modified attribute discriminating unit 109A. FIG. 9 is a diagram illustrating an example of edge data generated by the modified attribute determination unit 109A. Referring to FIGS. 8 and 9, attribute determination unit 109A includes an edge extraction unit 131, a character attribute region extraction unit 137, and an attribute signal generation unit 138.

エッジ抽出部131は、明度データが入力される。エッジ抽出部131は、1次微分フィルタおよび2次微分フィルタを備え、明度データに1次微分フィルタを用いたフィルタ処理と、明度データに2次微分フィルタを用いたフィルタ処理とを実行する。そして、1次微分フィルタを用いたフィルタ処理でエッジと判定された画素(エッジ画素)、および、2次微分フィルタを用いたフィルタ処理でエッジと判定された画素(エッジ画素)を「1」とし、他の画素を「0」とするエッジデータを、文字属性領域抽出部137および属性信号生成部138に出力する。図9(A)は、エッジ抽出部131が出力するエッジデータの一例を示す図である。図では、文字「L」に対応するエッジデータを示している。文字を構成する線の輪郭部分をエッジ画素とされる。図では実線で示している。文字「L」を構成する線の輪郭の内部は、エッジ画素とされていない。   The edge extraction unit 131 receives brightness data. The edge extraction unit 131 includes a first-order differential filter and a second-order differential filter, and executes filter processing using a first-order differential filter for lightness data and filter processing using a second-order differential filter for lightness data. Then, the pixel determined to be an edge (edge pixel) by the filter processing using the primary differential filter and the pixel (edge pixel) determined to be the edge by the filter processing using the secondary differential filter are set to “1”. Then, edge data in which other pixels are set to “0” is output to the character attribute region extraction unit 137 and the attribute signal generation unit 138. FIG. 9A is a diagram illustrating an example of edge data output by the edge extraction unit 131. In the figure, edge data corresponding to the character “L” is shown. An outline portion of a line constituting a character is set as an edge pixel. In the figure, it is shown by a solid line. The inside of the outline of the line constituting the character “L” is not an edge pixel.

文字属性領域抽出部137は、エッジ抽出部131からエッジデータが入力される。そして、入力されたエッジデータから、エッジ画素に外接する矩形の領域を文字属性領域として抽出する。そして、抽出した文字属性領域に含まれる画素を「1」とし、他の画素を「0」とする文字属性領域データを属性信号生成部138に出力する。図9(B)は、文字属性領域抽出部137が出力する文字属性領域データの一例を示す図である。図中斜線で示す部分が文字属性領域を示している。他の領域は、文字以外の例えば写真等が表された領域である。   The character attribute area extraction unit 137 receives edge data from the edge extraction unit 131. Then, a rectangular area circumscribing the edge pixel is extracted from the input edge data as a character attribute area. Then, character attribute area data in which the pixel included in the extracted character attribute area is set to “1” and the other pixels are set to “0” is output to the attribute signal generation unit 138. FIG. 9B is a diagram illustrating an example of character attribute area data output by the character attribute area extraction unit 137. In the figure, the hatched portion indicates the character attribute area. The other area is an area where, for example, a photograph or the like other than characters is displayed.

属性信号生成部138は、入力されるエッジデータおよび文字属性領域データから属性信号を生成して、生成した属性信号をプリントデータ生成部110に出力する。属性信号生成部138は、文字属性領域に含まれるエッジ画素に属性信号「00」を割当て、文字属性領域に含まれるがエッジ画素でない画素に属性信号「01」を割当て、文字属性領域に含まれない画素に属性信号「11」を割当てる。   The attribute signal generation unit 138 generates an attribute signal from the input edge data and character attribute area data, and outputs the generated attribute signal to the print data generation unit 110. The attribute signal generation unit 138 assigns the attribute signal “00” to the edge pixels included in the character attribute area, assigns the attribute signal “01” to the pixels included in the character attribute area but not the edge pixels, and is included in the character attribute area. The attribute signal “11” is assigned to the non-existing pixel.

図10は、画素の属性とエッジと属性信号との関係を示す図である。図5と比較すると、文字属性領域に含まれるエッジ画素に、属性が輪郭部分と同じ属性信号「00」が割当てられ、文字属性領域に含まれるがエッジ画素でない画素に属性が文字内の属性信号「01」が割当てられ、文字属性領域に含まれない画素に属性が文字以外の属性信号「11」が割当てられている。   FIG. 10 is a diagram illustrating a relationship among pixel attributes, edges, and attribute signals. Compared with FIG. 5, the attribute signal “00” having the same attribute as that of the contour portion is assigned to the edge pixel included in the character attribute region, and the attribute signal in the character is included in the pixel included in the character attribute region but not the edge pixel. “01” is assigned, and an attribute signal “11” other than a character is assigned to a pixel not included in the character attribute area.

したがって、変形された属性判別部109Aに従えば、プリントデータ生成部110は、文字属性領域のうちエッジ画素は第1スクリーン処理部125Aによりスクリーン処理された画素値を選択し、エッジ画素以外の画素は第2スクリーン処理部125Bによりスクリーン処理された画素値を選択し、文字属性領域以外の画素は第3スクリーン処理部125Cによりスクリーン処理された画素値を選択する。   Therefore, according to the modified attribute discriminating unit 109A, the print data generating unit 110 selects the pixel value screen-processed by the first screen processing unit 125A as the edge pixel in the character attribute area, and the pixels other than the edge pixel. Selects the pixel value screen-processed by the second screen processing unit 125B, and for pixels other than the character attribute area, selects the pixel value screen-processed by the third screen processing unit 125C.

なお、変形された属性判別部109Aは、エッジ画素を文字の輪郭部分とし、輪郭部分の画素と、エッジ画素以外の文字属性領域の画素と、文字属性領域以外の画素とを区別するようにしたが、属性判別部109Aはこれに限られるものではない。変形された属性判別部109Aは、文字の輪郭部分と、文字の内側部分および外側の周辺部分と、写真等が表された部分とを区別する他の方法を用いて、属性を判別するようにしてもよい。   The modified attribute discriminating unit 109A uses the edge pixel as the outline portion of the character, and distinguishes the pixel of the outline portion, the pixel of the character attribute area other than the edge pixel, and the pixel other than the character attribute area. However, the attribute determination unit 109A is not limited to this. The modified attribute discriminating unit 109A discriminates the attribute by using another method for distinguishing the outline portion of the character, the inner and outer peripheral portions of the character, and the portion where the photograph is represented. May be.

図11は、変形された属性判別部109Aを適用したMFPで実行される画像処理の流れを示すフローチャートである。図11を参照して、MFPには、画像データが入力される(ステップS21)。次のステップS22では、ステップS01で入力された画像データからエッジ画素を抽出する。この処理は、上述した、エッジ抽出部131で実行される処理と同様である。これにより、図9(A)に示したエッジデータが生成される。   FIG. 11 is a flowchart showing a flow of image processing executed by the MFP to which the modified attribute determination unit 109A is applied. Referring to FIG. 11, image data is input to the MFP (step S21). In the next step S22, edge pixels are extracted from the image data input in step S01. This process is the same as the process executed by the edge extraction unit 131 described above. As a result, the edge data shown in FIG. 9A is generated.

次のステップS23では、ステップS02で抽出されたエッジ画素に外接する矩形の文字属性領域を抽出する。この処理は、文字属性領域抽出部137で実行される処理と同様である。これにより、図9(B)に示した文字属性領域データが生成される。   In the next step S23, a rectangular character attribute area circumscribing the edge pixel extracted in step S02 is extracted. This process is the same as the process executed by the character attribute area extraction unit 137. As a result, the character attribute area data shown in FIG. 9B is generated.

次のステップS24では、ステップS01で入力されたRGB表色系の画像データの各画素値を、CMY表色系の画像データに変換する。これにより、以降の処理で処理対象となる画像データは、CMY表色系の画像データとなる。   In the next step S24, each pixel value of the RGB color system image data input in step S01 is converted into CMY color system image data. As a result, the image data to be processed in the subsequent processing becomes CMY color system image data.

次のステップS25では、画像データのうちから1画素を選択して処理対象画素とし、その処理対象画素が文字属性領域に含まれるか否かが判定される。文字属性領域に含まれると判定された場合にはステップS26に進み、そうでない場合にはステップS33に進む。   In the next step S25, one pixel is selected from the image data as a processing target pixel, and it is determined whether or not the processing target pixel is included in the character attribute area. If it is determined that it is included in the character attribute area, the process proceeds to step S26, and if not, the process proceeds to step S33.

ステップS26では、処理対象画素がエッジ画素が否かが判定される。処理対象画素がエッジ画素と判定された場合にはステップS27に進み、そうでない場合にはステップS30に進む。   In step S26, it is determined whether the processing target pixel is an edge pixel. If it is determined that the pixel to be processed is an edge pixel, the process proceeds to step S27, and if not, the process proceeds to step S30.

ステップS27〜S37の処理は、図7に示した画像処理のステップS07〜ステップS17の処理とそれぞれ同様であるので、ここでは説明を繰返さない。   The processing in steps S27 to S37 is the same as the processing in steps S07 to S17 of the image processing shown in FIG. 7, and therefore description thereof will not be repeated here.

以上説明したように、画像データから抽出された文字の輪郭部分にエッジを強調するスクリーン処理を実行し、文字内部分および文字の外側の文字属性領域に解像度を優先したスクリーン処理を実行し、文字属性領域以外の部分に階調を優先したスクリーン処理を実行する。このため、文字の輪郭部分がエッジ強調され、文字の外部に加えて文字の内部の領域に階調を表現することができる。このため、文字の輪郭を鮮明にするとともに、文字の内部に階調性を持たせた画像を形成することができる。   As described above, the screen processing for emphasizing the edge is performed on the outline portion of the character extracted from the image data, the screen processing giving priority to the resolution is performed on the character inner portion and the character attribute area outside the character, and the character Screen processing that prioritizes gradation is executed for portions other than the attribute region. For this reason, the outline portion of the character is edge-enhanced, and gradation can be expressed in the area inside the character in addition to the outside of the character. For this reason, it is possible to form an image in which the outline of the character is clear and the character has gradation.

<第2の実施の形態>
第2の実施の形態におけるMFPは、第1の実施の形態における属性判別部109とプリントデータ生成部110を変更したものである。他の構成は第1の実施の形態におけるMFPと同様であるのでここでは、異なる点を主に説明する。
<Second Embodiment>
The MFP in the second embodiment is obtained by changing the attribute determination unit 109 and the print data generation unit 110 in the first embodiment. Since other configurations are the same as those of the MFP in the first embodiment, different points will be mainly described here.

図12は、第2の実施の形態におけるMFPの属性判別部の構成を示すブロック図である。図13は、属性判別部で生成されるエッジデータの一例を示す図である。   FIG. 12 is a block diagram illustrating a configuration of the attribute determination unit of the MFP according to the second embodiment. FIG. 13 is a diagram illustrating an example of edge data generated by the attribute determination unit.

属性判別部109Bは、明度データから内エッジ画素を抽出する内エッジ抽出部139と、外エッジ画素を抽出する外エッジ抽出部140と、内エッジ画素と外エッジ画素とから属性信号を生成する合成部141とを含む。   The attribute determination unit 109B generates an attribute signal from the inner edge pixel and the outer edge pixel, and the inner edge extraction unit 139 that extracts the inner edge pixel from the brightness data, the outer edge extraction unit 140 that extracts the outer edge pixel, and the inner edge pixel and the outer edge pixel. Part 141.

内エッジ抽出部139は、明度データが入力される。内エッジ抽出部139は、内エッジを検出するためのフィルタを備え、明度データに内エッジフィルタを用いたフィルタ処理を実行する。そして、内エッジフィルタを用いたフィルタ処理で内エッジと判定された画素(内エッジ画素)を「1」とし、他の画素を「0」とする内エッジデータを、合成部141に出力する。内エッジとは、文字の輪郭の内側を構成する画素をいう。ここで、図13を参照して、文字の輪郭151に対して、その内側の1画素分の幅を有する領域152が内エッジである。   The inner edge extraction unit 139 receives lightness data. The inner edge extraction unit 139 includes a filter for detecting the inner edge, and executes filter processing using the inner edge filter for the brightness data. Then, the inner edge data in which the pixel (inner edge pixel) determined to be the inner edge by the filter processing using the inner edge filter is set to “1” and the other pixels are set to “0” is output to the synthesis unit 141. The inner edge is a pixel that forms the inside of the outline of a character. Here, referring to FIG. 13, a region 152 having a width corresponding to one pixel inside the character outline 151 is the inner edge.

外エッジ抽出部140は、明度データが入力される。外エッジ抽出部140は、外エッジを検出するためのフィルタを備え、明度データに外エッジフィルタを用いたフィルタ処理を実行する。そして、外エッジフィルタを用いたフィルタ処理で外エッジと判定された画素(外エッジ画素)を「1」とし、他の画素を「0」とする外エッジデータを、合成部141に出力する。外エッジとは、文字の輪郭の外側を構成する画素をいう。ここで、図13を参照して、文字の輪郭151に対して、その外側の1画素分の幅を有する領域153が外エッジである。   The outer edge extraction unit 140 receives brightness data. The outer edge extraction unit 140 includes a filter for detecting an outer edge, and executes a filtering process using the outer edge filter for brightness data. Then, the outer edge data in which the pixel (outer edge pixel) determined as the outer edge by the filter processing using the outer edge filter is set to “1” and the other pixels are set to “0” is output to the synthesis unit 141. An outer edge is a pixel that forms the outside of the outline of a character. Here, referring to FIG. 13, a region 153 having a width corresponding to one pixel outside the character outline 151 is an outer edge.

合成部141は、内エッジデータと外エッジデータが入力される。合成部141は、論理和回路であり、内エッジデータおよび外エッジデータのいずれかで「1」とされる画素の値を「1」とし、他の画素の値を「0」とする合成データを生成する。そして、合成データで画素値が「1」とされる画素(内エッジ画素または外エッジ画素)に属性信号「00」を割当て、合成データで画素値が「0」とされる画素に属性信号「11」を割当てる。   The synthesizer 141 receives the inner edge data and the outer edge data. The synthesizing unit 141 is an OR circuit, and is composed data in which the value of the pixel set to “1” in any of the inner edge data and the outer edge data is set to “1”, and the values of the other pixels are set to “0”. Is generated. Then, an attribute signal “00” is assigned to a pixel (inner edge pixel or outer edge pixel) whose pixel value is “1” in the synthesized data, and an attribute signal “00” is assigned to a pixel whose pixel value is “0” in the synthesized data. 11 "is assigned.

図14は、エッジと属性信号との関係を示す図である。図5と比較すると、内エッジ画素または外エッジ画素に、属性が輪郭部分と同じ属性信号「00」が割当てられ、内エッジでも外エッジでもない背景部分の画素に属性が文字以外の属性信号「11」が割当てられている。   FIG. 14 is a diagram illustrating the relationship between edges and attribute signals. Compared with FIG. 5, the attribute signal “00” having the same attribute as that of the contour portion is assigned to the inner edge pixel or the outer edge pixel, and the attribute signal “non-character” is assigned to the pixel of the background portion that is neither the inner edge nor the outer edge. 11 "is assigned.

図15は、第2の実施の形態におけるプリントデータ生成部の構成を示す図である。図15を参照して、プリントデータ生成部110Aは、エッジ強調処理部121と、第2スムージング処理部122Bと、エッジ強調処理部121および第2スムージング処理部122Bが出力する画素値のいずれかを選択する第1選択部123Aと、第1選択部123Aで選択された画素値をガンマ補正するガンマ補正部124Aと、ガンマ補正された画素値が入力される第1および第3スクリーン処理部125A,125Cと、第1および第3スクリーン処理部125A,125Cが出力する画素値のいずれかを選択する第2選択部126Aとを含む。   FIG. 15 is a diagram illustrating a configuration of a print data generation unit according to the second embodiment. Referring to FIG. 15, print data generation unit 110A determines one of the pixel values output from edge enhancement processing unit 121, second smoothing processing unit 122B, edge enhancement processing unit 121, and second smoothing processing unit 122B. A first selection unit 123A to select, a gamma correction unit 124A to gamma-correct the pixel value selected by the first selection unit 123A, and first and third screen processing units 125A to which the gamma-corrected pixel value is input. 125C and a second selection unit 126A that selects one of the pixel values output from the first and third screen processing units 125A and 125C.

第1選択部123Aは、属性判別部109Bから入力される属性信号に従って、エッジ強調処理部121が出力する画素値および第2スムージング処理部122Bが出力する画素値のいずれか1つを選択し、選択した画素値をガンマ補正部124Aに出力する。具体的には、入力された属性信号が内エッジ画素または外エッジ画素を示す「00」の場合にはエッジ強調処理部121が出力する画素値を選択し、入力された属性信号が内エッジ画素でも外エッジ画素でもない画素であることを示す「11」の場合には第2スムージング処理部122Bが出力する画素値を選択する。   The first selection unit 123A selects one of the pixel value output from the edge enhancement processing unit 121 and the pixel value output from the second smoothing processing unit 122B according to the attribute signal input from the attribute determination unit 109B. The selected pixel value is output to the gamma correction unit 124A. Specifically, when the input attribute signal is “00” indicating the inner edge pixel or the outer edge pixel, the pixel value output by the edge enhancement processing unit 121 is selected, and the input attribute signal is the inner edge pixel. However, in the case of “11” indicating that the pixel is not an outer edge pixel, the pixel value output by the second smoothing processing unit 122B is selected.

ガンマ補正部124Aは、選択部123Aから画素値が入力され、属性判別部109Bから属性信号が入力される。ガンマ補正部124Aは、入力された画素値を、入力された属性信号に対応する特性曲線を用いてその特性曲線に応じて階調を補正する。これにより、画素の属性に応じて階調性が補正される。そして、ガンマ補正部124Aは、補正した画素値を第1および第3スクリーン処理部125A,125Cに出力する。   The gamma correction unit 124A receives the pixel value from the selection unit 123A and the attribute signal from the attribute determination unit 109B. The gamma correction unit 124A corrects the gradation of the input pixel value according to the characteristic curve using the characteristic curve corresponding to the input attribute signal. Thereby, the gradation is corrected according to the attribute of the pixel. Then, the gamma correction unit 124A outputs the corrected pixel value to the first and third screen processing units 125A and 125C.

第2選択部126Aは、第1および第3スクリーン処理部125A,125Cそれぞれからスクリーンが入力され、属性判別部109Bから属性信号が入力される。第2選択部126Aは、属性判別部109Bから入力される属性信号に従って、第1および第3スクリーン処理部125A,125Cそれぞれから入力されるスクリーンのいずれか1つを選択し、選択したスクリーンを画像データとして出力する。具体的には、入力された属性信号が内エッジ画素または外エッジ画素を示す「00」の場合には第1スクリーン処理部125Aが出力するスクリーンを選択し、入力された属性信号が内エッジ画素でも外エッジ画素でもない画素であることを示す「11」の場合には第3スクリーン処理部125Cが出力するスクリーンを選択する。   The second selection unit 126A receives screens from the first and third screen processing units 125A and 125C, and receives attribute signals from the attribute determination unit 109B. The second selection unit 126A selects one of the screens input from the first and third screen processing units 125A and 125C according to the attribute signal input from the attribute determination unit 109B, and displays the selected screen as an image. Output as data. Specifically, when the input attribute signal is “00” indicating the inner edge pixel or the outer edge pixel, the screen output by the first screen processing unit 125A is selected, and the input attribute signal is the inner edge pixel. However, in the case of “11” indicating that the pixel is not an outer edge pixel, the screen output by the third screen processing unit 125C is selected.

なお、第2の実施の形態における属性判別部109Bは、内エッジ画素と外エッジ画素とを文字の輪郭部分とし、輪郭部分の画素と、輪郭部分以外の画素とを区別するようにしたが、属性判別部109Bはこれに限られるものではない。属性判別部109Bは、文字の輪郭部分の画素と、それ以外の画素とを区別する他の方法を用いて、属性を判別するようにしてもよい。例えば、内エッジ画素のみ、外エッジ画素のみのように、1つのエッジ抽出フィルタを用いて抽出されたエッジ画素を輪郭部分とするようにしてもよい。   Note that the attribute determination unit 109B in the second embodiment uses the inner edge pixel and the outer edge pixel as the contour portion of the character, and distinguishes the pixel of the contour portion from the pixels other than the contour portion. The attribute determination unit 109B is not limited to this. The attribute discriminating unit 109B may discriminate the attribute by using another method for distinguishing the pixel in the outline portion of the character from the other pixels. For example, an edge pixel extracted using one edge extraction filter, such as only the inner edge pixel and only the outer edge pixel, may be used as the contour portion.

図16は、第2の実施の形態におけるMFPで実行される画像処理の流れを示すフローチャートである。図16を参照して、MFPには、画像データが入力される(ステップS41)。次のステップS42では、ステップS01で入力された画像データからエッジ画素を抽出する。この処理は、上述した、内エッジ抽出部139、外エッジ抽出部140で実行される処理と同様である。これにより、図13に示した内エッジ画素および外エッジ画素を「1」とし他の画素を「0」とするエッジデータが生成される。   FIG. 16 is a flowchart showing the flow of image processing executed by the MFP in the second embodiment. Referring to FIG. 16, image data is input to the MFP (step S41). In the next step S42, edge pixels are extracted from the image data input in step S01. This process is the same as the process executed by the inner edge extraction unit 139 and the outer edge extraction unit 140 described above. Thereby, edge data in which the inner edge pixel and the outer edge pixel shown in FIG. 13 are “1” and the other pixels are “0” is generated.

次のステップS43では、ステップS01で入力されたRGB表色系の画像データの各画素値を、CMY表色系の画像データに変換する。これにより、以降の処理で処理対象となる画像データは、CMY表色系の画像データとなる。   In the next step S43, each pixel value of the RGB color system image data input in step S01 is converted into CMY color system image data. As a result, the image data to be processed in the subsequent processing becomes CMY color system image data.

次のステップS44では、画像データのうちから1画素を選択して処理対象画素とし、その処理対象画素が内エッジ画素または外エッジ画素か否かが判定される。内エッジ画素または外エッジ画素と判定された場合にはステップS45に進み、そうでない場合にはステップS48に進む。   In the next step S44, one pixel is selected from the image data as a processing target pixel, and it is determined whether the processing target pixel is an inner edge pixel or an outer edge pixel. If it is determined that the pixel is an inner edge pixel or an outer edge pixel, the process proceeds to step S45, and if not, the process proceeds to step S48.

ステップS45では、処理対象画素にエッジを強調するエッジ強調処理を行なう。具体的には、エッジ強調用のフィルタを用いて、処理対象画素の画素値と周辺の画素の画素値とから処理対象画素の画素値を補正する。次のステップS46では、ステップS45で補正された処理対象画素の画素値をエッジ強調用に準備された特性曲線を用いてガンマ補正する。次のステップS47では、エッジ強調用に予め準備されたスクリーンのうちから、ガンマ補正された処理対象画素の画素値に対応する1のスクリーンを選択する。そして、ステップS51に進む。   In step S45, an edge enhancement process for enhancing an edge on the processing target pixel is performed. Specifically, the pixel value of the processing target pixel is corrected from the pixel value of the processing target pixel and the pixel values of surrounding pixels using an edge enhancement filter. In the next step S46, the pixel value of the processing target pixel corrected in step S45 is gamma-corrected using a characteristic curve prepared for edge enhancement. In the next step S47, one screen corresponding to the pixel value of the processing target pixel subjected to gamma correction is selected from the screens prepared in advance for edge enhancement. Then, the process proceeds to step S51.

ステップS48では、処理対象画素に階調を優先したスムージング処理を行なう。具体的には、階調を優先させた平滑化フィルタを用いて、処理対象画素の画素値とその周辺の画素の画素値とに基づき処理対象画素の画素値を補正する。次のステップS49では、ステップS48でスムージング処理された処理対象画素の画素値を、文字以外の画素用に準備された特性曲線を用いてガンマ補正する。次のステップS50では、文字以外の画素用に予め準備されたスクリーンのうちから、ガンマ補正された処理対象画素の画素値に対応する1のスクリーンを選択する。そして、ステップS51に進む。   In step S48, a smoothing process is performed with priority given to gradation for the processing target pixel. Specifically, the pixel value of the processing target pixel is corrected based on the pixel value of the processing target pixel and the pixel values of surrounding pixels using a smoothing filter that prioritizes gradation. In the next step S49, the pixel value of the processing target pixel subjected to the smoothing process in step S48 is gamma-corrected using a characteristic curve prepared for pixels other than characters. In the next step S50, one screen corresponding to the pixel value of the processing target pixel subjected to gamma correction is selected from screens prepared in advance for pixels other than characters. Then, the process proceeds to step S51.

ステップS51では、次に処理対象とするべき画素があるか否かが判断され、真の場合にはステップS44に戻り、次の画素を処理対象画素に選択して上述した処理を繰り返し実行する。偽の場合にはステップS52に進む。ステップS52では、スクリーン処理された画像データを出力する。これにより、画像形成装置20で画像形成され、画像データに基づいて、用紙などの記録媒体に画像が形成される。   In step S51, it is determined whether or not there is a pixel to be processed next. If true, the process returns to step S44, the next pixel is selected as the processing target pixel, and the above-described processing is repeatedly executed. If not, the process proceeds to step S52. In step S52, the screen-processed image data is output. As a result, an image is formed by the image forming apparatus 20, and an image is formed on a recording medium such as paper based on the image data.

<属性判別部の変形例>
図17は、第2の実施の形態におけるMFPの変形された属性判別部の構成を示す図である。図17を参照して、変形された属性判別部109Cは、内エッジ抽出部139で構成される。
<Modification of attribute discrimination unit>
FIG. 17 is a diagram illustrating a configuration of a modified attribute determination unit of the MFP according to the second embodiment. Referring to FIG. 17, the modified attribute determination unit 109 </ b> C includes an inner edge extraction unit 139.

以上説明したように第2の実施の形態におけるMFPでは、画像データのエッジ画素にエッジを強調するスクリーン処理を実行し、エッジ画素でない画素に階調を優先したスクリーン処理を実行する。このため、文字の輪郭部分がエッジ強調され、文字の内部および外部の領域に階調が表現される画像となる。このため、文字の輪郭を鮮明にするとともに、文字の内部に階調性を持たせた画像を形成することができる。   As described above, in the MFP according to the second embodiment, screen processing for emphasizing edges is performed on edge pixels of image data, and screen processing is performed with priority given to gradation on pixels that are not edge pixels. For this reason, the outline portion of the character is edge-enhanced, and an image in which gradation is expressed in the inside and outside regions of the character is obtained. For this reason, it is possible to form an image in which the outline of the character is clear and the character has gradation.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明の第1の実施の形態におけるMFPの斜視図である。1 is a perspective view of an MFP according to a first embodiment of the present invention. 本実施の形態におけるMFPの構成を示すブロック図である。2 is a block diagram showing a configuration of an MFP in the present embodiment. FIG. 属性判別部の構成を示すブロック図である。It is a block diagram which shows the structure of an attribute discrimination | determination part. 属性判別部で生成されるエッジデータの一例を示す図である。It is a figure which shows an example of the edge data produced | generated by the attribute discrimination | determination part. 画素の属性と属性信号との関係を示す図である。It is a figure which shows the relationship between the attribute of a pixel, and an attribute signal. プリントデータ生成部110の構成を示すブロック図である。3 is a block diagram illustrating a configuration of a print data generation unit 110. FIG. 本実施の形態におけるMFPで実行される画像処理の流れを示すフローチャートである。6 is a flowchart showing a flow of image processing executed by the MFP in the present embodiment. 変形された属性判別部の構成を示すブロック図である。It is a block diagram which shows the structure of the modified attribute discrimination | determination part. 変形された属性判別部で生成されるエッジデータの一例を示す図である。It is a figure which shows an example of the edge data produced | generated by the transformed attribute discrimination | determination part. 画素の属性とエッジと属性信号との関係を示す図である。It is a figure which shows the relationship between the attribute of a pixel, an edge, and an attribute signal. 変形された属性判別部を適用したMFPで実行される画像処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of image processing executed by an MFP to which a modified attribute determination unit is applied. 第2の実施の形態におけるMFPの属性判別部の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an attribute determination unit of an MFP according to a second embodiment. 属性判別部で生成されるエッジデータの一例を示す図である。It is a figure which shows an example of the edge data produced | generated by the attribute discrimination | determination part. エッジと属性信号との関係を示す図である。It is a figure which shows the relationship between an edge and an attribute signal. 第2の実施の形態におけるプリントデータ生成部の構成を示す図である。It is a figure which shows the structure of the print data generation part in 2nd Embodiment. 第2の実施の形態におけるMFPで実行される画像処理の流れを示すフローチャートである。10 is a flowchart illustrating a flow of image processing executed by the MFP according to the second embodiment. 第2の実施の形態におけるMFPの変形された属性判別部の構成を示す図である。FIG. 10 is a diagram illustrating a configuration of a modified attribute determination unit of an MFP according to a second embodiment.

符号の説明Explanation of symbols

10 画像読取装置、20 画像形成装置、102 画像合成部、104 シェーディング補正部、105 ライン間補正部、106 色収差補正部、107 変倍・移動処理部、108 色変換部、109,109A、109B,109C 属性判別部、110,110A プリントデータ生成部、121 エッジ強調処理部、122A 第1スムージング処理部、122B 第2スムージング処理部、123,123A 第1選択部、124,124A ガンマ補正部、125A 第1スクリーン処理部、125B 第2スクリーン処理部、125C 第3スクリーン処理部、126 第2選択部、126A 選択部、131 エッジ抽出部、132 第1ダイレーション処理部部、133 第1エロージョン処理部、134 第2ダイレージョン処理部、135 第2エロージョン処理部、136 差分抽出部、137 文字領域抽出部、138 属性信号生成部、139 内エッジ抽出部、140 外エッジ抽出部、141 合成部、111 プリンタI/F。   DESCRIPTION OF SYMBOLS 10 Image reader, 20 Image forming apparatus, 102 Image composition part, 104 Shading correction part, 105 Interline correction part, 106 Chromatic aberration correction part, 107 Scaling / movement processing part, 108 Color conversion part, 109, 109A, 109B, 109C Attribute discrimination unit, 110, 110A Print data generation unit, 121 Edge enhancement processing unit, 122A First smoothing processing unit, 122B Second smoothing processing unit, 123, 123A First selection unit, 124, 124A Gamma correction unit, 125A first 1 screen processing unit, 125B second screen processing unit, 125C third screen processing unit, 126 second selection unit, 126A selection unit, 131 edge extraction unit, 132 first dilation processing unit, 133 first erosion processing unit, 134 Second Dilation Processing Unit 135 second erosion processing unit, 136 differential extraction module, 137 the character region extracting unit, 138 attribute signal generating section, 139 in the edge extraction unit 140 the outer edge extracting unit, 141 combining unit, 111 a printer I / F.

Claims (10)

画像データを入力する画像データ入力手段と、
文字を構成する画素を含む文字領域と文字の輪郭部分を構成する輪郭画素とを他の画素と区別する属性データを取得する属性データ取得手段と、
前記属性データに基づき、前記画像データにスクリーン処理を実行するスクリーン処理手段とを備え、
前記スクリーン処理手段は、前記画像データの前記輪郭画素に第1のスクリーン処理を実行し、前記画像データの前記文字領域に含まれ、かつ、前記輪郭画素でない画素に第2のスクリーン処理を実行し、前記画像データの前記文字領域に含まれない画素に第3のスクリーン処理を実行する、画像処理装置。
Image data input means for inputting image data;
Attribute data acquisition means for acquiring attribute data for distinguishing a character region including a pixel constituting a character and a contour pixel constituting a contour portion of the character from other pixels;
Screen processing means for executing screen processing on the image data based on the attribute data;
The screen processing means performs a first screen process on the contour pixel of the image data, and executes a second screen process on a pixel that is included in the character area of the image data and is not the contour pixel. An image processing apparatus that performs a third screen process on pixels that are not included in the character area of the image data.
前記第1のスクリーン処理は、エッジ強調処理であり、
前記第2のスクリーン処理は、解像度を優先したスクリーン処理であり、
前記第3のスクリーン処理は、階調を優先したスクリーン処理である、請求項1に記載の画像処理装置。
The first screen processing is edge enhancement processing;
The second screen process is a screen process giving priority to resolution,
The image processing apparatus according to claim 1, wherein the third screen processing is screen processing giving priority to gradation.
前記属性データ取得手段は、入力された前記画像データから前記文字領域を抽出する文字領域抽出手段と、
前記抽出された文字領域に基づき、文字の輪郭部分を構成する輪郭画素を抽出する輪郭画素抽出手段とを含む、請求項1に記載の画像処理装置。
The attribute data acquisition means includes character area extraction means for extracting the character area from the input image data,
The image processing apparatus according to claim 1, further comprising: a contour pixel extracting unit that extracts a contour pixel that forms a contour portion of a character based on the extracted character region.
前記文字領域抽出手段は、入力された前記画像データからエッジ画素を抽出するエッジ画素抽出手段と、
前記エッジ画素と、前記エッジ画素で囲まれた画素とを含む文字領域を抽出する文字領域決定手段とを含む、請求項3に記載の画像処理装置。
The character region extraction means includes edge pixel extraction means for extracting edge pixels from the input image data;
The image processing apparatus according to claim 3, further comprising: a character area determining unit that extracts a character area including the edge pixels and pixels surrounded by the edge pixels.
前記輪郭画素抽出手段は、前記文字領域抽出手段により抽出された前記文字領域を拡張する拡張手段と、
前記文字画素抽出手段により抽出された前記文字領域を収縮する収縮手段と、
前記拡張手段により拡張された後の文字領域に含まれ、かつ、前記収縮手段により収縮された後の文字領域に含まれない画素を輪郭画素とする輪郭画素決定手段とを含む、請求項3に記載の画像処理装置。
The contour pixel extraction means includes an expansion means for extending the character area extracted by the character area extraction means;
Contraction means for contracting the character region extracted by the character pixel extraction means;
And a contour pixel determining unit including a pixel that is included in the character region expanded by the expansion unit and not included in the character region contracted by the contraction unit as a contour pixel. The image processing apparatus described.
属性データ取得手段は、入力された前記画像データからエッジ画素を前記輪郭画素として抽出するエッジ画素抽出手段と、
抽出された前記エッジ画素を含む矩形の文字属性領域を前記文字領域として抽出する文字属性領域抽出手段とを含む、請求項1に記載の画像処理装置。
Attribute data acquisition means, edge pixel extraction means for extracting edge pixels from the input image data as the contour pixels,
The image processing apparatus according to claim 1, further comprising: a character attribute area extracting unit that extracts a rectangular character attribute area including the extracted edge pixel as the character area.
前記画像データの階調性を補正するガンマ補正手段をさらに備え、
前記ガンマ補正手段は、前記画像データの前記輪郭画素、前記画像データの前記文字領域に含まれ、かつ、前記輪郭画素でない画素、および前記画像データの前記文字領域に含まれない画素に、それぞれに対して予め準備された特性曲線に応じてガンマ補正する、請求項1に記載の画像処理装置。
Further comprising gamma correction means for correcting the gradation of the image data;
The gamma correction means may be applied to each of the outline pixel of the image data, the pixel that is included in the character area of the image data and is not the outline pixel, and the pixel that is not included in the character area of the image data. The image processing apparatus according to claim 1, wherein gamma correction is performed according to a characteristic curve prepared in advance.
画像データを入力するステップと、
文字を構成する画素を含む文字領域と文字の輪郭部分を構成する輪郭画素とを他の画素と区別する属性データを取得するステップと、
前記画像データの前記輪郭画素に第1のスクリーン処理を実行するステップと、
前記画像データの前記文字領域に含まれ、かつ、前記輪郭画素でない画素に第2のスクリーン処理を実行するステップと、
前記画像データの前記文字領域に含まれない画素に第3のスクリーン処理を実行するステップとをコンピュータに実行させる、画像処理プログラム。
Inputting image data;
Obtaining attribute data for distinguishing a character region including pixels constituting a character and a contour pixel constituting a contour portion of the character from other pixels;
Performing a first screen process on the contour pixels of the image data;
Performing a second screen process on pixels that are included in the character region of the image data and that are not the contour pixels;
The image processing program which makes a computer perform the step which performs a 3rd screen process to the pixel which is not contained in the said character area of the said image data.
画像データを入力する画像データ入力手段と、
入力された前記画像データからエッジ画素を抽出するエッジ画素抽出手段と、
前記画像データにスクリーン処理を実行するスクリーン処理手段とを備え、
前記スクリーン処理手段は、前記画像データの前記エッジ画素にエッジ強調処理を実行し、前記画像データの前記エッジ画素として抽出されなかった画素に解像度を優先したスクリーン処理を実行する、画像処理装置。
Image data input means for inputting image data;
Edge pixel extraction means for extracting edge pixels from the input image data;
Screen processing means for executing screen processing on the image data,
The image processing apparatus, wherein the screen processing means executes edge enhancement processing on the edge pixels of the image data, and executes screen processing giving priority to resolution to pixels not extracted as the edge pixels of the image data.
画像データを入力するステップと、
入力された前記画像データからエッジ画素を抽出するステップと、
前記画像データの前記エッジ画素にエッジ強調処理を実行するステップと、
前記画像データの前記エッジ画素として抽出されなかった画素に解像度を優先したスクリーン処理を実行するステップとをコンピュータに実行させる、画像処理プログラム。
Inputting image data;
Extracting edge pixels from the input image data;
Performing edge enhancement processing on the edge pixels of the image data;
An image processing program that causes a computer to execute a screen process that prioritizes resolution for pixels that are not extracted as the edge pixels of the image data.
JP2005006575A 2005-01-13 2005-01-13 Image processing apparatus and image processing program Active JP4135714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005006575A JP4135714B2 (en) 2005-01-13 2005-01-13 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005006575A JP4135714B2 (en) 2005-01-13 2005-01-13 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2006197239A true JP2006197239A (en) 2006-07-27
JP4135714B2 JP4135714B2 (en) 2008-08-20

Family

ID=36802957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005006575A Active JP4135714B2 (en) 2005-01-13 2005-01-13 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP4135714B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232444A (en) * 2008-02-25 2009-10-08 Konica Minolta Business Technologies Inc Image processing apparatus and line-pair pattern identification method
JP2013012938A (en) * 2011-06-29 2013-01-17 Kyocera Document Solutions Inc Image processing device, image forming device, and image processing method
JP2013070359A (en) * 2011-09-05 2013-04-18 Konica Minolta Business Technologies Inc Image processor and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232444A (en) * 2008-02-25 2009-10-08 Konica Minolta Business Technologies Inc Image processing apparatus and line-pair pattern identification method
JP4524714B2 (en) * 2008-02-25 2010-08-18 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus and line pair pattern discrimination method
US8213056B2 (en) 2008-02-25 2012-07-03 Konica Minolta Business Technologies, Inc. Image processing apparatus and line pair pattern identification method
JP2013012938A (en) * 2011-06-29 2013-01-17 Kyocera Document Solutions Inc Image processing device, image forming device, and image processing method
JP2013070359A (en) * 2011-09-05 2013-04-18 Konica Minolta Business Technologies Inc Image processor and image processing method

Also Published As

Publication number Publication date
JP4135714B2 (en) 2008-08-20

Similar Documents

Publication Publication Date Title
JP4568460B2 (en) Image processing apparatus and recording medium
JP4749477B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP2009232085A (en) Image processing method, image processor, image forming apparatus, program, and storage medium
JP6840884B2 (en) Image processing system and image processing method
JP2009278363A (en) Image processor and image processing method
US6396947B1 (en) Placing tags on surface string sequences representing a raster image
JP4135714B2 (en) Image processing apparatus and image processing program
JP4047356B2 (en) Image processing device
JP2006229817A (en) Background detection method, program, recording medium, image processing apparatus, and image forming apparatus
JP4545167B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2005252701A (en) Image processing device, method, and program, image forming apparatus, and recording medium
JP4230435B2 (en) Image processing method, image processing apparatus, and image forming apparatus including the same
JP3944032B2 (en) Image processing apparatus and method
JP3989636B2 (en) Image processing device
JP4334498B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP3506848B2 (en) Image processing device
JP3564216B2 (en) Image processing device
JP4464261B2 (en) Image processing apparatus, image processing method, and program
JP4590168B2 (en) Image processing device
JP2557479B2 (en) Color image processor
JP3723666B2 (en) Image processing device
JP2007156750A (en) Image processing method, image processor, image formation apparatus, and computer program
JP2020043461A (en) Image processing system and image processing method, and program
JPH1023251A (en) Image-processing unit
JPH1079852A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080513

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080526

R150 Certificate of patent or registration of utility model

Ref document number: 4135714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350