JP5873400B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP5873400B2
JP5873400B2 JP2012143335A JP2012143335A JP5873400B2 JP 5873400 B2 JP5873400 B2 JP 5873400B2 JP 2012143335 A JP2012143335 A JP 2012143335A JP 2012143335 A JP2012143335 A JP 2012143335A JP 5873400 B2 JP5873400 B2 JP 5873400B2
Authority
JP
Japan
Prior art keywords
image
pixel
image data
edge
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012143335A
Other languages
Japanese (ja)
Other versions
JP2014007657A (en
Inventor
直希 大塚
直希 大塚
Original Assignee
株式会社沖データ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社沖データ filed Critical 株式会社沖データ
Priority to JP2012143335A priority Critical patent/JP5873400B2/en
Publication of JP2014007657A publication Critical patent/JP2014007657A/en
Application granted granted Critical
Publication of JP5873400B2 publication Critical patent/JP5873400B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像処理装置に関するものである。   The present invention relates to an image processing apparatus.

従来、プリンタ、複写機、ファクシミリ、複合機等の画像処理装置、例えば、ファクシミリにおいては、画像読取部において原稿の画像が読み取られ、読み取られた画像のデータ、すなわち、画像データが画像処理部に送られ、該画像処理部において、画像データに対して強調処理、平滑化処理、濃度変換処理等の各処理が行われた後、2値化処理が行われて2値の画像データが生成され、画像データの画像が再現(出力)されるようになっている(例えば、特許文献1参照。)。   2. Description of the Related Art Conventionally, in an image processing apparatus such as a printer, a copier, a facsimile machine, or a multifunction machine, for example, a facsimile, an image of a document is read by an image reading unit, and the read image data, that is, image data is input to the image processing unit. The image processing unit performs processing such as enhancement processing, smoothing processing, and density conversion processing on the image data, and then performs binarization processing to generate binary image data. The image of the image data is reproduced (output) (see, for example, Patent Document 1).

特開2000−236448号公報JP 2000-236448 A

しかしながら、前記従来の画像処理装置においては、原稿の画像において、例えば、文字の背景が網目による網点背景であったり、カラーによる色背景であったりすると、画像データの画像を再現したときに、画像の視認性が低くなってしまう。   However, in the conventional image processing apparatus, when an image of a document is reproduced, for example, when the background of a character is a halftone dot background or halftone color background, The visibility of an image will become low.

本発明は、前記従来の画像処理装置の問題点を解決して、画像データの画像を再現したときに、画像の視認性が低くなることがない画像処理装置を提供することを目的とする。   An object of the present invention is to solve the problems of the conventional image processing apparatus and to provide an image processing apparatus in which the visibility of an image is not lowered when an image of image data is reproduced.

そのために、本発明の画像処理装置においては、画像データの画素の属性を判定する属性判定処理手段と、判定された属性に基づいて画像処理を行い、2値の画像データを生成する画像処理手段と、画像処理が行われた後の2値の画像データの注目画素について、エッジ補正条件が成立するかどうかを判断し、エッジ補正条件が成立する場合にエッジ補正を行うエッジ補正処理手段とを有する。
そして、前記属性判定処理手段は、画像データの画素がエッジとして検出されたかどうかを判断することによって、画素の属性を判定する。
また、前記エッジ補正処理手段は、画像データの画素がエッジとして検出された場合に、注目画素の周辺の画素のうちの、エッジとして検出されていないすべての画素の濃度値が注目画素の濃度値と同じであるかどうかによって、エッジ補正条件が成立するかどうかを判断する。
Therefore, in the image processing apparatus of the present invention, an attribute determination processing unit that determines the attribute of the pixel of the image data, and an image processing unit that performs image processing based on the determined attribute and generates binary image data And edge correction processing means for determining whether or not the edge correction condition is satisfied for the target pixel of the binary image data after the image processing is performed, and performing edge correction when the edge correction condition is satisfied Have.
The attribute determination processing unit determines the attribute of the pixel by determining whether the pixel of the image data is detected as an edge.
In addition, when the pixel of the image data is detected as an edge, the edge correction processing unit calculates the density value of all the pixels that are not detected as the edge among the pixels around the target pixel as the density value of the target pixel. Whether or not the edge correction condition is satisfied is determined based on whether or not the same.

本発明によれば、画像処理装置においては、画像データの画素の属性を判定する属性判定処理手段と、判定された属性に基づいて画像処理を行い、2値の画像データを生成する画像処理手段と、画像処理が行われた後の2値の画像データの注目画素について、エッジ補正条件が成立するかどうかを判断し、エッジ補正条件が成立する場合にエッジ補正を行うエッジ補正処理手段とを有する。
そして、前記属性判定処理手段は、画像データの画素がエッジとして検出されたかどうかを判断することによって、画素の属性を判定する。
また、前記エッジ補正処理手段は、画像データの画素がエッジとして検出された場合に、注目画素の周辺の画素のうちの、エッジとして検出されていないすべての画素の濃度値が注目画素の濃度値と同じであるかどうかによって、エッジ補正条件が成立するかどうかを判断する。
According to the present invention, in the image processing apparatus, the attribute determination processing unit that determines the attribute of the pixel of the image data, and the image processing unit that performs image processing based on the determined attribute and generates binary image data. And edge correction processing means for determining whether or not the edge correction condition is satisfied for the target pixel of the binary image data after the image processing is performed, and performing edge correction when the edge correction condition is satisfied Have.
The attribute determination processing unit determines the attribute of the pixel by determining whether the pixel of the image data is detected as an edge.
In addition, when the pixel of the image data is detected as an edge, the edge correction processing unit calculates the density value of all the pixels that are not detected as the edge among the pixels around the target pixel as the density value of the target pixel. Whether or not the edge correction condition is satisfied is determined based on whether or not the same.

この場合、画像処理が行われた後の2値の画像データの注目画素について、エッジ補正条件が成立するかどうかが判断され、エッジ補正条件が成立する場合にエッジ補正が行われるので、例えば、文字の背景が網点背景であったり、色背景であったりしても、画像データの画像を出力したときに、画像の視認性が低くなることがない。   In this case, it is determined whether the edge correction condition is satisfied for the target pixel of the binary image data after the image processing is performed, and the edge correction is performed when the edge correction condition is satisfied. Even if the background of the character is a halftone dot background or a color background, the visibility of the image is not lowered when the image data image is output.

本発明の第1の実施の形態におけるファクシミリの制御ブロック図である。It is a control block diagram of the facsimile in the first embodiment of the present invention. 本発明の第1の実施の形態における操作パネルの例を示す図である。It is a figure which shows the example of the operation panel in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるバッファメモリに記録されるデータの構造の例を示す図である。It is a figure which shows the example of the structure of the data recorded on the buffer memory in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるエッジの検出に使用されるフィルタ係数の例を示す図である。It is a figure which shows the example of the filter coefficient used for the detection of the edge in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像の平滑化に使用されるフィルタ係数の例を示す図である。It is a figure which shows the example of the filter coefficient used for the smoothing of the image in the 1st Embodiment of this invention. 本発明の第1の実施の形態における濃度変換テーブルの例を示す概念図である。It is a conceptual diagram which shows the example of the density | concentration conversion table in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるエッジ補正の手順を説明するための第1の図である。It is a 1st figure for demonstrating the procedure of the edge correction | amendment in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるエッジ補正の手順を説明するための第2の図である。It is a 2nd figure for demonstrating the procedure of the edge correction | amendment in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるエッジ補正の手順を説明するための第3の図である。It is a 3rd figure for demonstrating the procedure of the edge correction | amendment in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像処理設定テーブルの例を示す図である。It is a figure which shows the example of the image processing setting table in the 1st Embodiment of this invention. 本発明の第1の実施の形態における0度ラインディザ法によって2値化処理を行った後の画像データの例を示す図である。It is a figure which shows the example of the image data after performing the binarization process by the 0 degree line dither method in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像処理が行われる前の画像の例を示す図である。It is a figure which shows the example of the image before the image processing in the 1st Embodiment of this invention is performed. 本発明の第1の実施の形態における画像処理が行われた後の画像の例を示す図である。It is a figure which shows the example of the image after the image processing in the 1st Embodiment of this invention was performed. 本発明の第1の実施の形態におけるエッジ補正が行われた後の画像の例を示す図である。It is a figure which shows the example of the image after edge correction in the 1st Embodiment of this invention was performed. 本発明の第1の実施の形態におけるファクシミリの動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the facsimile in the 1st Embodiment of this invention. 本発明の第1の実施の形態における白背景部分においてエッジが検出された場合の処理前及び処理後の画像の例を示す図である。It is a figure which shows the example of the image before and after a process when an edge is detected in the white background part in the 1st Embodiment of this invention. 本発明の第1の実施の形態における網点背景部分においてエッジが検出された場合の処理前及び処理後の画像の例を示す図である。It is a figure which shows the example of the image before and after a process when an edge is detected in the halftone dot background part in the 1st Embodiment of this invention. 本発明の第1の実施の形態における色背景部分においてエッジが検出された場合の処理前及び処理後の画像の例を示す図である。It is a figure which shows the example of the image before and after a process when an edge is detected in the color background part in the 1st Embodiment of this invention. 本発明の第1の実施の形態における濃度の高い網点背景部分においてエッジが検出された場合の処理前及び処理後の画像の例を示す図である。It is a figure which shows the example of the image before and after a process when an edge is detected in the high-density halftone dot background part in the 1st Embodiment of this invention. 本発明の第1の実施の形態における濃度の高い色背景部分においてエッジが検出された場合の処理前及び処理後の画像の例を示す図である。It is a figure which shows the example of the image before and after a process when an edge is detected in the color background part with a high density in the 1st Embodiment of this invention. 本発明の第2の実施の形態における複合機の制御ブロック図である。FIG. 6 is a control block diagram of a multifunction machine according to a second embodiment of the present invention. 本発明の第2の実施の形態における操作パネルの例を示す図である。It is a figure which shows the example of the operation panel in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるバッファメモリに記録されるデータの構造の例を示す図である。It is a figure which shows the example of the structure of the data recorded on the buffer memory in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における画像処理設定テーブルの例を示す図である。It is a figure which shows the example of the image processing setting table in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における複合機の動作を示す第1のフローチャートである。6 is a first flowchart illustrating an operation of the multifunction peripheral according to the second embodiment of the present invention. 本発明の第2の実施の形態における複合機の動作を示す第2のフローチャートである。It is a 2nd flowchart which shows operation | movement of the multifunctional device in the 2nd Embodiment of this invention.

以下、本発明の実施の形態について図面を参照しながら詳細に説明する。この場合、画像処理装置としてのファクシミリについて説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In this case, a facsimile as an image processing apparatus will be described.

図1は本発明の第1の実施の形態におけるファクシミリの制御ブロック図、図2は本発明の第1の実施の形態における操作パネルの例を示す図、図3は本発明の第1の実施の形態におけるバッファメモリに記録されるデータの構造の例を示す図、図4は本発明の第1の実施の形態におけるエッジの検出に使用されるフィルタ係数の例を示す図、図5は本発明の第1の実施の形態における画像の平滑化に使用されるフィルタ係数の例を示す図、図6は本発明の第1の実施の形態における濃度変換テーブルの例を示す概念図、図7は本発明の第1の実施の形態におけるエッジ補正の手順を説明するための第1の図、図8は本発明の第1の実施の形態におけるエッジ補正の手順を説明するための第2の図、図9は本発明の第1の実施の形態におけるエッジ補正の手順を説明するための第3の図、図10は本発明の第1の実施の形態における画像処理設定テーブルの例を示す図、図11は本発明の第1の実施の形態における0度ラインディザ法によって2値化処理を行った後の画像データの例を示す図である。なお、図6において、横軸に入力濃度値を、縦軸に出力濃度値を採ってある。   FIG. 1 is a control block diagram of a facsimile according to the first embodiment of the present invention, FIG. 2 is a diagram showing an example of an operation panel according to the first embodiment of the present invention, and FIG. 3 is a first embodiment of the present invention. FIG. 4 is a diagram showing an example of the structure of data recorded in the buffer memory in the embodiment, FIG. 4 is a diagram showing an example of filter coefficients used for edge detection in the first embodiment of the present invention, and FIG. FIG. 6 is a diagram showing an example of filter coefficients used for smoothing an image in the first embodiment of the invention, FIG. 6 is a conceptual diagram showing an example of a density conversion table in the first embodiment of the invention, and FIG. FIG. 8 is a first diagram for explaining an edge correction procedure in the first embodiment of the present invention, and FIG. 8 is a second diagram for explaining an edge correction procedure in the first embodiment of the present invention. FIGS. 9 and 9 show the first embodiment of the present invention. FIG. 10 is a diagram illustrating an example of an image processing setting table according to the first embodiment of the present invention, and FIG. 11 is a diagram illustrating the first embodiment of the present invention. It is a figure which shows the example of the image data after performing the binarization process by the 0 degree line dither method in FIG. In FIG. 6, the horizontal axis represents the input density value and the vertical axis represents the output density value.

図に示されるように、ファクシミリ10は、ファクシミリ10の全体の制御を行う制御部Ct、画像読取処理手段としての画像読取部11、画像形成処理手段としての画像形成部12、操作・表示部としての、かつ、ユーザインタフェースとしての操作パネル13、送受信処理手段としての送受信部14、データ形式変換処理手段としてのエンコーダ・デコーダ15、第1の記憶装置としての、かつ、データ記録部としてのバッファメモリ16、変倍処理手段としての変倍部18、属性検出処理手段としての属性検出部71、属性判定処理手段としての、かつ、画像処理設定特定処理手段としての属性判定部28、画像処理手段としての画像処理部72、エッジ補正処理手段としてのエッジ補正部26、第2の記憶装置としての、かつ、設定記録部としての画像処理設定格納メモリ27等を備える。   As shown in the figure, the facsimile 10 includes a control unit Ct that controls the entire facsimile 10, an image reading unit 11 as an image reading processing unit, an image forming unit 12 as an image forming processing unit, and an operation / display unit. An operation panel 13 as a user interface, a transmission / reception unit 14 as a transmission / reception processing unit, an encoder / decoder 15 as a data format conversion processing unit, a buffer memory as a first storage device and as a data recording unit 16, a scaling unit 18 as a scaling processing unit, an attribute detection unit 71 as an attribute detection processing unit, an attribute determination unit 28 as an attribute determination processing unit and an image processing setting specification processing unit, and an image processing unit Image processing unit 72, edge correction unit 26 as edge correction processing means, and as a second storage device, and setting An image processing setting storage memory 27 or the like as a recording unit.

そして、前記制御部Ctは、CPU、MPU等の演算装置、第1の記録部としてのRAM、第2の記録部としてのROM等を備える。   The control unit Ct includes an arithmetic device such as a CPU and an MPU, a RAM as a first recording unit, a ROM as a second recording unit, and the like.

前記画像読取部11は、画像読取処理を行い、原稿の画像を読み取り、画像データ(ディジタルデータ)を生成する。そのために、画像読取部11はスキャナを備え、該スキャナは、本実施の形態において、600〔dpi〕の読取解像度を有し、原稿の主走査方向及び副走査方向における座標上のグレーの輝度値(明るさを表す値)を取得する。取得されたグレーの輝度値は、量子化されて、0〜255の256個の階調値に変換され、階調値は、濃度値として主走査方向画素数及び副走査方向画素数と共に前記バッファメモリ16に記録される。なお、画像読取部11に、レッド、グリーン及びブルーの各輝度値R、G、Bを取得するスキャナが使用される場合は、各輝度値R、G、Bがグレーの輝度値に変換される。   The image reading unit 11 performs image reading processing, reads an image of a document, and generates image data (digital data). For this purpose, the image reading unit 11 includes a scanner. In the present embodiment, the scanner has a reading resolution of 600 [dpi], and gray brightness values on coordinates in the main scanning direction and sub-scanning direction of the document. (Value representing brightness) is acquired. The acquired gray luminance value is quantized and converted into 256 gradation values of 0 to 255, and the gradation value is a density value together with the number of pixels in the main scanning direction and the number of pixels in the sub scanning direction. Recorded in the memory 16. When a scanner that acquires red, green, and blue luminance values R, G, and B is used as the image reading unit 11, the luminance values R, G, and B are converted into gray luminance values. .

また、前記画像形成部12は、画像形成処理を行い、画像処理部72による画像処理、及びエッジ補正部26によるエッジ補正処理が行われた画像データ、ファクシミリ10のステータス(状態)の情報、上位装置としての図示されないホストコンピュータから送信された印刷データ等に基づいて、電子写真方式、インクジェット方式等の印刷方式に従って印刷(2値の白黒印刷)を行い、600〔dpi〕以上の所定の解像度で媒体としての図示されない用紙に画像を形成する。   Further, the image forming unit 12 performs image forming processing, image data subjected to image processing by the image processing unit 72 and edge correction processing by the edge correcting unit 26, status (state) information of the facsimile 10, upper information Based on print data transmitted from a host computer (not shown) as an apparatus, printing (binary black-and-white printing) is performed according to a printing method such as an electrophotographic method or an inkjet method, with a predetermined resolution of 600 [dpi] or more. An image is formed on a sheet (not shown) as a medium.

前記操作パネル13は、図2に示されるように、表示部としての表示パネル13a、第1の操作部としてのモード切替操作部13b及び第2の操作部としてのキー操作部13cを備える。   As shown in FIG. 2, the operation panel 13 includes a display panel 13a as a display unit, a mode switching operation unit 13b as a first operation unit, and a key operation unit 13c as a second operation unit.

前記表示パネル13aには、画像データの送信又は受信をしていること、原稿つまりが発生したこと等のファクシミリ10のステータス、印刷方式が電子写真方式であるときの現像剤としてのトナーの残量、すなわち、トナー残量、ファクシミリ通信(Fax)、インターネットファックス(Internet Fax)等のモード、ノーマル、ファイン、エクストラファイン、フォト等の送信用の画質、すなわち、送信画質、及び電話番号、メールアドレス等の送信先の各情報が表示される。   On the display panel 13a, the status of the facsimile 10, such as the transmission or reception of image data, the occurrence of a document clogging, and the remaining amount of toner as a developer when the printing method is an electrophotographic method That is, the remaining toner amount, the mode of facsimile communication (Fax), the Internet fax (Internet Fax), the image quality for transmission such as normal, fine, extra fine, and photo, that is, the transmission image quality, the telephone number, the mail address, etc. Information on each destination is displayed.

また、前記モード切替操作部13bには、操作者が前記モードを選択するための操作要素としてのキーk1、k2が配設される。操作者が、キーk1にタッチすると、ファクシミリ通信のモードが選択され、キーk2にタッチすると、インターネットファックスのモードが選択される。   The mode switching operation unit 13b is provided with keys k1 and k2 as operation elements for the operator to select the mode. When the operator touches the key k1, the facsimile communication mode is selected, and when the operator touches the key k2, the Internet fax mode is selected.

そして、前記キー操作部13cには、ファクシミリ通信においてMH、MR、MMR、JPEG、JBIG等の送信ファイル形式を選択したり、インターネットファックスにおいてTIFF、PDF、JPEG等の送信ファイル形式を選択したりするための操作要素としてのメニュー(Menu)キーk3、送信画質を選択するための操作要素としての画質(Quality)キーk4、アドレス帳に登録されている送信先を選択するための操作要素としてのアドレス(Address)キーk5、送信先を入力するための操作要素としてのテンキーk6、ファクシミリ10による送信の開始を指示するための操作要素としての開始(Start)キーk7、及びファクシミリ10による送信の停止を指示するための操作要素としての停止(Stop)キーk8が配設される。   The key operation unit 13c selects a transmission file format such as MH, MR, MMR, JPEG, or JBIG in facsimile communication, or selects a transmission file format such as TIFF, PDF, or JPEG in Internet fax. Menu (Menu) key k3 as an operation element for selecting, an image quality (Quality) key k4 as an operation element for selecting transmission image quality, and an address as an operation element for selecting a transmission destination registered in the address book (Address) key k5, numeric keypad k6 as an operation element for inputting a transmission destination, start (Start) key k7 as an operation element for instructing start of transmission by facsimile 10, and stop of transmission by facsimile 10 Stop as an operating element for instructing ( top) key k8 is disposed.

また、前記送受信部14は、送受信処理を行い、図示されない電話回線、LAN(Local Area Network)、インターネット回線等を介して他のファクシミリ、複合機等との間でファクシミリ通信を行う。そのために、送受信部14は図示されない変調・復調制御回路を備える。   The transmission / reception unit 14 performs transmission / reception processing, and performs facsimile communication with other facsimiles, multi-function peripherals, etc. via a telephone line, a LAN (Local Area Network), an Internet line, etc. (not shown). For this purpose, the transmission / reception unit 14 includes a modulation / demodulation control circuit (not shown).

そして、前記エンコーダ・デコーダ15は、2値の画像データをMH、MR、MMR、JPEG、JBIG等の送信ファイル形式に変換したり、TIFF、PDF、JPEG等の送信ファイル形式に変換したりする。   The encoder / decoder 15 converts the binary image data into a transmission file format such as MH, MR, MMR, JPEG, or JBIG, or converts it into a transmission file format such as TIFF, PDF, or JPEG.

前記バッファメモリ16は、画像処理を行う際に画像データを記録するために配設され、所定の領域に、図3に示されるように、入力画像16a、入力解像度16b、出力解像度16c、変倍後画像16d及び画像処理後画像16eがそれぞれ構造体として記録される。   The buffer memory 16 is arranged to record image data when performing image processing, and in a predetermined area, as shown in FIG. 3, an input image 16a, an input resolution 16b, an output resolution 16c, and a magnification change. The post-image 16d and the post-image-processing image 16e are recorded as structures.

そして、入力画像16aは、画像読取部11によって読み取られ(入力され)、バッファメモリ16に記録される画像であり、入力画像16aのメンバ、変数及びサイズは、
主走査方向画素数 in_x 4〔byte〕
副走査方向画素数 in_y 4〔byte〕
濃度値 in_data in_x*in_y〔byte〕
にされる。
The input image 16a is an image that is read (input) by the image reading unit 11 and recorded in the buffer memory 16. The members, variables, and size of the input image 16a are as follows.
Number of pixels in main scanning direction in_x 4 [bytes]
Number of pixels in the sub-scanning direction in_y 4 [bytes]
Concentration value in_data in_x * in_y [bytes]
To be.

また、入力解像度16bは、入力画像16aの画像データの解像度であり、入力解像度16bのメンバ、変数及びサイズは、
横入力解像度 in_x_resol 4〔byte〕
縦入力解像度 in_y_resol 4〔byte〕
にされる。
The input resolution 16b is the resolution of the image data of the input image 16a, and the members, variables, and sizes of the input resolution 16b are:
Horizontal input resolution in_x_resol 4 [bytes]
Vertical input resolution in_y_resol 4 [bytes]
To be.

なお、本実施の形態において、入力解像度16bの横入力解像度及び縦入力解像度は、画像読取部11の解像度に合わせて、いずれも、600〔dpi〕にされる。   In the present embodiment, the horizontal input resolution and the vertical input resolution of the input resolution 16b are both set to 600 [dpi] according to the resolution of the image reading unit 11.

そして、出力解像度16cは、画像処理部72及びエッジ補正部26において最終的に生成される画像データの解像度であり、出力解像度16cのメンバ、変数及びサイズは、
横出力解像度 out_x_resol 4〔byte〕
縦出力解像度 out_y_resol 4〔byte〕
にされる。
The output resolution 16c is the resolution of the image data finally generated by the image processing unit 72 and the edge correction unit 26. The members, variables, and sizes of the output resolution 16c are:
Horizontal output resolution out_x_resol 4 [bytes]
Vertical output resolution out_y_resol 4 [bytes]
To be.

なお、本実施の形態において、出力解像度16cの横出力解像度及び縦出力解像度は、操作パネル13において選択される送信画質に応じて決まり、例えば、送信画質がノーマルである場合、横出力解像度は203〔dpi〕にされ、縦出力解像度は196〔dpi〕にされ、送信画質がエクストラファインである場合、横出力解像度は203〔dpi〕にされ、縦出力解像度は391〔dpi〕にされる。   In the present embodiment, the horizontal output resolution and the vertical output resolution of the output resolution 16c are determined according to the transmission image quality selected on the operation panel 13. For example, when the transmission image quality is normal, the horizontal output resolution is 203. [Dpi], the vertical output resolution is 196 [dpi], and when the transmission image quality is extra fine, the horizontal output resolution is 203 [dpi] and the vertical output resolution is 391 [dpi].

また、変倍後画像16dは、入力画像16aの画像データを変倍したものであり、変倍後画像16dのメンバ、変数及びサイズは、
主走査方向画素数 resize_x 4〔byte〕
副走査方向画素数 resize_y 4〔byte〕
濃度値 resize_data resize_x*resize_y〔byte〕
にされる。
The scaled image 16d is obtained by scaling the image data of the input image 16a. The members, variables, and size of the scaled image 16d are:
Number of pixels in the main scanning direction resize_x 4 [bytes]
Number of pixels in the sub-scanning direction resize_y 4 [bytes]
Density value resize_data resize_x * resize_y [byte]
To be.

前記変倍後画像16dの主走査方向画素数及び副走査方向画素数の各変数は、入力画像16aの主走査方向画素数及び副走査方向画素数の各変数、入力解像度16bの横入力解像度及び縦入力解像度の各変数、並びに出力解像度16cの横出力解像度及び縦出力解像度の各変数に基づいて、
resize_x=
in_x*(out_x_resol/in_x_resol)
resize_y=
in_y*(out_y_resol/in_y_resol)
で表すことができる。
The variables of the main scanning direction pixel number and the sub scanning direction pixel number of the post-magnification image 16d are the variables of the main scanning direction pixel number and the sub scanning direction pixel number of the input image 16a, the horizontal input resolution of the input resolution 16b, and Based on each variable of the vertical input resolution, and each variable of the horizontal output resolution and the vertical output resolution of the output resolution 16c,
resize_x =
in_x * (out_x_resol / in_x_resol)
resize_y =
in_y * (out_y_resol / in_y_resol)
Can be expressed as

また、画像処理後画像16eは、画像処理部72及びエッジ補正部26において最終的に生成される画像データであり、画像処理後画像16eのメンバ、変数及びサイズは、
主走査方向画素数 out_x 4〔byte〕
副走査方向画素数 out_y 4〔byte〕
濃度値 out_data out_x*out_y〔byte〕
属性値 prop_data out_x*out_y〔byte〕
にされる。
Further, the post-image processing image 16e is image data finally generated by the image processing unit 72 and the edge correction unit 26, and members, variables, and sizes of the post-image processing image 16e are:
Number of pixels in main scanning direction out_x 4 [bytes]
Number of pixels in the sub-scanning direction out_y 4 [bytes]
Concentration value out_data out_x * out_y [bytes]
Attribute value prop_data out_x * out_y [bytes]
To be.

前記画像処理後画像16eの主走査方向画素数及び副走査方向画素数の各変数は、前記変倍後画像16dの主走査方向画素数及び副走査方向画素数の各変数と等しく、
out_x=resize_x
out_y=resize_y
で表すことができる。
Each variable of the main scanning direction pixel number and the sub-scanning direction pixel number of the image processed image 16e is equal to each variable of the main scanning direction pixel number and the sub-scanning direction pixel number of the scaled image 16d,
out_x = resize_x
out_y = resize_y
Can be expressed as

前記変倍部18は、変倍処理を行い、バッファメモリ16に記録された入力画像16aの画像データを読み出し、ニアレストネイバー法、バイキュービック法等の変倍方法によって、主走査方向画素数及び副走査方向画素数を所定の変倍率で変更、すなわち、変倍し、変倍後画像16dの画像データ(変倍後画像16dの主走査方向画素数及び副走査方向画素数)を変倍後画像16dの記録領域に書き込む。なお、変倍率は、操作者がキー操作部13cに配設された操作要素としての図示されない変倍率キーにタッチすることによって任意に選択される。   The scaling unit 18 performs a scaling process, reads the image data of the input image 16a recorded in the buffer memory 16, and uses the scaling method such as the nearest neighbor method and the bicubic method to set the number of pixels in the main scanning direction. After changing the number of pixels in the sub-scanning direction at a predetermined scaling factor, that is, scaling the image data of the scaled image 16d (the number of pixels in the main scanning direction and the number of sub-scanning directions in the scaled image 16d) Write to the recording area of the image 16d. The scaling factor is arbitrarily selected by the operator touching a scaling factor key (not shown) as an operation element provided in the key operation unit 13c.

また、前記属性検出部71は、属性検出処理を行い、変倍後画像16dの画像データの各画素の属性を検出する。そのために、属性検出部71は、エッジ検出処理手段としてのエッジ検出部19、網点背景検出処理手段としての網点背景検出部20及び色背景検出処理手段としての色背景検出部21を備え、該色背景検出部21によって、例えば、文字のエッジ、文字の背景が網点である場合の網点背景、及び文字の背景がカラーである場合の色背景が属性として検出される。   Further, the attribute detection unit 71 performs attribute detection processing to detect the attribute of each pixel of the image data of the post-magnification image 16d. Therefore, the attribute detection unit 71 includes an edge detection unit 19 as an edge detection processing unit, a halftone background detection unit 20 as a halftone background detection processing unit, and a color background detection unit 21 as a color background detection processing unit. The color background detection unit 21 detects, for example, a character edge, a halftone dot background when the character background is a halftone dot, and a color background when the character background is a color as attributes.

前記エッジ検出部19は、エッジ検出処理を行い、変倍後画像16dの画像データの画素ごとに、エッジをラプラシアン法、キャニー法等のエッジ検出方法、本実施の形態においては、ラプラシアン法によって検出し、検出結果を属性判定部28に送る。そのために、エッジ検出部19は、画像処理設定格納メモリ27に記録された、図4に示されるようなフィルタ係数を読み出し、画像データの処理の対象となる画素、すなわち、注目画素及びその周辺の画素に対してフィルタ係数によるフィルタ処理を行い、該フィルタ処理によって得られた計算値が閾値以上である場合に、前記注目画素をエッジとして検出する。   The edge detection unit 19 performs an edge detection process, and detects an edge for each pixel of the image data of the scaled image 16d by an edge detection method such as a Laplacian method or a Canny method, and in this embodiment, a Laplacian method. The detection result is sent to the attribute determination unit 28. For this purpose, the edge detection unit 19 reads out the filter coefficients as shown in FIG. 4 recorded in the image processing setting storage memory 27, and processes the pixel of the image data, that is, the target pixel and its surroundings. The pixel is subjected to filter processing using a filter coefficient, and when the calculated value obtained by the filter processing is equal to or greater than a threshold value, the pixel of interest is detected as an edge.

そして、前記網点背景検出部20は、網点背景検出処理を行い、変倍後画像16dの画像データの画素ごとに画像の網点背景を検出し、検出結果を属性判定部28に送る。この場合、前記網点背景検出部20は、注目画素及びその周辺の画素、本実施の形態においては、80(9×9−1)画素を2値化し、その後、注目画素を含む縦方向、横方向、右上がり斜め方向、及び右下がり斜め方向の4パターンの画素列を走査し、隣接する画素の濃度値が変化(0→1、1→0)する回数を変動回数として算出し、変動回数が閾値以上になるパターンが存在する場合に、注目画素を網点背景として検出する。   Then, the halftone dot background detection unit 20 performs a halftone dot background detection process, detects the halftone dot background of the image for each pixel of the image data of the scaled image 16d, and sends the detection result to the attribute determination unit 28. In this case, the halftone dot background detection unit 20 binarizes the target pixel and its surrounding pixels, in this embodiment, 80 (9 × 9-1) pixels, and then, in the vertical direction including the target pixel, Scan four patterns of pixel rows in the horizontal direction, right-up diagonal direction, and right-down diagonal direction, and calculate the number of times the density value of the adjacent pixel changes (0 → 1, 1 → 0) as the number of fluctuations. When there is a pattern whose number of times is greater than or equal to the threshold, the target pixel is detected as a halftone dot background.

また、前記色背景検出部21は、色背景検出処理を行い、変倍後画像16dの画像データの画素ごとに画像の色背景を検出し、検出結果を属性判定部28に送る。この場合、前記色背景検出部21は、注目画素及びその周辺の画素、本実施の形態においては、24(5×5−1)画素の濃度の平均値及び分散を算出し、平均値が所定の範囲内であり、かつ、分散が所定の閾値以下である場合に、前記注目画素を色背景として検出する。   The color background detection unit 21 performs color background detection processing, detects the color background of the image for each pixel of the image data of the image 16d after scaling, and sends the detection result to the attribute determination unit 28. In this case, the color background detection unit 21 calculates an average value and a variance of the density of the target pixel and its surrounding pixels, and in this embodiment, 24 (5 × 5-1) pixels, and the average value is predetermined. And the variance is equal to or less than a predetermined threshold, the pixel of interest is detected as a color background.

そして、前記画像処理部72は、変倍後画像16dの画像データの各画素の属性に基づいて画像処理を行い、画像処理後画像16eを生成する。そのために、前記画像処理部72は、強調処理手段としての強調部22、平滑化処理手段としての平滑化部23、濃度変換処理手段としての濃度変換部24及び2値化処理手段としての2値化部25を備える。   Then, the image processing unit 72 performs image processing based on the attribute of each pixel of the image data of the post-magnification image 16d, and generates the post-image processing image 16e. Therefore, the image processing unit 72 includes an enhancement unit 22 as an enhancement processing unit, a smoothing unit 23 as a smoothing processing unit, a density conversion unit 24 as a density conversion processing unit, and a binary as a binarization processing unit. The conversion unit 25 is provided.

前記強調部22は、強調処理を行い、変倍後画像16dの画像データの画素のうちの、属性判定部28によって指示された画素を読み出して強調し、処理後の画像データを変倍後画像16dの記録領域に書き込む。この場合、前記強調部22は、注目画素の濃度値をインデックスとして、画像処理設定格納メモリ27に配設された加算値記録部としての図示されない一次元ルックアップテーブルを参照し、対応する加算値を取得し、注目画素の濃度値に加算する。   The enhancement unit 22 performs enhancement processing, reads out and intensifies the pixel instructed by the attribute determination unit 28 among the pixels of the image data of the scaled image 16d, and the processed image data is subjected to the scaled image. Write to 16d recording area. In this case, the enhancement unit 22 refers to a one-dimensional lookup table (not shown) as an addition value recording unit arranged in the image processing setting storage memory 27 using the density value of the target pixel as an index, and adds the corresponding addition value. Is added to the density value of the target pixel.

また、前記平滑化部23は、平滑化処理を行い、変倍後画像16dの画像データの画素のうちの、属性判定部28によって指示された画素を読み出して平滑化し、処理後の画像データを変倍後画像16dの記録領域に書き込む。この場合、前記平滑化部23は、画像処理設定格納メモリ27に記録された、図5に示されるようなフィルタ係数を読み出し、注目画素に対してフィルタ処理を行い、該フィルタ処理によって得られた計算値を注目画素の濃度値とする。なお、本実施の形態においては、エッジが検出されない網点背景において平滑化処理が行われ、平滑化される前の網点背景の画像濃度に応じて平滑化された後の網点背景の画像濃度が決まる。   Further, the smoothing unit 23 performs a smoothing process, reads out and smooths the pixels designated by the attribute determination unit 28 among the pixels of the image data of the scaled image 16d, and converts the processed image data into Write in the recording area of the image 16d after scaling. In this case, the smoothing unit 23 reads out the filter coefficient as shown in FIG. 5 recorded in the image processing setting storage memory 27, performs the filtering process on the pixel of interest, and is obtained by the filtering process. The calculated value is the density value of the target pixel. In the present embodiment, the dot background image is smoothed according to the image density of the dot background before smoothing is performed on the dot background from which no edge is detected. The concentration is determined.

そして、前記濃度変換部24は、濃度変換処理を行い、変倍後画像16dの画像データの画素のうちの、属性判定部28によって指示された画素を読み出して濃度を変換し、処理後の画像データを変倍後画像16dの記録領域に書き込む。この場合、前記濃度変換部24は、画像処理設定格納メモリ27に変換値記録部として配設された、図6に示されるような濃度変換テーブルを参照し、注目画素の濃度値をインデックスとして対応する濃度値を読み出し、注目画素の濃度値とする。なお、図6において、入力濃度値は濃度変換処理前の濃度値であり、出力濃度値は濃度変換処理後の濃度値である。   Then, the density conversion unit 24 performs density conversion processing, reads out the pixel instructed by the attribute determination unit 28 among the pixels of the image data of the post-magnification image 16d, converts the density, and processes the processed image. Data is written in the recording area of the image 16d after scaling. In this case, the density conversion unit 24 refers to a density conversion table as shown in FIG. 6 arranged as a conversion value recording unit in the image processing setting storage memory 27, and uses the density value of the target pixel as an index. The density value to be read is read out and used as the density value of the target pixel. In FIG. 6, the input density value is the density value before the density conversion process, and the output density value is the density value after the density conversion process.

前記濃度変換テーブルは、画像のコントラストが高くなるように濃度値を変更するための第1の濃度変換テーブルとしてのハイコントラストテーブルL1、画像が明るくなるように濃度値を変更するための第2の濃度変換テーブルとしてのハイガンマテーブルL2、及び比較的直線的に濃度値を変更するための第3の濃度変換テーブルとしてのリニアテーブルL3から成る。   The density conversion table is a high contrast table L1 as a first density conversion table for changing the density value so that the contrast of the image becomes high, and a second for changing the density value so that the image becomes bright. It comprises a high gamma table L2 as a density conversion table and a linear table L3 as a third density conversion table for changing density values relatively linearly.

また、前記2値化部25は、2値化処理を行い、変倍後画像16dの画像データの画素を読み出し、属性判定部28によって指示された2値化方法で2値化を行うことによって2値の画像データを生成し、処理後の画像データを画像処理後画像16eの記録領域に書き込む。この場合、2値化は、単純2値化法、誤差拡散法、ラインディザ法、網点ディザ法等の2値化方法のうちの所定の2値化方法に基づいて行われる。2値化に必要なパラメータは、例えば、単純2値化法における閾値、ラインディザ法におけるスクリーン角度等から成り、画像処理設定格納メモリ27から読み出される。   Further, the binarization unit 25 performs binarization processing, reads out the pixels of the image data of the scaled image 16d, and performs binarization by the binarization method instructed by the attribute determination unit 28. Binary image data is generated, and the processed image data is written in the recording area of the image processed image 16e. In this case, the binarization is performed based on a predetermined binarization method among binarization methods such as a simple binarization method, an error diffusion method, a line dither method, and a halftone dither method. The parameters necessary for binarization include, for example, a threshold value in the simple binarization method, a screen angle in the line dither method, and the like, and are read from the image processing setting storage memory 27.

例えば、単純2値化法が指示されると、前記2値化部25は、画像処理設定格納メモリ27から閾値を読み出し、注目画素の濃度値が閾値以上である場合、最大濃度値を濃度値とし、閾値より小さい場合、最小濃度値を濃度値とする。   For example, when the simple binarization method is instructed, the binarization unit 25 reads the threshold value from the image processing setting storage memory 27, and when the density value of the target pixel is equal to or greater than the threshold value, the maximum density value is set as the density value. If it is smaller than the threshold, the minimum density value is set as the density value.

また、前記エッジ補正部26は、エッジ補正処理を行い、画像処理後画像16eの画像データの画素のうちの、属性判定部28によって指示された画素に対してエッジ補正を行い、処理後の画像データを画像処理後画像16eの記録領域に書き込む。   Further, the edge correction unit 26 performs edge correction processing, performs edge correction on the pixel instructed by the attribute determination unit 28 among the pixels of the image data of the post-image processing image 16e, and performs the processed image. Data is written in the recording area of the image 16e after image processing.

本実施の形態において、前記エッジ補正部26は、2値化部25による2値化処理が行われた後の画像データにおいて、エッジとして検出された注目画素の周辺の画素、本実施の形態においては、8(3×3−1)画素のうちの、エッジとして検出されていないすべての画素の濃度値と注目画素の濃度値とが同じであるかどうかによってエッジ補正条件が成立するかどうかを判断し、エッジ補正条件が成立する場合に、注目画素の濃度値を反転(1→0)させる。   In the present embodiment, the edge correction unit 26 is a pixel around the target pixel detected as an edge in the image data after the binarization processing by the binarization unit 25 is performed. Indicates whether or not the edge correction condition is satisfied depending on whether or not the density value of all the pixels among the 8 (3 × 3-1) pixels that are not detected as edges are the same as the density value of the target pixel. When the edge correction condition is satisfied, the density value of the target pixel is inverted (1 → 0).

図7において、黒線26aはエッジ検出部19によってエッジとして検出された画素から成る線であり、グレー面26bはエッジ検出部19によってエッジとして検出されていない画素から成る色背景の部分である。図7に示される画像データに対して2値化処理が行われると、グレー面26bの各画素において最大濃度値が濃度値とされるので、図8に示されるように、グレー面26bが黒くなり、黒線26aは埋もれてしまう。そこで、図8に示される画像データに対してエッジ補正処理が行われると、注目画素の周辺の画素、本実施の形態においては、8画素のうちの、エッジとして検出されていないすべての画素の濃度値が注目画素の濃度値と同じである場合に、図9に示されるように、注目画素の濃度値が反転させられ、白部分26cが形成される。   In FIG. 7, a black line 26 a is a line composed of pixels detected as an edge by the edge detection unit 19, and a gray surface 26 b is a color background portion composed of pixels not detected as an edge by the edge detection unit 19. When the binarization process is performed on the image data shown in FIG. 7, the maximum density value is set to the density value in each pixel of the gray surface 26b, so that the gray surface 26b becomes black as shown in FIG. Thus, the black line 26a is buried. Therefore, when edge correction processing is performed on the image data shown in FIG. 8, all the pixels that are not detected as edges among the pixels around the pixel of interest, in the present embodiment, of the eight pixels are detected. When the density value is the same as the density value of the target pixel, as shown in FIG. 9, the density value of the target pixel is inverted to form a white portion 26c.

また、前記属性判定部28は、属性判定処理を行い、エッジ検出部19、網点背景検出部20及び色背景検出部21から、エッジ検出、網点背景検出及び色背景検出の検出結果が送られると、該各検出結果に基づいて、変倍後画像16dの画像データの各画素の属性を判定し、エッジが検出されたかどうか、網点背景が検出されたかどうか、及び色背景が検出されたかどうかを判断する。   The attribute determination unit 28 performs attribute determination processing, and the detection results of edge detection, halftone background detection, and color background detection are transmitted from the edge detection unit 19, the halftone background detection unit 20, and the color background detection unit 21. Then, the attribute of each pixel of the image data of the post-magnification image 16d is determined based on each detection result, whether an edge is detected, whether a halftone dot background is detected, and a color background are detected. Determine whether or not.

そして、前記属性判定部28は、前記各検出結果を、属性値として、画素ごとに画像処理後画像16eの記録領域に書き込む。なお、属性値の変数prop_dataの1ビット目に色背景の検出結果(0:なし、1:あり)が、2ビット目に網点背景の検出結果(0:なし、1:あり)が、3ビット目にエッジの検出結果(0:なし、1:あり)がフォーマットで書き込まれる。   Then, the attribute determination unit 28 writes each detection result as an attribute value in the recording area of the image processed image 16e for each pixel. It should be noted that the color background detection result (0: none, 1: present) is the first bit of the attribute value variable prop_data, and the dot background detection result (0: none, 1: present) is the second bit. Edge detection results (0: no, 1: yes) are written in the bit.

さらに、前記属性判定部28は、画像処理設定特定処理を行い、属性値に基づいて、図10に示される画像処理設定テーブルを参照し、変倍後画像16dの画像データに対して行われる画像処理の設定、すなわち、画像処理設定をパスpa1〜pa5として特定する。なお、本実施の形態において、画像処理設定は、強調処理、平滑化処理、濃度変換処理及び2値化処理の各処理の設定から成る。   Further, the attribute determination unit 28 performs image processing setting specifying processing, refers to the image processing setting table shown in FIG. 10 based on the attribute value, and is performed on the image data of the post-magnification image 16d. Processing settings, that is, image processing settings are specified as paths pa1 to pa5. In the present embodiment, the image processing setting includes settings for each of enhancement processing, smoothing processing, density conversion processing, and binarization processing.

次に、前記画像処理設定テーブルについて説明する。まず、送信画質としてノーマル、ファイン又はエキストラファインが選択された場合について説明する。   Next, the image processing setting table will be described. First, a case where normal, fine, or extra fine is selected as the transmission image quality will be described.

注目画素においてエッジ、網点背景及び色背景のいずれも検出されない場合、属性判定部28は、パスpa1の画像処理設定を特定し、濃度変換処理においてハイコントラストテーブルL1を選択し、2値化処理において単純2値化法を選択する。   When none of the edge, the halftone dot background, and the color background is detected in the target pixel, the attribute determination unit 28 specifies the image processing setting of the path pa1, selects the high contrast table L1 in the density conversion process, and performs the binarization process In, the simple binarization method is selected.

また、注目画素において色背景だけが検出された場合、属性判定部28は、パスpa2の画像処理設定を特定し、濃度変換処理においてハイガンマテーブルL2を選択し、2値化処理において0度ラインディザ法を選択する。   When only the color background is detected in the target pixel, the attribute determination unit 28 specifies the image processing setting of the pass pa2, selects the high gamma table L2 in the density conversion process, and sets the 0 degree line in the binarization process. Select the dither method.

なお、本実施の形態においては、副走査方向において画素が交差することがなく、特に、ファクシミリ通信で用いられるランレングス符号化において伝送効率に及ぼす影響が少ないこと、及び階調値に応じてライン単位で画素を間引くような場合に、伝送効率に影響を及ぼさない階調表現が可能になることから、属性判定部28によって0度ラインディザ法が選択される。図11に、0度ラインディザ法によって、処理後の画像濃度が0、25、50、75、100〔%〕となるように2値化処理を行ったときの、処理後の画像データの例を示す。   In the present embodiment, pixels do not intersect in the sub-scanning direction, and in particular, there is little influence on transmission efficiency in run-length coding used in facsimile communication, and lines according to gradation values. When pixels are thinned out in units, gradation expression that does not affect transmission efficiency is possible, and therefore the 0-degree line dither method is selected by the attribute determination unit 28. FIG. 11 shows an example of processed image data when binarization processing is performed so that the processed image density is 0, 25, 50, 75, 100 [%] by the 0 degree line dither method. Indicates.

そして、注目画素において、網点背景だけが検出された場合、並びに網点背景及び色背景が検出された場合、前記属性判定部28は、パスpa3の画像処理設定を特定し、平滑化の実行フラグを立て、濃度変換処理においてハイガンマテーブルL2を選択し、2値化処理において0度ラインディザ法を選択する。この場合、平滑化部23によって注目画素が平滑化されるので、網点背景における不要な汚れ等を除去することができる。   When only the halftone dot background is detected in the target pixel, and when the halftone dot background and the color background are detected, the attribute determination unit 28 specifies the image processing setting of the path pa3 and executes the smoothing. A flag is set, the high gamma table L2 is selected in the density conversion process, and the 0 degree line dither method is selected in the binarization process. In this case, since the pixel of interest is smoothed by the smoothing unit 23, unnecessary dirt and the like in the halftone dot background can be removed.

また、注目画素においてエッジが検出された場合、前記属性判定部28は、パスpa4の画像処理設定を特定し、網点背景及び色背景が検出されても、検出されなくても、濃度変換処理においてハイコントラストテーブルL1を選択し、2値化処理において単純2値化法を選択し、エッジ補正の実行フラグを立てる。この場合、濃度変換処理においてハイコントラストテーブルL1が選択されるので、エッジを際立たせることができる。なお、エッジを一層際立たせるために、さらに、強調の実行フラグを立てることもできる。また、エッジ補正を行うことによって注目画素が反転させられるので、網点背景及び色背景においてエッジを確実に認識することができる。   Further, when an edge is detected in the target pixel, the attribute determination unit 28 specifies the image processing setting of the path pa4, and whether or not the halftone dot background and the color background are detected. The high contrast table L1 is selected, and the simple binarization method is selected in the binarization process, and an execution flag for edge correction is set. In this case, since the high contrast table L1 is selected in the density conversion process, the edge can be made to stand out. In order to make the edge more prominent, an emphasis execution flag can be set. In addition, since the pixel of interest is inverted by performing edge correction, the edge can be reliably recognized in the halftone dot background and the color background.

そして、送信画質としてフォトが選択された場合、前記属性判定部28は、エッジ、網点背景及び色背景の検出結果に関係なく、パスpa5の画像処理設定を特定し、濃度変換処理においてリニアテーブルL3を選択し、2値化処理において誤差拡散法を選択する。   When the photo is selected as the transmission image quality, the attribute determination unit 28 specifies the image processing setting of the path pa5 regardless of the detection result of the edge, the halftone dot background, and the color background, and performs a linear table in the density conversion process. L3 is selected, and the error diffusion method is selected in the binarization process.

次に、画像データに対して画像処理を行う場合の画像の例について説明する。   Next, an example of an image when image processing is performed on image data will be described.

図12は本発明の第1の実施の形態における画像処理が行われる前の画像の例を示す図、図13は本発明の第1の実施の形態における画像処理が行われた後の画像の例を示す図、図14は本発明の第1の実施の形態におけるエッジ補正が行われた後の画像の例を示す図である。   FIG. 12 is a diagram showing an example of an image before image processing is performed in the first embodiment of the present invention, and FIG. 13 is an image after image processing is performed in the first embodiment of the present invention. FIG. 14 is a diagram illustrating an example, and FIG. 14 is a diagram illustrating an example of an image after edge correction is performed according to the first embodiment of the present invention.

図において、31は白の背景部分である白背景部分、32は白背景におけるエッジ部分である白背景エッジ部分、33はグレー背景におけるエッジ部分であるグレー背景エッジ部分、34はグレーの背景部分であるグレー背景部分である。   In the figure, 31 is a white background part which is a white background part, 32 is a white background edge part which is an edge part in a white background, 33 is a gray background edge part which is an edge part in a gray background, and 34 is a gray background part. A gray background part.

前記白背景部分31、白背景エッジ部分32、グレー背景エッジ部分33及びグレー背景部分34の各部分において、エッジ検出、網点背景検出及び色背景検出が行われると、属性判定部28は、各部分ごとに画像処理設定を特定する。   When edge detection, halftone dot background detection, and color background detection are performed in each of the white background portion 31, the white background edge portion 32, the gray background edge portion 33, and the gray background portion 34, the attribute determination unit 28 Specify image processing settings for each part.

例えば、白背景部分31についてはパスpa1の画像処理設定が、白背景エッジ部分32についてはパスpa4の画像処理設定が、グレー背景エッジ部分33についてはパスpa4の画像処理設定が、グレー背景部分34についてはパスpa2の画像処理設定が特定される。   For example, the image processing setting of pass pa1 is set for the white background portion 31, the image processing setting of pass pa4 is set for the white background edge portion 32, the image processing setting of pass pa4 is set for the gray background edge portion 33, and the gray background portion 34 is set. Is specified for the image processing setting of the path pa2.

続いて、強調部22、平滑化部23、濃度変換部24及び2値化部25が、図12に示される画像の画像データに対して、属性判定部28によって特定された画像処理設定に基づいて強調処理、平滑化処理、濃度変換処理及び2値化処理を行うと、図13に示されるような画像が形成され、グレー背景エッジ部分33はグレー背景部分34に埋もれてしまい、画像、すなわち、文字を再現するのが困難になる。   Subsequently, the enhancement unit 22, the smoothing unit 23, the density conversion unit 24, and the binarization unit 25 are based on the image processing setting specified by the attribute determination unit 28 for the image data of the image shown in FIG. When the enhancement process, the smoothing process, the density conversion process, and the binarization process are performed, an image as shown in FIG. 13 is formed, and the gray background edge portion 33 is buried in the gray background portion 34. , It becomes difficult to reproduce the characters.

そして、図13に示される画像の画像データに対して、エッジ補正部26が、属性判定部28によって特定された画像処理設定に基づいてエッジ補正処理を行うと、図14に示されるような画像が形成され、グレー背景部分34に埋もれていたグレー背景エッジ部分33のエッジが再現される。   Then, when the edge correction unit 26 performs edge correction processing on the image data of the image shown in FIG. 13 based on the image processing setting specified by the attribute determination unit 28, the image as shown in FIG. And the edge of the gray background edge portion 33 buried in the gray background portion 34 is reproduced.

次に、画像データを送信するときの前記構成のファクシミリ10の動作について説明する。   Next, the operation of the facsimile 10 having the above configuration when transmitting image data will be described.

図15は本発明の第1の実施の形態におけるファクシミリの動作を示すフローチャートである。   FIG. 15 is a flowchart showing the operation of the facsimile in the first embodiment of the present invention.

まず、操作者が、メニューキーk3(図2)、画質キーk4及びアドレスキーk5にタッチして、送信ファイル形式、送信画質及び送信先をそれぞれ選択し、開始キーk7にタッチして、送信の開始を指示すると、制御部Ctの図示されない初期化処理手段は、初期化処理を行い、画像読取部11、送受信部14、エンコーダ・デコーダ15等の各処理の初期化を行う。   First, the operator touches the menu key k3 (FIG. 2), the image quality key k4, and the address key k5 to select the transmission file format, the transmission image quality, and the transmission destination, and touches the start key k7 to transmit the transmission. When the start is instructed, an initialization processing unit (not shown) of the control unit Ct performs an initialization process, and initializes each process of the image reading unit 11, the transmission / reception unit 14, the encoder / decoder 15, and the like.

そのために、前記初期化処理手段は、バッファメモリ16において入力解像度16b及び出力解像度16cを設定し、入力解像度16bの横入力解像度及び縦入力解像度に600〔dpi〕を、出力解像度16cの横出力解像度及び縦出力解像度に、選択された送信画質に応じて決まる値をセットする。   Therefore, the initialization processing means sets the input resolution 16b and the output resolution 16c in the buffer memory 16, sets the horizontal input resolution and the vertical input resolution of the input resolution 16b to 600 [dpi], and the horizontal output resolution of the output resolution 16c. In addition, a value determined according to the selected transmission image quality is set in the vertical output resolution.

次に、画像読取部11は、原稿の画像を読み取り、画像データをバッファメモリ16に書き込む。これにより、入力画像16aの主走査方向画素数及び副走査方向画素数に原稿の画像に応じた値がセットされ、入力画像16aの濃度値に、グレーの輝度値が変換された階調値がセットされる。   Next, the image reading unit 11 reads an image of the document and writes the image data in the buffer memory 16. As a result, values corresponding to the image of the document are set to the number of pixels in the main scanning direction and the number of pixels in the sub scanning direction of the input image 16a. Set.

続いて、変倍部18は、入力画像16aを変倍率に応じて変倍する。これに伴って、変倍後画像16dの主走査方向画素数、副走査方向画素数及び濃度値の変数は、resize_x、resize_y、resize_dataにされる。   Subsequently, the scaling unit 18 scales the input image 16a according to the scaling factor. Accordingly, the main scanning direction pixel number, the sub scanning direction pixel number, and the density value variable of the post-magnification image 16d are set to resize_x, resize_y, and resize_data.

このようにして、変倍後画像16dの画像データがバッファメモリ16に書き込まれると、属性検出部71は変倍後画像16dの画像データの各画素について属性を検出し、エッジ検出部19、網点背景検出部20及び色背景検出部21は検出結果を属性判定部28に送る。   When the image data of the post-magnification image 16d is written in the buffer memory 16 in this way, the attribute detection unit 71 detects the attribute for each pixel of the image data of the post-magnification image 16d, and the edge detection unit 19, network The point background detection unit 20 and the color background detection unit 21 send detection results to the attribute determination unit 28.

続いて、該属性判定部28は、変倍後画像16dの画像データの各画素について属性を判定し、属性に基づいて画像処理設定を特定する。   Subsequently, the attribute determination unit 28 determines an attribute for each pixel of the image data of the post-magnification image 16d, and specifies an image processing setting based on the attribute.

この場合、属性判定部28は、属性判定処理及び画像処理設定特定処理における注目画素を表すテンポラリポインタを、
resize_tmp=resize_data
out_tmp=out_data
prop_tmp=prop_data
とし、ループを行うたびにテンポラリポインタを進め、
resize_tmp++
out_tmp++
prop_tmp++
とし、ループをresize_x*resize_y回行うことによってresize_dataの各画素を走査する。
In this case, the attribute determination unit 28 uses a temporary pointer that represents the pixel of interest in the attribute determination process and the image processing setting specification process.
resize_tmp = resize_data
out_tmp = out_data
prop_tmp = prop_data
And advance the temporary pointer every time you loop,
resize_tmp ++
out_tmp ++
prop_tmp ++
Then, each pixel of resize_data is scanned by performing a loop resize_x * resize_y times.

このようにして、変倍後画像16dの画像データのすべての画素について属性が判定されると、前記画像処理部72は、属性判定部28によって特定された画像処理設定に基づいて画像処理を行う。この場合、強調部22は、変倍後画像16dの画像データの画素ごとに属性判定部28によって指示された画素を強調し、平滑化部23は、変倍後画像16dの画像データの画素ごとに属性判定部28によって指示された画素を平滑化し、濃度変換部24は、変倍後画像16dの画像データの画素ごとに属性判定部28によって指示された画素の濃度を変換し、2値化部25は、変倍後画像16dの画像データの画素ごとに属性判定部28によって指示された2値化方法で2値化を行う。   When the attributes are determined for all the pixels of the image data of the post-magnification image 16d in this way, the image processing unit 72 performs image processing based on the image processing setting specified by the attribute determining unit 28. . In this case, the enhancement unit 22 enhances the pixel instructed by the attribute determination unit 28 for each pixel of the image data of the post-magnification image 16d, and the smoothing unit 23 performs the pixel data of the image data of the post-magnification image 16d. The pixel specified by the attribute determination unit 28 is smoothed, and the density conversion unit 24 converts the density of the pixel specified by the attribute determination unit 28 for each pixel of the image data of the post-magnification image 16d, and binarizes it. The unit 25 performs binarization by the binarization method instructed by the attribute determination unit 28 for each pixel of the image data of the scaled image 16d.

これに伴って、画像処理後画像16eの主走査方向画素数、副走査方向画素数及び濃度値の変数は、out_x、out_y、out_dataにされる。   Along with this, the number of pixels in the main scanning direction, the number of sub-scanning direction pixels, and the density value of the post-image processed image 16e are set to out_x, out_y, and out_data.

続いて、エッジ補正部26は、画像処理後画像16eの画像データに対して画素ごとにエッジ補正を行う。そのために、前記エッジ補正部26は、注目画素においてエッジ補正の実行フラグが立っているかどうかを判断し、エッジ補正の実行フラグが立っている場合にエッジ補正を行い、処理後の画像データを画像処理後画像16eの記録領域に書き込む。   Subsequently, the edge correction unit 26 performs edge correction for each pixel on the image data of the post-image processing image 16e. Therefore, the edge correction unit 26 determines whether an edge correction execution flag is set in the target pixel, performs edge correction when the edge correction execution flag is set, and processes the processed image data as an image. Write in the recording area of the processed image 16e.

なお、エッジ補正処理は、注目画素の周辺の8画素に2値化が行われている必要があるので、属性検出処理、属性判定処理及び画像処理設定特定処理のループが終了した後に実行される。   Note that the edge correction process needs to be binarized on the eight pixels around the target pixel, and therefore is executed after the loop of the attribute detection process, the attribute determination process, and the image process setting specifying process is completed. .

そのために、エッジ補正部26は、エッジ補正処理における注目画素を表すテンポラリポインタを、
out_tmp=out_data
prop_tmp=prop_data
とし、ループを行うたびにテンポラリポインタを進め、
out_tmp++
prop_tmp++
とし、ループをout_x*out_y回行うことによって、画像処理後画像16eの画像データの各画素を走査する。
Therefore, the edge correction unit 26 sets a temporary pointer that represents the target pixel in the edge correction process.
out_tmp = out_data
prop_tmp = prop_data
And advance the temporary pointer every time you loop,
out_tmp ++
prop_tmp ++
Then, each pixel of the image data of the post-image processing image 16e is scanned by performing the loop out_x * out_y times.

続いて、エンコーダ・デコーダ15は、画像処理後画像16eの画像データに対して、操作者がキーk1、k2にタッチすることによって選択したモード、及びメニューキーk3にタッチすることによって選択した送信ファイル形式に応じてエンコードを行う。ファクシミリ通信のモードが選択された場合には、MH、MR、MMR、JPEG、JBIG等の送信ファイル形式のうちの送信先のファクシミリが受信可能な送信ファイル形式で画像データが作成され、インターネットファックスのモードが選択された場合には、TIFF、PDF、JPEG等の送信ファイル形式のうちの、操作者が選択した送信ファイル形式で画像データが作成される。   Subsequently, the encoder / decoder 15 selects the transmission file selected by touching the menu key k3 and the mode selected by the operator touching the keys k1 and k2 with respect to the image data of the post-image processing image 16e. Encode according to the format. When the facsimile communication mode is selected, image data is created in a transmission file format that can be received by the destination facsimile from among the transmission file formats such as MH, MR, MMR, JPEG, and JBIG. When the mode is selected, the image data is created in the transmission file format selected by the operator from the transmission file formats such as TIFF, PDF, and JPEG.

次に、送受信部14は、操作者が選択したモードに応じて通信回線を接続する。すなわち、ファクシミリ通信のモードが選択された場合には、電話回線に接続し、インターネットファックスのモードが選択された場合には、インターネット回線に接続する。   Next, the transmission / reception unit 14 connects a communication line according to the mode selected by the operator. That is, when the facsimile communication mode is selected, the telephone line is connected, and when the Internet fax mode is selected, the telephone line is connected.

そして、送受信部14は、エンコーダ・デコーダ15によってエンコードが行われた画像データを送信先に送信する。   The transmission / reception unit 14 transmits the image data encoded by the encoder / decoder 15 to the transmission destination.

次に、フローチャートについて説明する。
ステップS1 操作者は送信の開始を指示する。
ステップS2 初期化処理手段は初期化処理を行う。
ステップS3 画像読取部11は画像を読み取る。
ステップS4 変倍部18は変倍処理を行う。
ステップT1 変倍後画像16dの画像データのすべての画素に対するループを開始する。
ステップS5 属性検出部71は変倍後画像16dの画像データの各画素について属性を検出する。
ステップS6 属性判定部28は変倍後画像16dの画像データの各画素について属性を判定し、画像処理設定を特定する。
ステップS7 画像処理部72は画像処理を行う。
ステップT2 変倍後画像16dの画像データのすべての画素に対するループを終了する。
ステップT3 画像処理後画像16eの画像データのすべての画素に対するループを開始する。
ステップS8 エッジ補正部26はエッジ補正処理を行う。
ステップT4 画像処理後画像16eの画像データのすべての画素に対するループを終了する。
ステップS9 エンコーダ・デコーダ15はエンコードを行う。
ステップS10 送受信部14はエンコードが行われた画像データを送信先に送信し、処理を終了する。
Next, a flowchart will be described.
Step S1 The operator instructs the start of transmission.
Step S2 The initialization processing means performs initialization processing.
Step S3 The image reading unit 11 reads an image.
Step S4 The scaling unit 18 performs scaling processing.
Step T1 A loop for all the pixels of the image data of the image 16d after scaling is started.
Step S5 The attribute detection unit 71 detects an attribute for each pixel of the image data of the post-magnification image 16d.
Step S6 The attribute determination unit 28 determines the attribute for each pixel of the image data of the post-magnification image 16d, and specifies the image processing setting.
Step S7 The image processing unit 72 performs image processing.
Step T2 The loop for all the pixels of the image data of the post-magnification image 16d is terminated.
Step T3 A loop for all the pixels of the image data of the post-image processing image 16e is started.
Step S8 The edge correction unit 26 performs edge correction processing.
Step T4 The loop for all pixels of the image data of the post-image processing image 16e is terminated.
Step S9 The encoder / decoder 15 performs encoding.
Step S10 The transmission / reception unit 14 transmits the encoded image data to the transmission destination, and ends the process.

次に、属性判定部28によって特定された画像処理設定に基づいて画像処理が行われた後の画像について説明する。   Next, an image after the image processing is performed based on the image processing setting specified by the attribute determination unit 28 will be described.

図16は本発明の第1の実施の形態における白背景部分においてエッジが検出された場合の処理前及び処理後の画像の例を示す図、図17は本発明の第1の実施の形態における網点背景部分においてエッジが検出された場合の処理前及び処理後の画像の例を示す図、図18は本発明の第1の実施の形態における色背景部分においてエッジが検出された場合の処理前及び処理後の画像の例を示す図、図19は本発明の第1の実施の形態における濃度の高い網点背景部分においてエッジが検出された場合の処理前及び処理後の画像の例を示す図、図20は本発明の第1の実施の形態における濃度の高い色背景部分においてエッジが検出された場合の処理前及び処理後の画像の例を示す図である。   FIG. 16 is a diagram illustrating an example of an image before and after processing when an edge is detected in the white background portion according to the first embodiment of the present invention, and FIG. 17 is a diagram according to the first embodiment of the present invention. FIG. 18 is a diagram illustrating an example of an image before and after processing when an edge is detected in a halftone dot background portion, and FIG. 18 is a processing when an edge is detected in a color background portion according to the first embodiment of the present invention. FIG. 19 is a diagram illustrating an example of an image before and after processing. FIG. 19 illustrates an example of an image before and after processing when an edge is detected in a high-density halftone dot background portion according to the first embodiment of the present invention. FIG. 20 is a diagram illustrating an example of an image before and after processing when an edge is detected in a color background portion having a high density according to the first embodiment of the present invention.

図16に示されるように、白背景部分においてエッジが検出された場合は、背景部分にパスpa1の画像処理設定が特定され、濃度変換処理においてハイコントラストテーブルL1が選択され、2値化処理において単純2値化法が選択され、また、エッジ部分にパスpa4の画像処理設定が特定され、濃度変換処理においてハイコントラストテーブルL1が選択され、2値化処理において単純2値化法が選択されて、鮮明な文字が再現される。   As shown in FIG. 16, when an edge is detected in the white background portion, the image processing setting of the path pa1 is specified in the background portion, the high contrast table L1 is selected in the density conversion processing, and in the binarization processing The simple binarization method is selected, the image processing setting of the path pa4 is specified in the edge portion, the high contrast table L1 is selected in the density conversion processing, and the simple binarization method is selected in the binarization processing. , Vivid characters are reproduced.

また、図17に示されるように、網点背景部分においてエッジが検出された場合は、背景部分にパスpa3の画像処理設定が特定され、背景部分において平滑化処理が行われ、網点が除去されるとともに、濃度変換処理においてハイガンマテーブルL2が選択され、2値化処理において0度ラインディザ法が選択され、また、エッジ部分にパスpa4の画像処理設定が特定され、濃度変換処理においてハイコントラストテーブルL1が選択され、2値化処理において単純2値化法が選択されて、鮮明な文字が再現される。この場合、背景部分の濃度変換処理においてハイガンマテーブルL2が選択されるので、背景部分を明るくすることができるだけでなく、2値化処理において0度ラインディザ法が選択されるので、伝送効率に影響を及ぼすことがない。   Also, as shown in FIG. 17, when an edge is detected in a halftone dot background portion, the image processing setting of the path pa3 is specified in the background portion, smoothing processing is performed in the background portion, and halftone dots are removed. In addition, the high gamma table L2 is selected in the density conversion process, the 0-degree line dither method is selected in the binarization process, the image processing setting of the path pa4 is specified in the edge portion, and the high in the density conversion process. The contrast table L1 is selected, the simple binarization method is selected in the binarization process, and a clear character is reproduced. In this case, since the high gamma table L2 is selected in the density conversion processing of the background portion, not only can the background portion be brightened, but also the 0 degree line dither method is selected in the binarization processing, which improves transmission efficiency. There is no effect.

また、図18に示されるように、色背景部分においてエッジが検出された場合は、背景部分にパスpa2の画像処理設定が特定され、濃度変換処理においてハイガンマテーブルL2が選択され、2値化処理において0度ラインディザ法が選択され、また、エッジ部分にパスpa4の画像処理設定が特定され、濃度変換処理においてハイコントラストテーブルL1が選択され、2値化処理において単純2値化法が選択されて、鮮明な文字が再現される。この場合、背景部分の2値化処理において0度ラインディザ法が選択されるので、伝送効率に影響を及ぼすことがなく、背景部分の階調が再現される。   As shown in FIG. 18, when an edge is detected in the color background portion, the image processing setting of the path pa2 is specified in the background portion, the high gamma table L2 is selected in the density conversion processing, and binarization is performed. The 0 degree line dither method is selected in the processing, the image processing setting of the path pa4 is specified in the edge portion, the high contrast table L1 is selected in the density conversion processing, and the simple binarization method is selected in the binarization processing. As a result, clear characters are reproduced. In this case, since the 0-degree line dither method is selected in the binarization processing of the background portion, the gradation of the background portion is reproduced without affecting the transmission efficiency.

そして、図19に示されるように、濃度の高い網点背景部分においてエッジが検出された場合は、網点背景部分においてエッジが検出された場合と同様に、背景部分にパスpa3の画像処理設定が特定され、背景部分において平滑化処理が行われ、網点が除去されるとともに、濃度変換処理においてハイガンマテーブルL2が選択され、2値化処理において0度ラインディザ法が選択され、また、エッジ部分にパスpa4の画像処理設定が特定され、濃度変換処理においてハイコントラストテーブルL1が選択され、2値化処理において単純2値化法が選択され、エッジ補正処理によって、エッジ部分は反転されて白部分が形成され、暗い背景部分の中に鮮明なエッジ部分が再現される。したがって、文字の視認性を高くすることができる。   Then, as shown in FIG. 19, when an edge is detected in a high-density halftone dot background part, the image processing setting of the path pa3 is set in the background part as in the case where an edge is detected in the halftone dot background part. Is specified, smoothing processing is performed in the background portion, halftone dots are removed, the high gamma table L2 is selected in the density conversion processing, the 0-degree line dither method is selected in the binarization processing, and The image processing setting of the path pa4 is specified in the edge portion, the high contrast table L1 is selected in the density conversion processing, the simple binarization method is selected in the binarization processing, and the edge portion is inverted by the edge correction processing. A white portion is formed, and a sharp edge portion is reproduced in a dark background portion. Therefore, the visibility of characters can be increased.

また、図20に示されるように、濃度の高い色背景部分においてエッジが検出された場合は、色背景部分においてエッジが検出された場合と同様に、背景部分にパスpa2の画像処理設定が特定され、濃度変換処理においてハイガンマテーブルL2が選択され、2値化処理において0度ラインディザ法が選択され、また、エッジ部分にパスpa4の画像処理設定が特定され、濃度変換処理においてハイコントラストテーブルL1が選択され、2値化処理において単純2値化法が選択され、エッジ補正処理によって、エッジ部分は反転されて白部分が形成され、暗い背景部分の中に鮮明なエッジ部分が再現される。したがって、文字の視認性を高くすることができるだけでなく、伝送効率に影響を及ぼすことがない。   Also, as shown in FIG. 20, when an edge is detected in a color background portion with a high density, the image processing setting of the path pa2 is specified in the background portion in the same manner as when an edge is detected in the color background portion. Then, the high gamma table L2 is selected in the density conversion process, the 0-degree line dither method is selected in the binarization process, the image processing setting of the path pa4 is specified in the edge portion, and the high contrast table is selected in the density conversion process. L1 is selected, and the simple binarization method is selected in the binarization process. By the edge correction process, the edge part is inverted to form a white part, and a sharp edge part is reproduced in the dark background part. . Therefore, not only the visibility of characters can be increased, but also the transmission efficiency is not affected.

このように、本実施の形態においては、画像処理部72による画像処理が行われた後の2値の画像データの注目画素について、エッジ補正条件が成立するかどうかが判断され、エッジ補正条件が成立する場合にエッジ補正が行われるので、例えば、文字の背景が網点背景であったり、色背景であったりしても、画像データの画像を再現したときに、文字の視認性が低くなることがない。   As described above, in the present embodiment, it is determined whether the edge correction condition is satisfied for the target pixel of the binary image data after the image processing by the image processing unit 72 is performed, and the edge correction condition is Since the edge correction is performed when it is established, for example, even if the background of the character is a halftone dot background or a color background, the visibility of the character is reduced when the image of the image data is reproduced There is nothing.

次に、本発明を画像処理装置としての複合機に適用した第2の実施の形態について説明する。なお、第1の実施の形態と同じ構造を有するものについては、同じ符号を付与し、同じ構造を有することによる発明の効果については同実施の形態の効果を援用する。   Next, a second embodiment in which the present invention is applied to a multifunction machine as an image processing apparatus will be described. In addition, about the thing which has the same structure as 1st Embodiment, the same code | symbol is provided and the effect of the same embodiment is used about the effect of the invention by having the same structure.

図21は本発明の第2の実施の形態における複合機の制御ブロック図、図22は本発明の第2の実施の形態における操作パネルの例を示す図、図23は本発明の第2の実施の形態におけるバッファメモリに記録されるデータの構造の例を示す図、図24は本発明の第2の実施の形態における画像処理設定テーブルの例を示す図である。   FIG. 21 is a control block diagram of the multifunction machine according to the second embodiment of the present invention, FIG. 22 is a diagram illustrating an example of an operation panel according to the second embodiment of the present invention, and FIG. FIG. 24 is a diagram showing an example of the structure of data recorded in the buffer memory in the embodiment, and FIG. 24 is a diagram showing an example of an image processing setting table in the second embodiment of the present invention.

図に示されるように、複合機40は、複合機40の全体の制御を行う制御部Ct、画像読取処理手段としての画像読取部11、画像形成処理手段としての画像形成部12、表示・操作部としての、かつ、ユーザインタフェースとしての操作パネル13、送受信処理手段としての送受信部14、データ形式変換処理手段としてのエンコーダ・デコーダ15、第1の記憶装置としての、かつ、データ記録部としてのバッファメモリ16、変倍処理手段としての変倍部18、属性検出処理手段としての属性検出部71、属性判定処理手段としての、かつ、画像処理設定特定処理手段としての属性判定部28、画像処理手段としての画像処理部72、エッジ補正処理手段としてのエッジ補正部26、第2の記憶装置としての、かつ、設定記録部としての画像処理設定格納メモリ27、第1の色変換処理手段としての、かつ、Lab変換処理手段としてのLab変換部41、第2の色変換処理手段としての、かつ、CMYK変換処理手段としてのCMYK変換部42等を備える。   As shown in the figure, the multi-function device 40 includes a control unit Ct that performs overall control of the multi-function device 40, an image reading unit 11 as an image reading processing unit, an image forming unit 12 as an image forming processing unit, and display / operation. Operation panel 13 as a user interface, transmission / reception unit 14 as a transmission / reception processing unit, encoder / decoder 15 as a data format conversion processing unit, as a first storage device, and as a data recording unit Buffer memory 16, scaling unit 18 as scaling processing means, attribute detection unit 71 as attribute detection processing means, attribute determination unit 28 as attribute determination processing means, and image processing setting specifying processing means, image processing An image processing unit 72 as a means, an edge correction unit 26 as an edge correction processing unit, a second storage device, and a setting recording unit Image processing setting storage memory 27, Lab conversion unit 41 as first color conversion processing means and Lab conversion processing means, CMYK conversion as second color conversion processing means and CMYK conversion processing means Part 42 and the like.

前記画像読取部11は、原稿の画像を読み取り、画像データ(ディジタルデータ)を生成する。そのために、画像読取部11はスキャナを備え、該スキャナは、本実施の形態において、600〔dpi〕の読取解像度を有し、原稿の主走査方向及び副走査方向における座標上のレッド、グリーン及びブルーの各輝度値R、G、Bを取得する。なお、レッド、グリーン及びブルーの各輝度値R、G、Bは、それぞれ量子化されて、0〜255の256個の階調値に変換され、階調値は、濃度値DR、DG、DBとしてバッファメモリ16に書き込まれる。   The image reading unit 11 reads an image of a document and generates image data (digital data). For this purpose, the image reading unit 11 includes a scanner. In the present embodiment, the scanner has a reading resolution of 600 [dpi], and the red, green, and red on the coordinates in the main scanning direction and the sub-scanning direction of the document. Each luminance value R, G, B of blue is acquired. The luminance values R, G, and B of red, green, and blue are respectively quantized and converted into 256 gradation values from 0 to 255. The gradation values are density values DR, DG, and DB. Is written into the buffer memory 16 as

また、前記画像形成部12は、前記画像処理部72による画像処理、及びエッジ補正部26によるエッジ補正処理が行われた画像データ、複合機40のステータス(状態)の情報、上位装置としてのホストコンピュータから送信された印刷データ等に基づいて、電子写真方式、インクジェット方式等の印刷方式に従って印刷(シアン、マゼンタ、イエロー及びブラックの2値のカラー印刷)を行い、600〔dpi〕以上の所定の解像度で媒体としての用紙にカラー画像を形成する。   The image forming unit 12 also includes image data that has undergone image processing by the image processing unit 72 and edge correction processing by the edge correction unit 26, status information of the multi-function device 40, and a host as a host device. Printing (binary color printing of cyan, magenta, yellow, and black) is performed in accordance with a printing method such as an electrophotographic method or an inkjet method based on print data transmitted from a computer, and a predetermined value of 600 [dpi] or more is performed. A color image is formed on a sheet as a medium at a resolution.

前記操作パネル13は、図22に示されるように、表示部としての表示パネル13a、第1の操作部としてのモード切替操作部13b及び第2の操作部としてのキー操作部13cを備える。   As shown in FIG. 22, the operation panel 13 includes a display panel 13a as a display unit, a mode switching operation unit 13b as a first operation unit, and a key operation unit 13c as a second operation unit.

本実施の形態においては、ファクシミリ通信及びインターネットファックスのモードのほかに、コピーのモードを選択することができるようになっている。   In this embodiment, a copy mode can be selected in addition to a facsimile communication mode and an Internet fax mode.

前記表示パネル13aには、ファクシミリ通信及びインターネットファックスのモードが選択されている場合、第1の実施の形態と同様に、画像データの送信又は受信をしていること、原稿つまりが発生したこと等の複合機40のステータス、トナー残量、ファクシミリ通信(Fax)、インターネットファックス(Internet Fax)等のモード、ノーマル、ファイン、エクストラファイン、フォト等の送信画質、及び電話番号、メールアドレス等の送信先の各情報が表示され、コピーのモードが選択されている場合、モード、ステータス、トナー残量、テキスト又は写真のコピー用の画質、すなわち、コピー画質、コピー枚数等の各情報が表示される。   When the facsimile communication mode and the Internet fax mode are selected on the display panel 13a, as in the first embodiment, image data is transmitted or received, a document is clogged, etc. Status of the MFP 40, toner remaining amount, facsimile communication (Fax), Internet fax (Internet Fax) and other modes, normal, fine, extra fine, photo and other transmission image quality, and telephone numbers, e-mail addresses, etc. When the copy mode is selected, information such as the mode, status, remaining toner amount, text or photo copy image quality, that is, copy image quality, number of copies, and the like are displayed.

また、前記モード切替操作部13bには、操作者がモードを選択するための操作要素としてのキーk1、k2、k11が配設される。操作者が、キーk1にタッチすると、ファクシミリ通信のモードが選択され、キーk2にタッチすると、インターネットファックスのモードが選択され、キーk11にタッチすると、コピーのモードが選択される。   The mode switching operation unit 13b is provided with keys k1, k2, and k11 as operation elements for an operator to select a mode. When the operator touches the key k1, the facsimile communication mode is selected. When the operator touches the key k2, the Internet fax mode is selected. When the operator touches the key k11, the copy mode is selected.

そして、コピーのモードを選択した場合、操作者は、テンキーk6にタッチすることによってコピー枚数を入力したり、メニューキーk3にタッチすることによって各種の情報の閲覧、設定等を行ったり、画質キーk4にタッチすることによってコピー画質を選択したり、開始キーk7にタッチすることによってコピーの開始を指示したり、停止キーk8にタッチすることによってコピーの停止を指示したりすることができる。   When the copy mode is selected, the operator inputs the number of copies by touching the numeric keypad k6, browses and sets various information by touching the menu key k3, and the image quality key. The image quality can be selected by touching k4, the start of copying can be instructed by touching the start key k7, or the stop of copying can be instructed by touching the stop key k8.

前記バッファメモリ16は、画像処理を行う際に画像データを記録するために配設され、所定の領域に、図23に示されるように、カラーの画像データから成る入力画像16a、入力解像度16b、出力解像度16c、変倍後画像16d及び画像処理後画像16eがそれぞれ構造体として記録される。   The buffer memory 16 is arranged for recording image data when performing image processing, and in a predetermined area, as shown in FIG. 23, an input image 16a composed of color image data, an input resolution 16b, The output resolution 16c, the image 16d after scaling, and the image processed image 16e are recorded as structures.

そして、入力画像16aのメンバ、変数及びサイズは、
主走査方向画素数 in_x 4〔byte〕
副走査方向画素数 in_y 4〔byte〕
濃度値DR in_data1 in_x*in_y〔byte〕
濃度値DG in_data2 in_x*in_y〔byte〕
濃度値DB in_data3 in_x*in_y〔byte〕
にされる。
The members, variables, and size of the input image 16a are
Number of pixels in main scanning direction in_x 4 [bytes]
Number of pixels in the sub-scanning direction in_y 4 [bytes]
Concentration value DR in_data1 in_x * in_y [byte]
Concentration value DG in_data2 in_x * in_y [byte]
Concentration value DB in_data3 in_x * in_y [bytes]
To be.

また、入力解像度16bは、入力画像16aの画像データの解像度であり、入力解像度16bのメンバ、変数及びサイズは、
横入力解像度 in_x_resol 4〔byte〕
縦入力解像度 in_y_resol 4〔byte〕
にされる。
The input resolution 16b is the resolution of the image data of the input image 16a, and the members, variables, and sizes of the input resolution 16b are:
Horizontal input resolution in_x_resol 4 [bytes]
Vertical input resolution in_y_resol 4 [bytes]
To be.

なお、本実施の形態において、横入力解像度及び縦入力解像度は、画像読取部11の解像度に合わせて、いずれも、600〔dpi〕にされる。   In the present embodiment, the horizontal input resolution and the vertical input resolution are both 600 [dpi] according to the resolution of the image reading unit 11.

そして、出力解像度16cは、画像処理部72及びエッジ補正部26において最終的に生成される画像データの解像度であり、出力解像度16cのメンバ、変数及びサイズは、
横出力解像度 out_x_resol 4〔byte〕
縦出力解像度 out_y_resol 4〔byte〕
にされる。
The output resolution 16c is the resolution of the image data finally generated by the image processing unit 72 and the edge correction unit 26. The members, variables, and sizes of the output resolution 16c are:
Horizontal output resolution out_x_resol 4 [bytes]
Vertical output resolution out_y_resol 4 [bytes]
To be.

なお、本実施の形態において、出力解像度16cの横出力解像度及び縦出力解像度は、ファクシミリ通信及びインターネットファックスのモードが選択されている場合、操作パネル13において選択される送信画質に応じて、コピーのモードが選択されている場合、画像成形部12の解像度に応じて決まり、例えば、送信画質又はコピー画質がノーマルである場合、横出力解像度は203〔dpi〕にされ、縦出力解像度は196〔dpi〕にされ、送信画質又はコピー画質がエクストラファインである場合、横出力解像度は203〔dpi〕にされ、縦出力解像度は391〔dpi〕にされる。   In the present embodiment, the horizontal output resolution and the vertical output resolution of the output resolution 16c are set according to the transmission image quality selected on the operation panel 13 when the facsimile communication mode and the Internet fax mode are selected. When the mode is selected, it is determined according to the resolution of the image forming unit 12. For example, when the transmission image quality or copy image quality is normal, the horizontal output resolution is 203 [dpi] and the vertical output resolution is 196 [dpi]. When the transmission image quality or copy image quality is extra fine, the horizontal output resolution is 203 [dpi] and the vertical output resolution is 391 [dpi].

また、変倍後画像16dは、入力画像16aの画像データを変倍したものであり、変倍後画像16dのメンバ、変数及びサイズは、
主走査方向画素数 resize_x 4〔byte〕
副走査方向画素数 resize_y 4〔byte〕
濃度値 resize_data1 resize_x*resize_y〔byte〕
色成分値a resize_data2 resize_x*resize_y〔byte〕
色成分値b resize_data3 resize_x*resize_y〔byte〕
にされる。
The scaled image 16d is obtained by scaling the image data of the input image 16a. The members, variables, and size of the scaled image 16d are:
Number of pixels in the main scanning direction resize_x 4 [bytes]
Number of pixels in the sub-scanning direction resize_y 4 [bytes]
Density value resize_data1 resize_x * resize_y [byte]
Color component value a resize_data2 resize_x * resize_y [byte]
Color component value b resize_data3 resize_x * resize_y [byte]
To be.

前記変倍後画像16dの主走査方向画素数及び副走査方向画素数の各変数は、入力画像16aの主走査方向画素数及び副走査方向画素数の各変数、入力解像度16bの横入力解像度及び縦入力解像度の各変数、並びに出力解像度16cの横出力解像度及び縦出力解像度の各変数に基づいて、
resize_x=
in_x*(out_x_resol/in_x_resol)
resize_y=
in_y*(out_y_resol/in_y_resol)
で表すことができる。
The variables of the main scanning direction pixel number and the sub scanning direction pixel number of the post-magnification image 16d are the variables of the main scanning direction pixel number and the sub scanning direction pixel number of the input image 16a, the horizontal input resolution of the input resolution 16b, and Based on each variable of the vertical input resolution, and each variable of the horizontal output resolution and the vertical output resolution of the output resolution 16c,
resize_x =
in_x * (out_x_resol / in_x_resol)
resize_y =
in_y * (out_y_resol / in_y_resol)
Can be expressed as

画像処理後画像16eは、画像処理部72及びエッジ補正部26において最終的に生成される画像データであり、画像処理後画像16eのメンバ、変数及びサイズは、
主走査方向画素数 out_x 4〔byte〕
副走査方向画素数 out_y 4〔byte〕
濃度値C out_data1 out_x*out_y〔byte〕
濃度値M out_data2 out_x*out_y〔byte〕
濃度値Y out_data3 out_x*out_y〔byte〕
濃度値K out_data4 out_x*out_y〔byte〕
属性値 prop_data out_x*out_y〔byte〕
にされる。
The post-image processing image 16e is image data finally generated by the image processing unit 72 and the edge correction unit 26, and the members, variables, and sizes of the post-image processing image 16e are:
Number of pixels in main scanning direction out_x 4 [bytes]
Number of pixels in the sub-scanning direction out_y 4 [bytes]
Concentration value C out_data1 out_x * out_y [bytes]
Concentration value M out_data2 out_x * out_y [bytes]
Concentration value Y out_data3 out_x * out_y [bytes]
Concentration value K out_data4 out_x * out_y [bytes]
Attribute value prop_data out_x * out_y [bytes]
To be.

前記画像処理後画像16eの主走査方向画素数及び副走査方向画素数の各変数は、前記変倍後画像16dの主走査方向画素数及び副走査方向画素数の各変数と等しく、
out_x=resize_x
out_y=resize_y
で表すことができる。
Each variable of the main scanning direction pixel number and the sub-scanning direction pixel number of the image processed image 16e is equal to each variable of the main scanning direction pixel number and the sub-scanning direction pixel number of the scaled image 16d,
out_x = resize_x
out_y = resize_y
Can be expressed as

前記変倍部18は、バッファメモリ16に記録された入力画像16aの画像データを読み出し、主走査方向画素数及び副走査方向画素数を変倍率で変倍し、変倍後画像16dの画像データ(変倍後画像16dの主走査方向画素数及び副走査方向画素数)を変倍後画像16dの記録領域に書き込む。前記第1の実施の形態においては、一つの濃度値の1プレーン分の変倍が行われるのに対して、本実施の形態においては、三つの濃度値DR、DG、DBの3プレーン分の変倍が行われる。   The scaling unit 18 reads image data of the input image 16a recorded in the buffer memory 16, scales the number of pixels in the main scanning direction and the number of pixels in the sub-scanning direction with a scaling factor, and image data of the image 16d after scaling. (The number of pixels in the main scanning direction and the number of pixels in the sub-scanning direction of the image 16d after scaling) is written in the recording area of the image 16d after scaling. In the first embodiment, scaling of one density value for one plane is performed, whereas in this embodiment, three density values DR, DG, and DB for three planes are used. Scaling is performed.

また、前記Lab変換部41は、Lab変換処理を行い、前記変倍後画像16dの記録領域から変数resize_data1〜resize_data3を読み出し、RGB−Lab変換を行い、RGB−Lab変換が行われた後の変数resize_data1〜resize_data3を変倍後画像16dの記録領域に書き込む。この場合、変数resize_data1〜resize_data3は、それぞれ、読出し時において、レッド、グリーン及びブルーの濃度値DR、DG、DBであり、書込み時において、L成分を反転させて得られた濃度値及び色成分値a、bであり、RGB−Lab変換により、レッド、グリーン及びブルーの濃度値DR、DG、DBが濃度値及び色成分値a、bに変換される。なお、前記RGB−Lab変換に代えて、所定のカラープロファイルによる変換手順による変換を行うことができる。   The Lab conversion unit 41 performs Lab conversion processing, reads the variables resize_data1 to resize_data3 from the recording area of the post-magnification image 16d, performs RGB-Lab conversion, and variables after the RGB-Lab conversion is performed. Resize_data1 to resize_data3 are written in the recording area of the scaled image 16d. In this case, the variables resize_data1 to resize_data3 are red, green, and blue density values DR, DG, and DB at the time of reading, respectively, and density values and color component values obtained by inverting the L component at the time of writing. a, b, and red, green, and blue density values DR, DG, DB are converted into density values and color component values a, b by RGB-Lab conversion. In place of the RGB-Lab conversion, conversion by a conversion procedure using a predetermined color profile can be performed.

前記属性検出部71は、変倍後画像16dの画像データの各画素の属性を検出する。そのために、前記属性検出部71は、エッジ検出処理手段としてのエッジ検出部19、網点背景検出処理手段としての網点背景検出部20及び色背景検出処理手段としての色背景検出部21を備え、該色背景検出部21によって、エッジ、網点背景及び色背景が属性として検出される。   The attribute detection unit 71 detects the attribute of each pixel of the image data of the post-magnification image 16d. For this purpose, the attribute detection unit 71 includes an edge detection unit 19 as an edge detection processing unit, a halftone background detection unit 20 as a halftone background detection processing unit, and a color background detection unit 21 as a color background detection processing unit. The color background detection unit 21 detects edges, halftone dot backgrounds, and color backgrounds as attributes.

また、前記エッジ検出部19は、変倍後画像16dの画像データの画素ごとにエッジ部分を検出し、検出結果を属性判定部28に送る。そして、前記網点背景検出部20は、変倍後画像16dの画像データの画素ごとに画像の網点背景部分を検出し、検出結果を属性判定部28に送る。さらに、色背景検出部21は、変倍後画像16dの画像データの画素ごとに画像の色背景を検出し、検出結果を属性判定部28に送る。なお、本実施の形態において、色背景は、レッド、グリーン及びブルーのほかにグレーの背景を含み、注目画素及びその周辺の画素の濃度の平均値が所定の範囲内であり、かつ、分散が所定の閾値以下である場合に、前記注目画素を色背景として検出する。   The edge detection unit 19 detects an edge part for each pixel of the image data of the post-magnification image 16d and sends the detection result to the attribute determination unit 28. Then, the halftone dot background detection unit 20 detects the halftone dot background part of the image for each pixel of the image data of the scaled image 16 d and sends the detection result to the attribute determination unit 28. Furthermore, the color background detection unit 21 detects the color background of the image for each pixel of the image data of the post-magnification image 16 d and sends the detection result to the attribute determination unit 28. In the present embodiment, the color background includes a gray background in addition to red, green, and blue, the average density of the pixel of interest and its surrounding pixels is within a predetermined range, and the variance is If the pixel is below a predetermined threshold, the pixel of interest is detected as a color background.

そして、前記画像処理部72は、変倍後画像16dの画像データの各画素の属性に基づいて画像処理を行い、画像処理後画像16eを生成する。そのために、前記画像処理部72は、強調処理手段としての強調部22、平滑化処理手段としての平滑化部23、濃度変換処理手段としての濃度変換部24及び2値化処理手段としての2値化部25を備える。   Then, the image processing unit 72 performs image processing based on the attribute of each pixel of the image data of the post-magnification image 16d, and generates the post-image processing image 16e. Therefore, the image processing unit 72 includes an enhancement unit 22 as an enhancement processing unit, a smoothing unit 23 as a smoothing processing unit, a density conversion unit 24 as a density conversion processing unit, and a binary as a binarization processing unit. The conversion unit 25 is provided.

前記強調部22は、変倍後画像16dの画像データの画素ごとに属性判定部28によって指示された画素を強調し、処理後の画像データを変倍後画像16dの記録領域に記録する。   The enhancement unit 22 enhances the pixel designated by the attribute determination unit 28 for each pixel of the image data of the post-magnification image 16d, and records the processed image data in the recording area of the post-magnification image 16d.

そして、平滑化部23は、変倍後画像16dの画像データの画素ごとに属性判定部28によって指示された画素を平滑化し、処理後の画像データを変倍後画像16dの記録領域に記録する。なお、本実施の形態においては、エッジが検出されない網点背景部分において平滑化処理が行われ、平滑化される前の網点背景の画像濃度に応じて平滑化された後の網点背景の画像濃度が決まる。   Then, the smoothing unit 23 smoothes the pixels designated by the attribute determining unit 28 for each pixel of the image data of the post-magnification image 16d, and records the processed image data in the recording area of the post-magnification image 16d. . In the present embodiment, the halftone dot background portion where no edge is detected is smoothed, and the halftone dot background after smoothing is performed according to the image density of the halftone dot background before smoothing. The image density is determined.

また、濃度変換部24は、変倍後画像16dの画像データの画素ごとに属性判定部28によって指示された画素の濃度を変換し、処理後の画像データを変倍後画像16dの記録領域に記録する。   Further, the density conversion unit 24 converts the density of the pixel designated by the attribute determination unit 28 for each pixel of the image data of the scaled image 16d, and the processed image data is stored in the recording area of the scaled image 16d. Record.

そして、前記CMYK変換部42は、CMYK変換処理を行い、濃度変換処理が行われた後の前記変倍後画像16dの記録領域から変数resize_data1〜resize_data3を読み出し、Lab−CMYK変換を行い、Lab−CMYK変換が行われた後の変数out_data1〜out_data4を画像処理後画像16eの記録領域に書き込む。この場合、読出し時において、変数resize_data1〜resize_data3は、それぞれ濃度値、色成分値a及び色成分値bであり、書込み時において、変数out_data1〜out_data4は濃度値C、M、Y、Kであり、Lab−CMYK変換により、濃度値及び色成分値a、bが、シアン、マゼンタ、イエロー及びブラックの濃度値C、M、Y、Kに変換される。なお、この場合、Lab−CMYK変換においては、所定の変換式でLab−CMY変換を行い、濃度値C、M、Yを生成した後、GCR(Gray−Component Replacement)処理によって濃度値Kを生成するようにしている。また、前記Lab−CMYK変換に代えて、所定のカラープロファイルによる変換手順による変換を行うことができる。   Then, the CMYK conversion unit 42 performs CMYK conversion processing, reads the variables resize_data1 to resize_data3 from the recording area of the scaled image 16d after the density conversion processing, performs Lab-CMYK conversion, and performs Lab-CMYK conversion. The variables out_data1 to out_data4 after the CMYK conversion are performed are written in the recording area of the image 16e after image processing. In this case, at the time of reading, the variables resize_data1 to resize_data3 are density values, color component values a and color component values b, respectively, and at the time of writing, the variables out_data1 to out_data4 are density values C, M, Y, and K. The density value and the color component values a and b are converted into density values C, M, Y, and K of cyan, magenta, yellow, and black by Lab-CMYK conversion. In this case, in Lab-CMYK conversion, Lab-CMY conversion is performed using a predetermined conversion formula to generate density values C, M, and Y, and then density value K is generated by GCR (Gray-Component Replacement) processing. Like to do. Further, instead of the Lab-CMYK conversion, conversion by a conversion procedure using a predetermined color profile can be performed.

そして、前記2値化部25は、Lab−CMYK変換が行われた後の画像処理後画像16eの画像データの画素ごとに2値化方法で2値化を行うことによって2値の画像データを生成し、処理後の画像データを画像処理後画像16eの記録領域に記録する。前記第1の実施の形態においては、一つの濃度値の1プレーン分の2値化が行われるのに対し、本実施の形態においては、四つの濃度値C、M、Y、Kの4プレーン分の2値化が行われ、2値のカラーの画像データが生成される。   Then, the binarization unit 25 binarizes the image data by performing binarization using the binarization method for each pixel of the image data of the image processed image 16e after the Lab-CMYK conversion. The generated and processed image data is recorded in the recording area of the image processed image 16e. In the first embodiment, one density value is binarized for one plane, whereas in this embodiment, four density values C, M, Y, and K are four planes. Binarization is performed, and binary color image data is generated.

また、前記エッジ補正部26は、画像処理後画像16eの画像データについて、属性判定部28によって指示された画素ごとにエッジ補正を行い、処理後の画像データを画像処理後画像16eの記録領域に記録する。   Further, the edge correction unit 26 performs edge correction on the image data of the image processed image 16e for each pixel instructed by the attribute determining unit 28, and the processed image data is stored in the recording area of the image processed image 16e. Record.

この場合、四つの濃度値C、M、Y、Kの4プレーンのうちの濃度値Kのプレーン、すなわち、黒プレーンにおいて、エッジとして検出された注目画素の周辺の画素、本実施の形態においては、8(3×3−1)画素のうちの、エッジとして検出されていないすべての画素の濃度値が注目画素の濃度値と同じであるかどうかによってエッジ補正条件が成立するかどうかが判断され、エッジ補正条件が成立する場合に、注目画素の濃度値Kが反転(1→0)させられる。   In this case, of the four density values C, M, Y, and K, in the density value K plane, that is, in the black plane, pixels around the pixel of interest detected as an edge, in the present embodiment, , 8 (3 × 3-1) pixels, it is determined whether or not the edge correction condition is satisfied depending on whether the density values of all the pixels not detected as the edge are the same as the density value of the target pixel. When the edge correction condition is satisfied, the density value K of the target pixel is inverted (1 → 0).

そして、属性判定部28は、エッジ検出部19、網点背景検出部20及び色背景検出部21から、エッジ検出、網点背景検出及び色背景検出の検出結果が送られると、該各検出結果に基づいて、変倍後画像16dの画像データの各画素の属性を判定し、エッジが検出されたかどうか、網点背景が検出されたかどうか、及び色背景が検出されたかどうかを判断する。   The attribute determination unit 28 receives the detection results of edge detection, halftone background detection, and color background detection from the edge detection unit 19, the halftone background detection unit 20, and the color background detection unit 21. Based on the above, the attribute of each pixel of the image data of the post-magnification image 16d is determined, and it is determined whether an edge is detected, a halftone dot background is detected, and a color background is detected.

そして、前記属性判定部28は、前記検出結果を、属性値として、画素ごとに画像処理後画像16eの記録領域に記録する。なお、属性値の変数prop_dataの1ビット目に色背景の検出結果(0:なし、1:あり)が、2ビット目に網点背景の検出結果(0:なし、1:あり)が、3ビット目にエッジの検出結果(0:なし、1:あり)がフォーマットで記録される。   The attribute determination unit 28 records the detection result as an attribute value in the recording area of the post-image processing image 16e for each pixel. It should be noted that the color background detection result (0: none, 1: present) is the first bit of the attribute value variable prop_data, and the dot background detection result (0: none, 1: present) is the second bit. Edge detection results (0: no, 1: yes) are recorded in the bit.

さらに、前記属性判定部28は、コピーのモードが選択された場合に、属性値に基づいて、図24に示される画像処理設定テーブルを参照し、変倍後画像16dの画像データに対して行われる画像処理の設定、すなわち、画像処理設定をパスpa1〜pa5として特定する。なお、ファクシミリ通信及びインターネットファックスのモードが選択された場合には、図10に示される画像処理設定テーブルが参照される。   Further, when the copy mode is selected, the attribute determination unit 28 refers to the image processing setting table shown in FIG. 24 based on the attribute value, and performs an operation on the image data of the post-magnification image 16d. The specified image processing settings, that is, the image processing settings are specified as paths pa1 to pa5. Note that when the facsimile communication mode and the Internet fax mode are selected, the image processing setting table shown in FIG. 10 is referred to.

次に、図24に示される画像処理設定テーブルについて説明する。まず、コピー画質としてテキストが選択された場合について説明する。   Next, the image processing setting table shown in FIG. 24 will be described. First, a case where text is selected as the copy image quality will be described.

注目画素においてエッジ、網点背景及び色背景のいずれも検出されない場合、属性判定部28は、パスpa1の画像処理設定を特定し、濃度変換処理においてハイコントラストテーブルL1を選択し、2値化処理において単純2値化法を選択する。   When none of the edge, the halftone dot background, and the color background is detected in the target pixel, the attribute determination unit 28 specifies the image processing setting of the path pa1, selects the high contrast table L1 in the density conversion process, and performs the binarization process In, the simple binarization method is selected.

また、注目画素において色背景だけが検出された場合、属性判定部28は、パスpa2の画像処理設定を特定し、濃度変換処理においてハイガンマテーブルL2を選択し、2値化処理において誤差拡散法を選択する。   When only the color background is detected in the target pixel, the attribute determination unit 28 specifies the image processing setting of the path pa2, selects the high gamma table L2 in the density conversion process, and uses the error diffusion method in the binarization process. Select.

そして、注目画素において、網点背景だけが検出された場合、並びに網点背景及び色背景が検出された場合、属性判定部28は、パスpa3の画像処理設定を特定し、平滑化の実行フラグを立て、濃度変換処理としてハイガンマテーブルL2を選択し、2値化処理において誤差拡散法を選択する。この場合、注目画素が平滑化されるので、網点背景における不要な汚れ等を除去することができる。   When only the halftone dot background is detected in the target pixel, and when the halftone dot background and the color background are detected, the attribute determination unit 28 specifies the image processing setting of the path pa3, and executes the smoothing execution flag. The high gamma table L2 is selected as the density conversion process, and the error diffusion method is selected in the binarization process. In this case, since the target pixel is smoothed, unnecessary stains and the like in the halftone dot background can be removed.

また、注目画素においてエッジが検出された場合、属性判定部28は、パスpa4の画像処理設定を特定し、網点背景及び色背景が検出されても、検出されなくても、濃度変換処理においてハイコントラストテーブルL1を選択し、2値化処理において単純2値化法を選択し、エッジ補正の実行フラグを立てる。この場合、濃度変換処理においてハイコントラストテーブルL1が選択されるので、エッジを際立たせることができる。なお、エッジを一層際立たせるために、さらに、強調の実行フラグを立てることもできる。また、エッジ補正を行うことによって注目画素が反転させられるので、網点背景及び色背景においてエッジを確実に認識することができる。   Further, when an edge is detected in the target pixel, the attribute determination unit 28 specifies the image processing setting of the path pa4, and whether or not the halftone dot background and the color background are detected, in the density conversion process. The high contrast table L1 is selected, the simple binarization method is selected in the binarization process, and an edge correction execution flag is set. In this case, since the high contrast table L1 is selected in the density conversion process, the edge can be made to stand out. In order to make the edge more prominent, an emphasis execution flag can be set. In addition, since the pixel of interest is inverted by performing edge correction, the edge can be reliably recognized in the halftone dot background and the color background.

そして、コピー画質として写真が選択された場合、属性判定部28は、エッジ、網点背景及び色背景の検出結果に関係なく、パスpa5の画像処理設定を特定し、濃度変換処理においてリニアテーブルL3を選択し、2値化処理において誤差拡散法を選択する。   When the photograph is selected as the copy image quality, the attribute determination unit 28 specifies the image processing setting of the path pa5 regardless of the detection result of the edge, the halftone dot background, and the color background, and the linear table L3 in the density conversion process. And the error diffusion method is selected in the binarization process.

次に、画像データを送信したり、コピーをしたりするときの前記構成の複合機40の動作について説明する。   Next, the operation of the multi-function device 40 having the above-described configuration when image data is transmitted or copied will be described.

図25は本発明の第2の実施の形態における複合機の動作を示す第1のフローチャート、図26は本発明の第2の実施の形態における複合機の動作を示す第2のフローチャートである。   FIG. 25 is a first flowchart showing the operation of the multifunction device in the second embodiment of the present invention, and FIG. 26 is a second flowchart showing the operation of the multifunction device in the second embodiment of the present invention.

まず、操作者が、メニューキーk3(図22)、画質キーk4及びアドレスキーk5にタッチして、送信ファイル形式、送信画質及び送信先をそれぞれ選択し、開始キーk7にタッチして送信の開始を指示するか、又は画質キーk4及びテンキーk6にタッチしてコピー画質を選択し、コピー枚数を入力し、開始キーk7にタッチして、コピーの開始を指示すると、制御部Ctの前記初期化処理手段は、画像読取部11、送受信部14、エンコーダ・デコーダ15等の各処理の初期化を行う。   First, the operator touches the menu key k3 (FIG. 22), the image quality key k4, and the address key k5 to select the transmission file format, the transmission image quality, and the transmission destination, and touches the start key k7 to start transmission. , Or touch the image quality key k4 and the numeric key k6 to select the copy image quality, input the number of copies, touch the start key k7 to instruct the start of copying, and then the controller Ct is initialized. The processing means initializes the processes of the image reading unit 11, the transmission / reception unit 14, the encoder / decoder 15, and the like.

そのために、初期化処理手段は、バッファメモリ16において入力解像度16b及び出力解像度16cを設定し、入力解像度16bの横入力解像度及び縦入力解像度に600〔dpi〕を、出力解像度16cの横出力解像度及び縦出力解像度に、選択された送信画質又はコピー画質に応じて決まる値をセットする。   For this purpose, the initialization processing means sets the input resolution 16b and the output resolution 16c in the buffer memory 16, sets 600 [dpi] as the horizontal input resolution and the vertical input resolution of the input resolution 16b, and sets the horizontal output resolution of the output resolution 16c. A value determined according to the selected transmission image quality or copy image quality is set in the vertical output resolution.

次に、画像読取部11は、原稿の画像を読み取り、画像データをバッファメモリ16に書き込む。これにより、入力画像16aの主走査方向画素数及び副走査方向画素数に原稿の画像に応じた値がセットされ、入力画像16aの濃度値DR、DG、DBに、レッド、グリーン及びブルーの輝度値が変換された階調値がセットされる。   Next, the image reading unit 11 reads an image of the document and writes the image data in the buffer memory 16. As a result, values according to the image of the document are set to the number of pixels in the main scanning direction and the number of pixels in the sub scanning direction of the input image 16a, and the red, green, and blue luminances are set in the density values DR, DG, and DB of the input image 16a. The gradation value converted from the value is set.

続いて、変倍部18は、入力画像16aを変倍率に応じて変倍する。これに伴って、変倍後画像16dの主走査方向画素数、副走査方向画素数、濃度値及び色成分値a、bの変数は、resize_x、resize_y、resize_data1〜resize_data3にされる。   Subsequently, the scaling unit 18 scales the input image 16a according to the scaling factor. Accordingly, the main scanning direction pixel number, sub-scanning direction pixel number, density value, and color component values a and b of the post-magnification image 16d are set to resize_x, resize_y, resize_data1 to resize_data3.

次に、前記Lab変換部41は、RGB−Lab変換によって、レッド、グリーン及びブルーの濃度値DR、DG、DBを濃度値及び色成分値a、bに変換し、該濃度値及び色成分値a、bを変倍後画像16dの記録領域に書き込む。   Next, the Lab conversion unit 41 converts the density values DR, DG, and DB of red, green, and blue into density values and color component values a and b by RGB-Lab conversion, and the density values and color component values. Write a and b in the recording area of the post-magnification image 16d.

このようにして、変倍後画像16dの画像データがバッファメモリ16に書き込まれると、属性検出部71は変倍後画像16dの画像データの各画素について属性を検出し、エッジ検出部19、網点背景検出部20及び色背景検出部21は検出結果を属性判定部28に送る。   When the image data of the post-magnification image 16d is written in the buffer memory 16 in this way, the attribute detection unit 71 detects the attribute for each pixel of the image data of the post-magnification image 16d, and the edge detection unit 19, network The point background detection unit 20 and the color background detection unit 21 send detection results to the attribute determination unit 28.

続いて、該属性判定部28は、変倍後画像16dの画像データの各画素について属性を判定し、属性に基づいて画像処理設定を特定する。   Subsequently, the attribute determination unit 28 determines an attribute for each pixel of the image data of the post-magnification image 16d, and specifies an image processing setting based on the attribute.

このようにして、変倍後画像16dの画像データのすべての画素について属性が判定されると、属性判定部28によって特定された画像処理設定に基づいて、前記強調部22は強調処理を、平滑化部23は平滑化処理を、濃度変換部24は濃度変換処理を行う。そのために、強調部22は、変倍後画像16dの画像データの画素ごとに属性判定部28によって指示された画素を強調し、平滑化部23は、変倍後画像16dの画像データの画素ごとに属性判定部28によって指示された画素を平滑化し、濃度変換部24は、変倍後画像16dの画像データの画素ごとに属性判定部28によって指示された画素の濃度を変換する。強調処理、平滑化処理及び濃度変換処理が行われた後の画像データは、画素ごとに変倍後画像16dの記録領域に書き込まれる。   In this way, when the attributes are determined for all the pixels of the image data of the post-magnification image 16d, the enhancement unit 22 performs the enhancement process based on the image processing settings specified by the attribute determination unit 28. The conversion unit 23 performs a smoothing process, and the density conversion unit 24 performs a density conversion process. For this purpose, the emphasizing unit 22 emphasizes the pixel instructed by the attribute determining unit 28 for each pixel of the image data of the post-magnification image 16d, and the smoothing unit 23 applies the pixel of the image data of the post-magnification image 16d. The pixel specified by the attribute determination unit 28 is smoothed, and the density conversion unit 24 converts the density of the pixel specified by the attribute determination unit 28 for each pixel of the image data of the post-magnification image 16d. The image data after the enhancement process, the smoothing process, and the density conversion process are written to the recording area of the scaled image 16d for each pixel.

続いて、前記CMYK変換部42は、Lab−CMYK変換によって、濃度値及び色成分値a、bを濃度値C、M、Y、Kに変換し、該濃度値C、M、Y、Kを画像処理後画像16eの記録領域に書き込む。   Subsequently, the CMYK conversion unit 42 converts density values and color component values a and b into density values C, M, Y, and K by Lab-CMYK conversion, and converts the density values C, M, Y, and K to the density values C, M, Y, and K. It writes in the recording area of the image 16e after image processing.

次に、前記2値化部25は、画像処理後画像16eの画像データの画素ごとに属性判定部28によって指示された2値化方法で2値化を行う。   Next, the binarization unit 25 performs binarization by the binarization method instructed by the attribute determination unit 28 for each pixel of the image data of the image processed image 16e.

これに伴って、画像処理後画像16eの主走査方向画素数、副走査方向画素数及び濃度値C、M、Y、Kの変数は、out_x、out_y、out_data1〜out_data4にされる。   Accordingly, the number of pixels in the main scanning direction, the number of pixels in the sub scanning direction, and the density values C, M, Y, and K of the image 16e after image processing are set to out_x, out_y, out_data1 to out_data4.

続いて、前記エッジ補正部26は、画像処理後画像16eの画像データに対して画素ごとにエッジ補正を行う。そのために、エッジ補正部26は、注目画素においてエッジ補正の実行フラグが立っているかどうかを判断し、エッジ補正の実行フラグが立っている場合に、エッジ補正を行い、処理後の画像データを画像処理後画像16eの記録領域に書き込む。   Subsequently, the edge correction unit 26 performs edge correction for each pixel on the image data of the image processed image 16e. For this purpose, the edge correction unit 26 determines whether or not an edge correction execution flag is set in the target pixel. If the edge correction execution flag is set, the edge correction unit 26 performs edge correction and converts the processed image data into an image. Write in the recording area of the processed image 16e.

そして、エンコーダ・デコーダ15は、画像処理後画像16eの画像データに対して、操作者がモード切替操作部13bにタッチすることによって選択したモード、及びメニューキーk3にタッチすることによって選択した送信ファイル形式に応じてエンコードを行う。ファクシミリ通信のモードが選択された場合には、MH、MR、MMR、JPEG、JBIG等の送信ファイル形式のうちの送信先のファクシミリが受信可能な送信ファイル形式で画像データが作成され、インターネットファックスのモードが選択された場合には、TIFF、PDF、JPEG等の送信ファイル形式のうちの、操作者が選択した送信ファイル形式で画像データが作成され、コピーのモードが選択された場合には、画像形成部12が解読することができるPDLデータが作成される。   The encoder / decoder 15 then selects the mode selected by the operator touching the mode switching operation unit 13b and the transmission file selected by touching the menu key k3 with respect to the image data of the post-image processed image 16e. Encode according to the format. When the facsimile communication mode is selected, image data is created in a transmission file format that can be received by the destination facsimile from among the transmission file formats such as MH, MR, MMR, JPEG, and JBIG. When the mode is selected, image data is created in the transmission file format selected by the operator from among the transmission file formats such as TIFF, PDF, JPEG, and when the copy mode is selected, the image data PDL data that can be decoded by the forming unit 12 is created.

次に、送受信部14は、操作者が選択したモードに応じて通信回線を接続するか、又は画像形成部12に画像データを送信する。すなわち、ファクシミリ通信のモードが選択された場合には、電話回線に接続し、インターネットファックスのモードが選択された場合には、インターネット回線に接続し、コピーのモードが選択された場合には、画像形成部12に接続する。   Next, the transmission / reception unit 14 connects a communication line according to the mode selected by the operator or transmits image data to the image forming unit 12. That is, when the facsimile communication mode is selected, the telephone line is connected. When the Internet fax mode is selected, the Internet line is connected. When the copy mode is selected, the image is displayed. Connect to the forming unit 12.

そして、送受信部14は、エンコーダ・デコーダ15によってエンコードが行われた画像データを送信先又は画像形成部12に送信する。   The transmission / reception unit 14 transmits the image data encoded by the encoder / decoder 15 to the transmission destination or the image forming unit 12.

次に、図25及び26のフローチャートについて説明する。
ステップS21 操作者は送信又はコピーの開始を指示する。
ステップS22 初期化処理手段は初期化処理を行う。
ステップS23 画像読取部11は画像を読み取る。
ステップS24 変倍部18は変倍処理を行う。
ステップS25 Lab変換部41はRGB−Lab変換処理を行う。
ステップT11 変倍後画像16dの画像データのすべての画素に対するループを開始する。
ステップS26 属性検出部71は変倍後画像16dの画像データの各画素について属性を検出する。
ステップS27 属性判定部28は変倍後画像16dの画像データの各画素について属性を判定し、画像処理設定を特定する。
ステップS28 強調部22は強調処理を、平滑化部23は平滑化処理を、濃度変換部24は濃度変換処理を行う。
ステップS29 CMYK変換部42はLab−CMYK変換処理を行う。
ステップS30 2値化部25は2値化処理を行う。
ステップT12 変倍後画像16dの画像データのすべての画素に対するループを終了する。
ステップT13 画像処理後画像16eの画像データのすべての画素に対するループを開始する。
ステップS31 エッジ補正部26はエッジ補正処理を行う。
ステップT14 画像処理後画像16eの画像データのすべての画素に対するループを終了する。
ステップS32 エンコーダ・デコーダ15はエンコードを行う。
ステップS33 送受信部14はエンコードが行われた画像データを送信先又は画像形成部12に送信し、処理を終了する。
Next, the flowcharts of FIGS. 25 and 26 will be described.
Step S21 The operator instructs the start of transmission or copying.
Step S22 The initialization processing means performs initialization processing.
Step S23 The image reading unit 11 reads an image.
Step S24 The scaling unit 18 performs scaling processing.
Step S25: The Lab converter 41 performs RGB-Lab conversion processing.
Step T11 A loop for all the pixels of the image data of the post-magnification image 16d is started.
Step S26 The attribute detection unit 71 detects an attribute for each pixel of the image data of the post-magnification image 16d.
Step S27 The attribute determination unit 28 determines the attribute for each pixel of the image data of the post-magnification image 16d, and specifies the image processing setting.
Step S28 The enhancement unit 22 performs enhancement processing, the smoothing unit 23 performs smoothing processing, and the density conversion unit 24 performs density conversion processing.
Step S29: The CMYK conversion unit 42 performs a Lab-CMYK conversion process.
Step S30: The binarization unit 25 performs binarization processing.
Step T12 The loop for all the pixels of the image data of the post-magnification image 16d is terminated.
Step T13 A loop for all the pixels of the image data of the post-image processing image 16e is started.
Step S31 The edge correction unit 26 performs edge correction processing.
Step T14 The loop for all the pixels of the image data of the post-image processing image 16e is terminated.
Step S32 The encoder / decoder 15 performs encoding.
Step S33 The transmission / reception unit 14 transmits the encoded image data to the transmission destination or the image forming unit 12, and ends the process.

このように、本実施の形態においては、画像データがカラーの画像データである場合であっても、画像処理部72による画像処理が行われた後の2値の画像データの注目画素について、エッジ補正条件が成立するかどうかが判断され、エッジ補正条件が成立する場合にエッジ補正が行われるので、画像データの画像を再現したときに、画像の視認性が低くなることがない。   As described above, in this embodiment, even if the image data is color image data, the edge of the target pixel of the binary image data after the image processing by the image processing unit 72 is performed. It is determined whether or not the correction condition is satisfied, and edge correction is performed when the edge correction condition is satisfied. Therefore, when the image of the image data is reproduced, the visibility of the image is not lowered.

前記各実施の形態においては、画像データを処理するために、変倍部18、エッジ補正部26、属性判定部28、属性検出部71、画像処理部72等が配設されるようになっているが、変倍部18、エッジ補正部26、属性判定部28、属性検出部71、画像処理部72等を画像補正用のIC上に配設したハードウェアによって形成したり、アプリケーションソフトウェアによって形成したりすることができる。   In each of the embodiments, the scaling unit 18, the edge correction unit 26, the attribute determination unit 28, the attribute detection unit 71, the image processing unit 72, and the like are arranged to process the image data. However, the scaling unit 18, the edge correction unit 26, the attribute determination unit 28, the attribute detection unit 71, the image processing unit 72, and the like are formed by hardware arranged on an image correction IC or by application software. You can do it.

また、各実施の形態においては、バッファメモリ16と画像処理設定格納メモリ27とが独立に配設されるようになっているが、共通のメモリ内に配設することができる。   Further, in each embodiment, the buffer memory 16 and the image processing setting storage memory 27 are arranged independently, but can be arranged in a common memory.

なお、本発明は前記各実施の形態に限定されるものではなく、本発明の趣旨に基づいて種々変形させることが可能であり、それらを本発明の範囲から排除するものではない。   The present invention is not limited to the above embodiments, and various modifications can be made based on the gist of the present invention, and they are not excluded from the scope of the present invention.

10 ファクシミリ
26 エッジ補正部
28 属性判定部
40 複合機
72 画像処理部
10 FAX 26 Edge correction unit 28 Attribute determination unit 40 MFP 72 Image processing unit

Claims (9)

(a)画像データの画素の属性を判定する属性判定処理手段と、
(b)判定された属性に基づいて画像処理を行い、2値の画像データを生成する画像処理手段と、
(c)画像処理が行われた後の2値の画像データの注目画素について、エッジ補正条件が成立するかどうかを判断し、エッジ補正条件が成立する場合にエッジ補正を行うエッジ補正処理手段とを有するとともに、
(d)前記属性判定処理手段は、画像データの画素がエッジとして検出されたかどうかを判断することによって、画素の属性を判定し、
(e)前記エッジ補正処理手段は、画像データの画素がエッジとして検出された場合に、注目画素の周辺の画素のうちの、エッジとして検出されていないすべての画素の濃度値が注目画素の濃度値と同じであるかどうかによって、エッジ補正条件が成立するかどうかを判断することを特徴とする画像処理装置
(A) attribute determination processing means for determining the attribute of the pixel of the image data;
(B) image processing means for performing image processing based on the determined attribute and generating binary image data;
(C) edge correction processing means for determining whether or not an edge correction condition is satisfied for a target pixel of binary image data after image processing is performed, and performing edge correction when the edge correction condition is satisfied; and it has a,
(D) The attribute determination processing unit determines the attribute of the pixel by determining whether the pixel of the image data is detected as an edge,
(E) When the pixel of the image data is detected as an edge, the edge correction processing means calculates the density value of all the pixels that are not detected as the edge among the pixels around the target pixel as the density of the target pixel. An image processing apparatus that determines whether or not an edge correction condition is satisfied depending on whether or not the value is the same as the value .
(a)画像データの画素の属性を判定する属性判定処理手段と、
(b)判定された属性に基づいて画像処理を行い、2値の画像データを生成する画像処理手段と、
(c)画像処理が行われた後の2値の画像データの注目画素について、エッジ補正条件が成立するかどうかを判断し、エッジ補正条件が成立する場合に、エッジ補正を行うエッジ補正処理手段とを有するとともに、
(d)前記属性判定処理手段は、画像データの画素がエッジとして検出されたかどうか、画像データの画素が網点背景として検出されたかどうか、及び画像データの画素が色背景として検出されたかどうかを判断することによって、画素の属性を判定し、
(e)前記エッジ補正処理手段は、画像データの画素がエッジとして検出された場合に、注目画素の周辺の画素のうちの、エッジとして検出されていないすべての画素の濃度値が注目画素の濃度値と同じであるかどうかによって、エッジ補正条件が成立するかどうかを判断することを特徴とする画像処理装置
(A) attribute determination processing means for determining the attribute of the pixel of the image data;
(B) image processing means for performing image processing based on the determined attribute and generating binary image data;
(C) Edge correction processing means for determining whether or not the edge correction condition is satisfied for the target pixel of the binary image data after the image processing is performed, and performing edge correction when the edge correction condition is satisfied And having
(D) The attribute determination processing means determines whether the pixel of the image data is detected as an edge, whether the pixel of the image data is detected as a halftone dot background, and whether the pixel of the image data is detected as a color background. By judging the attribute of the pixel ,
(E) When the pixel of the image data is detected as an edge, the edge correction processing means calculates the density value of all the pixels that are not detected as the edge among the pixels around the target pixel as the density of the target pixel. An image processing apparatus that determines whether or not an edge correction condition is satisfied depending on whether or not the value is the same as the value .
記画像処理手段は、判定された属性に基づいて濃度変換処理及び2値化処理を行う請求項に記載の画像処理装置。 Pre Symbol image processing means, the image processing apparatus according to claim 2 for performing density conversion processing and binarization processing based on the determined attributes. 前記画像処理手段は、判定された属性に基づいて、濃度変換処理において濃度変換テーブルを選択し、2値化処理において2値化方法を選択する請求項に記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein the image processing unit selects a density conversion table in the density conversion process based on the determined attribute, and selects a binarization method in the binarization process. 前記画像処理手段は、画像データの画素がエッジとして検出されない場合において、網点背景として検出された場合に、平滑化処理を行う請求項3又は4に記載の画像処理装置。 The image processing apparatus according to claim 3 , wherein the image processing unit performs a smoothing process when a pixel of image data is not detected as an edge and is detected as a halftone dot background. 前記画像処理手段は、画像データの画素がエッジとして検出された場合に、画像のコントラストが高くなるように濃度値を変更するための濃度変換テーブルを選択する請求項に記載の画像処理装置。 The image processing apparatus according to claim 4 , wherein the image processing unit selects a density conversion table for changing the density value so that the contrast of the image is increased when a pixel of the image data is detected as an edge. 前記画像処理手段は、画像データの画素がエッジとして検出されず、網点背景として検出されず、かつ、色背景として検出されない場合に、画像のコントラストが高くなるように濃度値を変更するための濃度変換テーブルを選択する請求項に記載の画像処理装置。 The image processing means is for changing the density value so that the contrast of the image is increased when the pixel of the image data is not detected as an edge, not detected as a halftone dot background, and not detected as a color background. The image processing apparatus according to claim 4 , wherein a density conversion table is selected. 前記画像処理手段は、画像データの画素がエッジとして検出されない場合において、網点背景として検出されるか、又は色背景として検出された場合に、画像が明るくなるように濃度値を変更するための濃度変換テーブルを選択する請求項に記載の画像処理装置。 The image processing means for changing the density value so that the image becomes bright when the pixel of the image data is not detected as an edge, or is detected as a halftone dot background or a color background. The image processing apparatus according to claim 4 , wherein a density conversion table is selected. (a)画像データの画素の属性を判定する属性判定処理手段と、
(b)判定された属性に基づいて画像処理を行い、2値の画像データを生成する画像処理手段と、
(c)画像処理が行われた後の2値の画像データの注目画素について、エッジ補正条件が成立するかどうかを判断し、エッジ補正条件が成立する場合にエッジ補正を行うエッジ補正処理手段とを有するとともに、
(d)前記画像データはカラーの画像データであり、
(e)前記属性判定処理手段は、画像データの画素がエッジとして検出されたかどうかを判断することによって、画素の属性を判定し、
(f)前記エッジ補正処理手段は、画像データの画素がエッジとして検出された場合に、黒プレーンの注目画素の周辺の画素のうちの、エッジとして検出されていないすべての画素の濃度値が注目画素の濃度値と同じであるかどうかによって、エッジ補正条件が成立するかどうかを判断することを特徴とする画像処理装置。
(A) attribute determination processing means for determining the attribute of the pixel of the image data;
(B) image processing means for performing image processing based on the determined attribute and generating binary image data;
(C) edge correction processing means for determining whether or not an edge correction condition is satisfied for a target pixel of binary image data after image processing is performed, and performing edge correction when the edge correction condition is satisfied; And having
(D) the image data is color image data;
(E) The attribute determination processing unit determines an attribute of the pixel by determining whether a pixel of the image data is detected as an edge,
(F) When the pixel of the image data is detected as an edge , the edge correction processing means pays attention to the density values of all the pixels that are not detected as the edge among the pixels around the target pixel of the black plane. An image processing apparatus that determines whether or not an edge correction condition is satisfied based on whether or not a pixel density value is the same.
JP2012143335A 2012-06-26 2012-06-26 Image processing device Expired - Fee Related JP5873400B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012143335A JP5873400B2 (en) 2012-06-26 2012-06-26 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012143335A JP5873400B2 (en) 2012-06-26 2012-06-26 Image processing device

Publications (2)

Publication Number Publication Date
JP2014007657A JP2014007657A (en) 2014-01-16
JP5873400B2 true JP5873400B2 (en) 2016-03-01

Family

ID=50105008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012143335A Expired - Fee Related JP5873400B2 (en) 2012-06-26 2012-06-26 Image processing device

Country Status (1)

Country Link
JP (1) JP5873400B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6241292B2 (en) * 2014-01-27 2017-12-06 株式会社リコー Integrated circuit, image processing apparatus, and image forming apparatus
JP6338469B2 (en) * 2014-06-23 2018-06-06 キヤノン株式会社 Image processing apparatus and image processing method
JP7271925B2 (en) * 2018-12-07 2023-05-12 コニカミノルタ株式会社 VOICE OPERATION SYSTEM, VOICE OPERATION METHOD AND VOICE OPERATION PROGRAM

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07170399A (en) * 1993-10-13 1995-07-04 Hitachi Ltd Image processor
JP3335830B2 (en) * 1995-12-28 2002-10-21 シャープ株式会社 Image processing device
JP2011082779A (en) * 2009-10-07 2011-04-21 Canon Electronics Inc Image processor and image processing method
JP5455038B2 (en) * 2009-12-28 2014-03-26 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2011166776A (en) * 2010-02-09 2011-08-25 Toshiba Corp Apparatus and method for processing image

Also Published As

Publication number Publication date
JP2014007657A (en) 2014-01-16

Similar Documents

Publication Publication Date Title
JP5220828B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, program, and recording medium
JP5089713B2 (en) Image compression apparatus, compressed image output apparatus, image compression method, computer program, and recording medium
JP2010056799A (en) Image processor, image forming apparatus, image processing method, image processing program, and computer-readable recording medium
JP5293514B2 (en) Image processing apparatus and image processing program
JP4764938B2 (en) Image processing apparatus, image forming apparatus, image processing apparatus control method, program, and recording medium
JP4763026B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium
JP5873400B2 (en) Image processing device
JP2010258799A (en) Image processing apparatus and image forming apparatus equipped with the same, image processing method, control program, and recording medium
JP5225201B2 (en) Image processing device
US11196874B2 (en) Image processing device, image forming apparatus, image reading device, control method, and recording medium
JP5133214B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP4628984B2 (en) Image processing device
JP5052562B2 (en) Image processing device
JP5549371B2 (en) Image generation device, transmission device, image transmission system, and program used therefor
JP2010258706A (en) Image processing apparatus, image forming apparatus, method of controlling image processing apparatus, program, and recording medium
JP5072907B2 (en) Image processing device
JP2009260923A (en) Image processing device, image processing method, and image processing program
JP5595141B2 (en) Image processing apparatus, control method therefor, and computer program
JP2010283464A (en) Image processor, and image processing method
JP4412339B2 (en) Image forming apparatus and image data correction method
JP2023112514A (en) Image processing apparatus, method for controlling the same, and program
JP2022061279A (en) Image processing apparatus, method for controlling image processing apparatus, and program
JP2023111408A (en) Image processing apparatus and control method thereof and program
JP4974072B2 (en) Image processing device
JP2009290756A (en) Image processing apparatus, image processing method, program for making computer implement the method, and computer-readable recording medium with the program recorded thereon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160115

R150 Certificate of patent or registration of utility model

Ref document number: 5873400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees