JP6648933B2 - Image processing device, image forming device, image processing method, and program. - Google Patents

Image processing device, image forming device, image processing method, and program. Download PDF

Info

Publication number
JP6648933B2
JP6648933B2 JP2018159044A JP2018159044A JP6648933B2 JP 6648933 B2 JP6648933 B2 JP 6648933B2 JP 2018159044 A JP2018159044 A JP 2018159044A JP 2018159044 A JP2018159044 A JP 2018159044A JP 6648933 B2 JP6648933 B2 JP 6648933B2
Authority
JP
Japan
Prior art keywords
pixel
edge
image
value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018159044A
Other languages
Japanese (ja)
Other versions
JP2018196151A (en
Inventor
健一郎 春田
健一郎 春田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018159044A priority Critical patent/JP6648933B2/en
Publication of JP2018196151A publication Critical patent/JP2018196151A/en
Application granted granted Critical
Publication of JP6648933B2 publication Critical patent/JP6648933B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像データにおけるエッジ部のジャギーを改善する技術に関する。   The present invention relates to a technique for improving jaggies at edge portions in image data.

従来、画像形成装置において、ジャギーと呼ばれる文字等のエッジ部に発生するガタツキを改善する技術がいくつか提案されている。ジャギーの発生理由は様々あるが、大きな理由としては、低解像度のプリンタによる画素のガタツキと、スクリーン処理に伴うガタツキが考えられる。   2. Description of the Related Art Conventionally, in an image forming apparatus, there have been proposed some techniques for improving rattling occurring at an edge portion of a character or the like called jaggy. There are various reasons for the occurrence of jaggies, but the main reasons include rattling of pixels by a low-resolution printer and rattling due to screen processing.

スクリーン処理に伴うガタツキを改善する技術としては、例えばスクリーン処理前の画像データから補正データを生成し、スクリーン処理後の画像データのエッジ部に補正データを縁取るように付加するものがある(例えば、特許文献1参照)。これは、エッジ補正処理を行うべきエッジ部か否かを判断し、エッジ部であった場合、補正データとスクリーン処理後の画像データとを比較し、値の大きい方のデータを出力することで、スクリーン処理によるジャギーを改善している。更に、この技術では、簡易な構成であるにも関わらず、前者の低解像度のプリンタによる画素のガタツキも同時に改善される。   As a technique for improving the backlash caused by the screen processing, for example, there is a technique of generating correction data from image data before the screen processing and adding the correction data to an edge portion of the image data after the screen processing so as to border the correction data (for example, And Patent Document 1). This is done by judging whether or not the edge portion should be subjected to the edge correction process, and in the case of the edge portion, comparing the correction data with the image data after the screen processing, and outputting the data having the larger value. , Has improved jaggies due to screen processing. Furthermore, with this technique, the rattling of pixels by the former low-resolution printer is also improved at the same time, despite the simple configuration.

特開2006−295877号公報JP 2006-295877 A

上記特許文献1の方法は、エッジ部に対してハーフドット中心で構成される補正データとフルドット中心に構成されるスクリーン処理後の画像データとを合成して出力するものである。このため、エッジ部がハーフドットとフルドットという異なるドットで構成され、ハーフドットが近くのフルドットに吸収されることがあり、エッジ部のジャギーの改善の度合いが小さい場合があった。これは、電子写真方式の場合は、現像時に、補正データの浅い潜像がスクリーン処理後の画像データの深い潜像と隣接する箇所で、より潜像の深いところにトナーが引き寄せられてしまうためである。その結果、浅い潜像部で現像しにくくなり、エッジ部のジャギーの改善の度合いが小さい場合があった。   The method disclosed in Japanese Patent Application Laid-Open No. H11-157100 combines and outputs correction data composed of half-dot centers with respect to edge portions and image data after screen processing composed of full-dot centers. For this reason, the edge portion is composed of different dots of a half dot and a full dot, and the half dot may be absorbed by a nearby full dot, and the degree of improvement in jaggies at the edge portion may be small. This is because, in the case of the electrophotographic method, at the time of development, a latent image having a shallow correction data is attracted to a deeper latent image at a location adjacent to a deeper latent image of image data after screen processing. It is. As a result, development is difficult in a shallow latent image portion, and the degree of improvement of jaggies in an edge portion is small in some cases.

本発明に係る画像処理装置は、入力画像データからオブジェクトのエッジを判定する判定手段と、前記エッジを構成する画素の画素値を補正するエッジ補正データを生成する手段と、前記入力画像データにスクリーン処理を行なってスクリーンデータを生成する手段と、前記スクリーンデータにおける前記エッジに存在するスクリーンドットを、前記オブジェクトの内側にずらした出力画像データを生成する画像合成手段と、を備えることを特徴とする。   An image processing apparatus according to the present invention includes: a determination unit configured to determine an edge of an object from input image data; a unit configured to generate edge correction data that corrects a pixel value of a pixel configuring the edge; Means for generating screen data by performing processing, and image combining means for generating output image data in which screen dots existing at the edge of the screen data are shifted inside the object. .

本発明によれば、画像劣化を最小限に抑えながら、エッジ部のジャギーを改善することができる。   ADVANTAGE OF THE INVENTION According to this invention, the jaggy of an edge part can be improved, minimizing image degradation.

実施例1に係る、MFPの構成を示す概略ブロック図である。FIG. 2 is a schematic block diagram illustrating a configuration of the MFP according to the first embodiment. プリンタ部の詳細を示す図である。FIG. 3 is a diagram illustrating details of a printer unit. 実施例1に係る、画像処理部の内部構成を示すブロック図である。FIG. 3 is a block diagram illustrating an internal configuration of an image processing unit according to the first embodiment. エッジ情報生成部の内部構成を示すブロック図である。FIG. 3 is a block diagram illustrating an internal configuration of an edge information generation unit. 混合データ変換処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a mixed data conversion process. エッジ判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an edge determination process. 3値以上のエッジ判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of edge determination processing of three or more values. エッジ判定処理の具体例を説明する。A specific example of the edge determination processing will be described. 注目画素とエッジ方向判定部で参照される4つの画素の位置関係を示した図である。FIG. 5 is a diagram illustrating a positional relationship between a target pixel and four pixels referred to by an edge direction determination unit. エッジ方向判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an edge direction determination process. エッジ補正データ生成処理で用いられるルックアップテーブルの一例を示している。9 shows an example of a look-up table used in edge correction data generation processing. スクリーン処理部で行われるスクリーン処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of screen processing performed by a screen processing unit. 位相をずらしたディザマトリクスを説明する図である。FIG. 3 is a diagram illustrating a dither matrix with a phase shifted. スクリーン処理部でのスクリーン処理結果と位相ずれスクリーン処理部でのスクリーン処理結果とを比較して説明する図である。It is a figure which compares and explains the screen processing result in a screen processing part, and the screen processing result in a phase shift screen processing part. 実施例1に係る、画像合成処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of an image combining process according to the first embodiment. 参照画素を説明する図である。FIG. 4 is a diagram illustrating a reference pixel. 位相ずれスクリーン処理の結果を用いずにエッジ補正処理を行った場合の一例を説明する図である。FIG. 9 is a diagram illustrating an example of a case where edge correction processing is performed without using a result of the phase shift screen processing. 実施例1を適用してエッジ補正処理を行った場合の一例を説明する図である。FIG. 7 is a diagram illustrating an example of a case where an edge correction process is performed by applying the first embodiment. 実施例1によるエッジ補正処理後の画像における各画素の露光量を説明する図である。FIG. 4 is a diagram illustrating an exposure amount of each pixel in an image after the edge correction processing according to the first embodiment. 実施例2に係る、画像処理部の内部構成を示すブロック図である。FIG. 13 is a block diagram illustrating an internal configuration of an image processing unit according to a second embodiment. 実施例2に係る、エッジ情報生成部の内部構成を示すブロック図である。FIG. 13 is a block diagram illustrating an internal configuration of an edge information generation unit according to the second embodiment. 実施例2に係る、画像合成処理の流れを示すフローチャートである。9 is a flowchart illustrating a flow of an image combining process according to the second embodiment. 実施例2を用いてエッジ補正処理を行なった場合の一例を説明する図である。FIG. 13 is a diagram illustrating an example of a case where an edge correction process is performed using the second embodiment. 所定の周辺領域が5×5画素の領域の場合における補正率テーブルの特性の一例を示す図である。FIG. 7 is a diagram illustrating an example of characteristics of a correction rate table when a predetermined peripheral area is an area of 5 × 5 pixels. 実施例2におけるエッジ補正処理の結果の一例を示す図である。FIG. 14 is a diagram illustrating an example of a result of an edge correction process according to the second embodiment.

以下、本発明を実施する為の形態について図面を用いて説明する。なお、以下の実施例において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

本実施例では、画像形成装置として、コピー、プリント、FAXなどの複数の機能を有する電子写真方式のデジタル複合機(以下、MFP)を例に挙げて説明する。しかし、これに限らず、例えばインクジェット方式など他のプロセスを用いた機器でも本実施例は適用可能である。   In this embodiment, an electrophotographic digital multifunction peripheral (hereinafter, MFP) having a plurality of functions such as copy, print, and facsimile will be described as an example of an image forming apparatus. However, the present embodiment is not limited to this, and can be applied to an apparatus using another process such as an inkjet method.

図1は、本実施例に係る、MFP100の構成を示す概略ブロック図である。MFP100は、スキャナ部101、コントローラ102、プリンタ部103及び操作部104で構成される。   FIG. 1 is a schematic block diagram illustrating a configuration of the MFP 100 according to the present embodiment. The MFP 100 includes a scanner unit 101, a controller 102, a printer unit 103, and an operation unit 104.

スキャナ部101は、原稿の画像を光学的に読み取り、画像データとして取得する。   The scanner unit 101 optically reads an image of a document and acquires the image as image data.

コントローラ102は、CPU、ROM、RAMを備え、スキャナ部101で読み取られた画像データ等に所定の画像処理を施す。画像処理が施された画像データは、コントローラ102内のRAMに格納される。   The controller 102 includes a CPU, a ROM, and a RAM, and performs predetermined image processing on image data and the like read by the scanner unit 101. The image data subjected to the image processing is stored in the RAM in the controller 102.

プリンタ部103は、画像処理が施された画像データに対し、指定された印刷設定条件に従って電子写真方式によって記録用紙に画像を形成する。本実施例のプリンタ部103では、PWMによってレーザの露光量を調整が可能で、各画素4ビットの画像データが入力されるものとする。   The printer unit 103 forms an image on recording paper by electrophotography according to designated print setting conditions for the image data on which image processing has been performed. In the printer unit 103 of this embodiment, it is assumed that the exposure amount of the laser can be adjusted by PWM, and image data of 4 bits per pixel is input.

操作部104は、ユーザが各種操作を行なうためのユーザインタフェースである。ユーザは、印刷対象の画像データに対する各種印刷条件の設定などを、操作部104を介して行う。   The operation unit 104 is a user interface for the user to perform various operations. The user sets various printing conditions for image data to be printed via the operation unit 104.

MFP100には、ネットワーク106を介して画像データを管理するサーバ108や、MFP100に対して印刷の実行を指示するパーソナルコンピュータ(PC)107等が接続される。コントローラ102は、サーバ108やPC107から印刷の実行が指示されると、サーバ108やPC107から送信された画像データをラスタライズしてプリンタ部103に対応した画像データ(ビットマップデータ)に変換し、RAMに格納する。   A server 108 that manages image data via a network 106, a personal computer (PC) 107 that instructs the MFP 100 to execute printing, and the like are connected to the MFP 100. When print execution is instructed from the server 108 or the PC 107, the controller 102 rasterizes the image data transmitted from the server 108 or the PC 107, converts the rasterized image data into image data (bitmap data) corresponding to the printer unit 103, and To be stored.

図2は、プリンタ部103の詳細を示す図であり、電子写真方式によって記録媒体上に画像を形成するためのカラー4色ドラムの機構が示されている。   FIG. 2 is a diagram showing details of the printer unit 103, and shows a mechanism of a color four-color drum for forming an image on a recording medium by an electrophotographic method.

コントローラ102内のRAMに一旦記憶されたビットマップデータと属性データは、再度コントローラ102内で後述する印刷用の画像処理が行われた後、プリンタ部103へ転送される。プリンタ部103では、プリンタ部103内のPWM制御によってパルス信号へと変換され、レーザ記録部でシアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)の4色の記録レーザ光に変換される。そして、記録レーザ光は各色の感光体201に照射され、各感光体に静電潜像を形成する。   The bitmap data and the attribute data once stored in the RAM in the controller 102 are transferred to the printer unit 103 after image processing for printing described later is performed again in the controller 102. In the printer unit 103, the pulse signal is converted into a pulse signal by the PWM control in the printer unit 103, and recording laser light of four colors of cyan (C), magenta (M), yellow (Y), and black (K) in the laser recording unit. Is converted to Then, the recording laser light is applied to the photoconductor 201 of each color to form an electrostatic latent image on each photoconductor.

プリンタ部103は、トナーカートリッジ202から供給されるトナーにより各感光体にトナー現像を行い、各感光体に可視化されたトナー画像は中間転写ベルト203に一次転写される。中間転写ベルト203は、図2において時計回転方向に回転し、用紙カセット204から給紙搬送路205を通って給送された記録紙が二次転写位置206にきたところで、中間転写ベルト203から記録紙へとトナー画像が転写される。画像が転写された記録紙は、定着器207で加圧と熱によりトナーが定着され、排紙搬送路を搬送された後、フェイスダウンのセンタートレイ208或いはフェースアップのサイドトレイ209へと排紙される。   The printer unit 103 performs toner development on each photoconductor with toner supplied from the toner cartridge 202, and the toner image visualized on each photoconductor is primarily transferred to the intermediate transfer belt 203. The intermediate transfer belt 203 rotates clockwise in FIG. 2, and when the recording paper fed from the paper cassette 204 through the paper feed path 205 arrives at the secondary transfer position 206, the recording is started from the intermediate transfer belt 203. The toner image is transferred to the paper. The recording paper on which the image has been transferred is fixed with toner by pressure and heat in a fixing device 207, and is conveyed through a paper discharge conveyance path. Then, the recording paper is discharged to a face-down center tray 208 or a face-up side tray 209. Is done.

次に、コントローラ102内で実行される印刷用の画像処理について説明する。図3は、画像処理を担う機能部としての画像処理部の内部構成を示すブロック図である。すなわち、以下に述べる画像処理部300における各処理は、コントローラ102内のCPUが、ROMに保持された制御プログラムをRAMに展開して実行することで実現される。本実施例に係る画像処理部300は、色補正部301、エッジ情報生成部302、ガンマ補正部303、エッジ補正データ生成部304、スクリーン処理部305、位相ずれスクリーン処理部306、画像合成部307で構成される。   Next, image processing for printing executed in the controller 102 will be described. FIG. 3 is a block diagram illustrating an internal configuration of an image processing unit as a functional unit that performs image processing. That is, each process in the image processing unit 300 described below is realized by the CPU in the controller 102 expanding the control program stored in the ROM into the RAM and executing the control program. The image processing unit 300 according to the present embodiment includes a color correction unit 301, an edge information generation unit 302, a gamma correction unit 303, an edge correction data generation unit 304, a screen processing unit 305, a phase shift screen processing unit 306, and an image synthesis unit 307. It consists of.

色補正部301は、コントローラ102内のRAMから取得した画像データ(ビットマップデータ)に対して色補正処理を行う。具体的には、色変換LUTやマトリクス演算によってCMYKの4種類の色(画像信号)で濃度を表現したCMYK色空間の画像データに変換する。変換された画像データは、各色において画素毎に8ビット(0〜255)の値を持っている。   The color correction unit 301 performs a color correction process on image data (bitmap data) acquired from the RAM in the controller 102. Specifically, the image data is converted into image data in a CMYK color space in which the density is expressed by four types of colors (image signals) of CMYK by a color conversion LUT or matrix operation. The converted image data has an 8-bit (0-255) value for each pixel for each color.

エッジ情報生成部302は、CMYKの色毎にエッジ情報を生成する。このエッジ情報は、画素毎に3ビットの値を持つデータである。上位1ビットは、当該画素がエッジを構成する画素(以下、エッジ画素)か否かを示し、エッジ画素である場合に“1”、非エッジ画素である場合に“0”となる。下位の2ビットは、エッジの方向(Edge Direction)を示し、上を“00”下を“01”、右を“10”、左を“11”で表す。生成されたエッジ情報は、後述の画像合成部307で処理を切り替える際に参照される。   The edge information generation unit 302 generates edge information for each color of CMYK. The edge information is data having a 3-bit value for each pixel. The upper one bit indicates whether or not the pixel is a pixel forming an edge (hereinafter, an edge pixel), and is “1” when the pixel is an edge pixel and “0” when the pixel is a non-edge pixel. The lower two bits indicate the direction of the edge (Edge Direction). The upper part is represented by “00”, the lower part by “01”, the right part by “10”, and the left part by “11”. The generated edge information is referred to when switching processing in an image combining unit 307 described below.

ガンマ補正部303は、入力されたCMYK画像データに対し、画像が記録紙へと転写された際に所望の濃度特性となるよう、一次元のルックアップテーブルを用いて補正する処理(ガンマ補正処理)を行なう。ガンマ補正処理が施された画像データは、エッジ補正データ生成部304、スクリーン処理部305、位相ずれスクリーン処理部306、画像合成部307に送られる。   The gamma correction unit 303 corrects the input CMYK image data using a one-dimensional look-up table so as to have a desired density characteristic when the image is transferred to recording paper (gamma correction processing). ). The image data that has been subjected to the gamma correction processing is sent to the edge correction data generation unit 304, the screen processing unit 305, the phase shift screen processing unit 306, and the image synthesis unit 307.

エッジ補正データ生成部304は、入力された画像データからエッジ部の補正データ(以下、エッジ補正データ)を生成する。生成されたエッジ補正データは画像合成部307に送られる。   The edge correction data generation unit 304 generates correction data of an edge portion (hereinafter, edge correction data) from the input image data. The generated edge correction data is sent to the image synthesis unit 307.

スクリーン処理部305は、入力された画像データに対しスクリーン処理を行って、スクリーンデータ(ハーフトーン画像データ)を生成する。生成されたスクリーンデータは画像合成部307に送られる。   The screen processing unit 305 performs screen processing on the input image data to generate screen data (halftone image data). The generated screen data is sent to the image combining unit 307.

位相ずれスクリーン処理部306は、入力された画像データに対し、スクリーン処理部305で使用したディザマトリクスの位相をずらしたディザマトリクスを用いて、位相のずれたスクリーンデータを生成する。生成された位相ずれスクリーンデータは画像合成部307へ送られる。   The phase shift screen processing unit 306 generates screen data having a phase shift with respect to the input image data by using a dither matrix in which the phase of the dither matrix used in the screen processing unit 305 is shifted. The generated phase shift screen data is sent to the image synthesizing unit 307.

画像合成部307は、エッジ情報生成部302から受け取ったエッジ情報とガンマ補正後の画像データに基づいて、後述する画像合成処理を行なう。   The image synthesizing unit 307 performs an image synthesizing process described later based on the edge information received from the edge information generating unit 302 and the image data after gamma correction.

<エッジ情報生成処理>
次に、エッジ情報生成部302におけるエッジ情報生成処理について、図4〜図9を参照して詳しく説明する。
<Edge information generation processing>
Next, the edge information generation processing in the edge information generation unit 302 will be described in detail with reference to FIGS.

図4は、エッジ情報生成部302の内部構成を示すブロック図である。エッジ情報生成部302は、混合データ変換部401、エッジ判定部402、内側判定部403、エッジ方向判定部404、判定結果統合部405で構成される。エッジ情報生成部302に、CMYK色空間に変換された画像データが入力されると、混合データ変換部401に送られる。   FIG. 4 is a block diagram showing the internal configuration of the edge information generation unit 302. The edge information generation unit 302 includes a mixed data conversion unit 401, an edge determination unit 402, an inside determination unit 403, an edge direction determination unit 404, and a determination result integration unit 405. When the image data converted into the CMYK color space is input to the edge information generation unit 302, it is sent to the mixed data conversion unit 401.

混合データ変換部401は、入力された画像データに対し、注目画素を中心とした所定の参照領域(ここでは、5×5画素の領域)単位で混合データ変換処理を行って、CMYKの4色を任意の割合で混合したデータ(以下、混合データ)を生成する。画像データ内の各画素は8ビットの値を持っているが、以降の処理では8ビットのデータまでは必要としないので、本実施例では下位2ビットを切り捨てた上でこの変換処理を行なっている。これにより回路規模を小さくすることができる。混合データ変換処理の詳細については後述する。生成された混合データは、エッジ判定部402、内側判定部403、エッジ方向判定部404に送られる。   The mixed data conversion unit 401 performs a mixed data conversion process on the input image data in units of a predetermined reference area (here, an area of 5 × 5 pixels) centering on the target pixel, and outputs the CMYK four colors. Is generated at an arbitrary ratio (hereinafter, mixed data). Each pixel in the image data has an 8-bit value. However, in the following processing, up to 8-bit data is not necessary. In this embodiment, the lower 2 bits are discarded and this conversion processing is performed. I have. As a result, the circuit scale can be reduced. The details of the mixed data conversion process will be described later. The generated mixed data is sent to the edge determination unit 402, the inside determination unit 403, and the edge direction determination unit 404.

エッジ判定部402は、注目画素が前述のエッジ補正データを適用すべきエッジ画素か否かを判定する処理(エッジ判定処理)を行なう。このエッジ判定処理の詳細については後述する。エッジ判定処理の結果はエッジ判定信号(例えば、エッジ画素の場合は“1”、非エッジ画素の場合は“0”とする1ビットの信号)として判定結果統合部405に送られる。   The edge determination unit 402 performs a process (edge determination process) of determining whether the target pixel is an edge pixel to which the above-described edge correction data is to be applied. The details of this edge determination processing will be described later. The result of the edge determination processing is sent to the determination result integration unit 405 as an edge determination signal (for example, a 1-bit signal that is “1” for an edge pixel and “0” for a non-edge pixel).

内側判定部403は、注目画素が内側であるか否かを判定する処理(内側判定処理)を行なう。具体的には、注目画素の周囲8画素において画素値の最大値を求め、注目画素の画素値が当該最大値以上である場合に当該注目画素を内側と判定する。この内側判定処理の結果は内側判定信号(例えば内側の場合は“1”、内側でない場合は“0”とする1ビットの信号)として、判定結果統合部405に送られる。   The inside determination unit 403 performs a process of determining whether the target pixel is inside (inside determination process). Specifically, the maximum value of the pixel values of eight pixels around the target pixel is obtained, and when the pixel value of the target pixel is equal to or larger than the maximum value, the target pixel is determined to be inside. The result of the inner determination processing is sent to the determination result integration unit 405 as an inner determination signal (for example, a 1-bit signal that is “1” when inside, and “0” when not inside).

エッジ方向判定部404は、注目画素を基準としたエッジの方向を判定する処理(エッジ方向判定処理)を行う。具体的には、注目画素の画素値とその上下左右の画素の画素値を比較し、両者に差がある場合にはその方向にエッジがあると判定する。このエッジ方向判定処理の結果は、エッジ方向信号として判定結果統合部405に送られる。   The edge direction determination unit 404 performs processing (edge direction determination processing) for determining the direction of an edge based on the target pixel. Specifically, the pixel value of the pixel of interest is compared with the pixel values of the upper, lower, left, and right pixels, and if there is a difference between them, it is determined that there is an edge in that direction. The result of the edge direction determination processing is sent to the determination result integration unit 405 as an edge direction signal.

判定結果統合部405は、入力されるエッジ判定信号、内側判定信号、エッジ方向信号に基づいて、前述のエッジ情報を生成する。具体的には、まずエッジ情報の上位1ビットについては、エッジ判定処理でエッジ画素と判定され、かつ、内側判定処理で内側と判定された場合は“1”を設定し、それ以外の場合は“0”を設定する。さらにエッジ情報の下位2ビットについては、エッジ方向判定処理の結果を下位の2ビットにそのまま代入する。こうして、3ビットのエッジ情報を画素毎に生成する。   The determination result integration unit 405 generates the above-described edge information based on the input edge determination signal, inside determination signal, and edge direction signal. Specifically, first, the upper 1 bit of the edge information is set to “1” when it is determined to be an edge pixel in the edge determination process and is determined to be inside by the inside determination process, and otherwise, Set “0”. Further, for the lower two bits of the edge information, the result of the edge direction determination processing is directly substituted into the lower two bits. Thus, 3-bit edge information is generated for each pixel.

<混合データ変換処理>
混合データ変換部401で行われる混合データ変換処理の詳細について説明する。
<Mixed data conversion processing>
The details of the mixed data conversion process performed by the mixed data conversion unit 401 will be described.

図5は、混合データ変換処理の流れを示すフローチャートである。この混合データ変換処理は、CMYK画像データにおける上述の参照領域(5×5画素の領域)を構成する全25画素に対して画素毎に実行される。   FIG. 5 is a flowchart showing the flow of the mixed data conversion process. This mixed data conversion processing is executed for each of all 25 pixels constituting the above-described reference area (area of 5 × 5 pixels) in the CMYK image data.

ステップ501において、混合データ変換部401は、Kの画素値DKとKの混合率MRKとの積を求め、Kの画素値DK’を得る。このとき、混合率MRKは、0〜15の範囲で任意に設定される値である。これによって、CMYの有彩色のみで混合データが生成するか、無彩色のKを含めて混合データを生成するのかを決定する。 In step 501, the mixed data conversion unit 401 obtains the product of the K pixel value D K and the K mixing ratio MR K to obtain a K pixel value D K ′. In this case, the mixing ratio MR K is a value arbitrarily set in the range of 0 to 15. Thus, it is determined whether the mixed data is generated only with the CMY chromatic colors or the mixed data including the achromatic K is generated.

ステップ502において、混合データ変換部401は、ステップ501で得たKの画素値DK’がCの画素値DCよりも大きいかどうかを判定する。画素値DK’が画素値DCよりも大きければステップ503に進む。一方、画素値DK’が画素値DCよりも大きくなければステップ504に進む。 In step 502, the mixed data conversion unit 401 determines whether the K pixel value D K ′ obtained in step 501 is larger than the C pixel value DC. If the pixel value D K ′ is larger than the pixel value D C , the process proceeds to step 503. On the other hand, if the pixel value D K ′ is not larger than the pixel value D C , the process proceeds to step 504.

ステップ503において、混合データ変換部401は、ステップ501で得たKの画素値DK’とCの混合率MRCとの積を求め、Cの画素値DC’を得る。ここで、混合率MRCも、上述の混合率MRKと同様、0〜15の範囲で任意に設定される値であり、混合率MRCの値を変化させることで、生成される混合データに対するCの割合を制御することができる。 In step 503, the mixed data conversion unit 401 obtains the product of the K pixel value D K ′ obtained in step 501 and the C mixing ratio MR C to obtain a C pixel value D C ′. Here, the mixture ratio MR C is also a value arbitrarily set in the range of 0 to 15 similarly to the above-described mixture ratio MR K, and the mixture data generated by changing the value of the mixture ratio MR C Can be controlled.

ステップ504において、混合データ変換部401は、Cの画素値DCと上述の混合率MRCとの積を求め、Cの画素値DC’を得る。 In step 504, the mixed data conversion unit 401 obtains the product of the pixel value DC of C and the above-described mixing ratio MR C to obtain the pixel value DC 'of C.

ステップ505において、混合データ変換部401は、ステップ501で得たKの画素値DK’がMの画素値DMよりも大きいかどうかを判定する。画素値DK’が画素値DMよりも大きければステップ506へ進む。一方、画素値DK’が画素値DMよりも大きくなければステップ507に進む。 In step 505, the mixed data conversion unit 401 determines whether the K pixel value DK ′ obtained in step 501 is larger than the M pixel value DM. If the pixel value D K ′ is larger than the pixel value D M , the process proceeds to step 506. On the other hand, if the pixel value D K ′ is not larger than the pixel value D M , the process proceeds to step 507.

ステップ506において、混合データ変換部401は、ステップ501で得たKの画素値DK’とMの混合率MRMとの積を求め、Mの画素値DM’を得る。ここで、混合率MRMも、上述の混合率MRKと同様、0〜15の範囲で任意に設定される値であり、混合率MRMの値を変化させることで、生成される混合データに対するMの割合を制御することができる。 In step 506, mixed data conversion unit 401 'obtains the product of the mixing ratio MR M of M, the pixel value D M of M' pixel value D K of K obtained at step 501 obtain. Here, the mixing ratio MR M also, as in the mixing ratio MR K above, a value is arbitrarily set in a range of 0 to 15, by changing the value of the mixing ratio MR M, mixed data generated Can be controlled.

ステップ507において、混合データ変換部401は、ステップ501で得たKの画素値DMとMの混合率MRMとの積を求め、Mの画素値DM’を得る。 In step 507, mixed data conversion unit 401 obtains a product with mixing ratio MR M pixel value D M as M K obtained in step 501, obtaining a pixel value D M 'of M.

ステップ508において、混合データ変換部401は、ステップ501で得たKの画素値DK’がYの画素値DYよりも大きいかどうかを判定する。画素値DK’が画素値DYよりも大きければステップ509へ進む。一方、画素値DK’が画素値DYよりも大きくなければステップ510に進む。 In step 508, the mixed data conversion unit 401 determines whether the K pixel value DK ′ obtained in step 501 is larger than the Y pixel value DY. If the pixel value D K ′ is larger than the pixel value D Y , the process proceeds to step 509. On the other hand, if the pixel value D K ′ is not larger than the pixel value D Y , the process proceeds to step 510.

ステップ509において、混合データ変換部401は、ステップ501で得たKの画素値DK’とYの混合率MRYとの積を求め、Yの画素値DY’を得る。ここで、混合率MRYも、上述の混合率MRKと同様、0〜15の範囲で任意に設定される値であり、混合率MRYを変化させることで、生成される混合データに対するYの割合を制御することができる。 In step 509, the mixed data conversion unit 401 obtains the product of the K pixel value D K ′ obtained in step 501 and the Y mixing ratio MR Y to obtain a Y pixel value D Y ′. Here, the mixing ratio MR Y also, similarly to the mixing ratio MR K above, a value is arbitrarily set in a range of 0 to 15, by changing the mixing ratio MR Y, Y for the mixed data generated Can be controlled.

ステップ510において、混合データ変換部401は、ステップ501で得たKの画素値DYとYの混合率MRYとの積を求め、Yの画素値DY’を得る。 In step 510, mixed data conversion unit 401 obtains a product of the mixing ratio MR Y pixel values D Y and Y K obtained in step 501 to obtain the pixel values D Y of Y '.

ステップ511において、混合データ変換部401は、ここまでの処理で求めたDC’、DM’、 DY’の合計値を求め、求めた合計値をビットシフト量BSによって指定されたビット数分だけ右シフトすることによって、画素毎の混合データ[MIX]を求める。 In step 511, mixed data conversion unit 401, D C was determined by the processing up to here ', D M', to find the total value of D Y ', the number of bits specified a total value obtained by the bit shift amount BS By right shifting by the amount, the mixed data [MIX] for each pixel is obtained.

ステップ512において、混合データ変換部401は、ステップ511で求めた混合データ[MIX]の値が、6ビットの最大値である63よりも大きいかどうかを判定する。ステップ511で求めた混合データ[MIX]の値が63よりも大きい場合は、ステップ513に進む。一方、ステップ511で求めた混合データ[MIX]の値が63よりも大きくない場合は、本処理を終える。すなわち、ステップ511で求めた値が、混合データ[MIX]として決定される。   In step 512, the mixed data conversion unit 401 determines whether the value of the mixed data [MIX] obtained in step 511 is larger than 63, which is the maximum value of 6 bits. If the value of the mixed data [MIX] obtained in step 511 is larger than 63, the process proceeds to step 513. On the other hand, if the value of the mixed data [MIX] obtained in step 511 is not larger than 63, the process ends. That is, the value obtained in step 511 is determined as the mixed data [MIX].

ステップ513において、混合データ変換部401は、混合データ[MIX]の値を、6ビットの上限値である63に変更する(クリッピング処理)。通常は、[MIX]が63を超えないように、MRC、MRM、MRY、MRK、ビットシフト量BSが設定されるが、間違った数値を設定しても動作を保証するためにこのようなクリッピング処理を行う。 In step 513, the mixed data conversion unit 401 changes the value of the mixed data [MIX] to 63, which is the upper limit of 6 bits (clipping processing). Normally, MR C, MRM , MRY , MRK , and the bit shift amount BS are set so that [MIX] does not exceed 63. However, even if an incorrect value is set, operation is guaranteed. Such a clipping process is performed.

以上が、混合データ変換処理の内容である。ここで、MRCが4、MRMが6、MRYが6、MRKが0、BSが4で、DCが5、DMが8、DYが10、DKが2、である場合における混合データ変換処理の具体例を示す。 The above is the content of the mixed data conversion processing. Here, in MR C is 4, MR M is 6, MR Y is 6, MR K is 0, BS is 4, D C is 5, D M is 8, D Y is 10, D K is 2, is A specific example of the mixed data conversion process in the case is shown.

まず、MRKは0なので、DK’は0である(ステップ501)。 First, since MR K is 0, D K ′ is 0 (step 501).

次に、DK’は0でDCは5なので、ステップ504へ移行する(ステップ502でNo)。 Next, since D K ′ is 0 and D C is 5, the process proceeds to step 504 (No in step 502).

ステップ504では、DCは5でMRCは4なので、DC’は20となる。 At step 504, D C is MR C in 5 since 4, D C 'is 20.

そして、DK’は0でDMは8なので、ステップS507へ移行する(ステップ505でNo)。 Then, since D K ′ is 0 and D M is 8, the process proceeds to step S507 (No in step 505).

ステップ507では、DMは8でMRMは6なので、DM’は48となる。 At step 507, D M is MR M in 8 since 6, D M 'becomes 48.

そして、DK’は0でDYは10なので、ステップ510へ移行する(ステップ508でNo)。 Then, D K 'is D Y is so 10, the process proceeds to step 510 at 0 (No in step 508).

ステップ510では、DYは10でMRYは6なので、DY’は60となる。 At step 510, D Y is MR Y at 10 because 6, D Y 'is 60.

そして、ステップ511では、まずDC’、DM’、DY’の合計値(20+48+60=128)を求め、BS=4に従って合計値128を4ビット右にシフトする。その結果、混合データ[MIX]の値として8が得られる。 In step 511, first D C ', D M', calculated total value of D Y '(20 + 48 + 60 = 128), shifts the sum 128 to 4 bits to the right in accordance with BS = 4. As a result, 8 is obtained as the value of the mixed data [MIX].

ステップ511で得られた混合データ[MIX]の値(8)は、63より小さいので(ステップ512でNo)、最終的な混合データ[MIX]の値は8となる。   Since the value (8) of the mixed data [MIX] obtained in Step 511 is smaller than 63 (No in Step 512), the final value of the mixed data [MIX] is 8.

こうして、CMYKの各色が任意の割合で混合された各画素6ビットの混合データが生成される。そして、この混合データを以降の処理に用いることで、処理する色に依存しないエッジ補正処理を行うことが可能となり、その結果、エッジ部に発生する偽色を抑えることができる。   Thus, mixed data of 6 bits for each pixel in which each color of CMYK is mixed at an arbitrary ratio is generated. Then, by using this mixed data in the subsequent processing, it becomes possible to perform an edge correction process independent of the color to be processed, and as a result, it is possible to suppress a false color occurring at an edge portion.

なお、混合データ変換処理は、上述の方法に限定される訳ではなく、複数の色を用いて混合したデータを生成するものであればよい。   Note that the mixed data conversion process is not limited to the above method, and may be any process that generates mixed data using a plurality of colors.

また、上述のステップ511では、各色の画素値Dと所定の混合率MRとの積の合計値を、ビットシフト量BS分だけ右シフトすることで混合データ[MIX]を得ているが、例えば、右シフトに代えて除算を用いて混合データ[MIX]を得るようにしてもよい。   In step 511 described above, the mixed data [MIX] is obtained by shifting the total value of the product of the pixel value D of each color and the predetermined mixing ratio MR to the right by the bit shift amount BS. Alternatively, mixed data [MIX] may be obtained by using division instead of right shift.

<エッジ判定処理>
次に、エッジ判定部402で行われるエッジ判定処理の詳細について説明する。
<Edge determination processing>
Next, details of the edge determination processing performed by the edge determination unit 402 will be described.

図6は、エッジ判定処理の流れを示すフローチャートである。   FIG. 6 is a flowchart illustrating the flow of the edge determination process.

ステップ601において、エッジ判定部402は、混合データ変換部401で生成された混合データについて、上述の参照領域内の注目画素を中心とする幅3画素、高さ3画素の計9画素の中で、最も大きい画素値(最大値[MAX])を求める。   In step 601, the edge determination unit 402 sets the mixed data generated by the mixed data conversion unit 401 out of a total of 9 pixels of 3 pixels in width and 3 pixels in height around the pixel of interest in the above-described reference area. , The largest pixel value (maximum value [MAX]).

ステップ602において、エッジ判定部402は、混合データ変換部401で生成された混合データについて、上述の参照領域内の注目画素を中心とする幅3画素、高さ3画素の計9画素の中で、最も小さい画素値(最小値[MIN])を求める。   In step 602, the edge determination unit 402 determines, for the mixed data generated by the mixed data conversion unit 401, out of a total of 9 pixels having a width of 3 pixels and a height of 3 pixels centered on the target pixel in the above-described reference area. , The smallest pixel value (minimum value [MIN]).

ステップ603において、エッジ判定部402は、ステップ601で求めた最大値[MAX]からステップ602で求めた最小値[MIN]を減算し、コントラスト値[CONT]を求める。   In step 603, the edge determination unit 402 obtains a contrast value [CONT] by subtracting the minimum value [MIN] obtained in step 602 from the maximum value [MAX] obtained in step 601.

ステップ604において、エッジ判定部402は、ステップ603で求めたコントラスト値[CONT]とエッジ判定値[Sub]とを比較し、コントラスト値[CONT]の方が大きいかどうかを判定する。ここで、エッジ判定値[Sub]は、オブジェクトのエッジ部を判定するための閾値であり、例えば文字や線のエッジ部であるかどうかを判定可能な任意の値が設定される。判定の結果、エッジ判定値[Sub]よりもコントラスト値[CONT]の方が大きい場合にはステップ605に進む。一方、エッジ判定値[Sub]よりもコントラスト値[CONT]の方が大きくない場合にはステップ617に進む。   In step 604, the edge determination unit 402 compares the contrast value [CONT] obtained in step 603 with the edge determination value [Sub], and determines whether the contrast value [CONT] is larger. Here, the edge determination value [Sub] is a threshold value for determining the edge portion of the object, and an arbitrary value that can determine whether the edge portion is a character or a line edge is set, for example. If the result of determination is that the contrast value [CONT] is greater than the edge determination value [Sub], the flow proceeds to step 605. On the other hand, if the contrast value [CONT] is not larger than the edge determination value [Sub], the process proceeds to step 617.

ステップ605において、エッジ判定部402は、ステップ601で求めた最大値[MAX]とステップ602で求めた最小値[MIN]とを加算し、得られた加算値を2で除算することによって平均値[AVE]を求める。   In step 605, the edge determination unit 402 adds the maximum value [MAX] obtained in step 601 and the minimum value [MIN] obtained in step 602, and divides the obtained addition value by 2 to obtain an average value. Ask [AVE].

ステップ606において、エッジ判定部402は、上述の参照領域内の注目画素を中心とする幅3画素、高さ3画素の計9画素の中から、最大−最小値[MAX_MIN]を検索する。ここで、最大-最小値[MAX_MIN]は、最大値[MAX]を除いた平均値[AVE]以上の画素値の中で最小の値である。   In step 606, the edge determination unit 402 searches for a maximum-minimum value [MAX_MIN] from a total of 9 pixels of 3 pixels in width and 3 pixels in height around the target pixel in the above-described reference area. Here, the maximum-minimum value [MAX_MIN] is the minimum value among the pixel values equal to or more than the average value [AVE] excluding the maximum value [MAX].

ステップ607において、エッジ判定部402は、ステップ606における検索で最大-最小値[MAX_MIN]が見つかったかどうかを判定する。最大-最小値[MAX_MIN]が見つかった場合にはステップ608に進む。一方、最大-最小値[MAX_MIN]が見つからなかった場合にはステップ609に進む。   In step 607, the edge determination unit 402 determines whether the maximum-minimum value [MAX_MIN] is found in the search in step 606. If the maximum-minimum value [MAX_MIN] is found, the process proceeds to step 608. On the other hand, if the maximum-minimum value [MAX_MIN] is not found, the process proceeds to step 609.

ステップ608において、エッジ判定部402は、ステップ601で求めた最大値[MAX]からステップ606で見つかった最大-最小値[MAX_MIN]を減算して、最大値との差分値[MAX_DIFF_MIN]を求める。   In step 608, the edge determination unit 402 subtracts the maximum-minimum value [MAX_MIN] found in step 606 from the maximum value [MAX] found in step 601 to find a difference value [MAX_DIFF_MIN] from the maximum value.

ステップ609において、エッジ判定部402は、最大-最小値[MAX_MIN]が存在しないため、最大値との差分値[MAX_DIFF_MIN]を“0”に設定する。   In step 609, since the maximum-minimum value [MAX_MIN] does not exist, the edge determination unit 402 sets the difference value [MAX_DIFF_MIN] from the maximum value to “0”.

ステップ610において、エッジ判定部402は、上述の参照領域内の注目画素を中心とする幅3画素、高さ3画素の計9画素の中から、最小-最大値[MIN_MAX]を検索する。ここで、最小-最大値[MIN_MAX]は、最小値[MIN]を除いた平均値[AVE]未満の画素値の中で、最大の値である。   In step 610, the edge determination unit 402 searches for a minimum-maximum value [MIN_MAX] from a total of 9 pixels of 3 pixels in width and 3 pixels in height around the pixel of interest in the above-described reference area. Here, the minimum-maximum value [MIN_MAX] is the maximum value among the pixel values less than the average value [AVE] excluding the minimum value [MIN].

ステップ611において、エッジ判定部402は、ステップ610における検索で最小-最大値[MIN_MAX]が見つかったかどうかを判定する。最小-最大値[MIN_MAX]が見つかった場合にはステップ612に進む。一方、最小-最大値[MIN_MAX]が見つからなかった場合にはステップ613に進む。   In step 611, the edge determination unit 402 determines whether the minimum-maximum value [MIN_MAX] is found in the search in step 610. If the minimum-maximum value [MIN_MAX] is found, the process proceeds to step 612. On the other hand, if the minimum-maximum value [MIN_MAX] is not found, the process proceeds to step 613.

ステップ612において、エッジ判定部402は、ステップ611で見つかった最小-最大値[MIN_MAX]からステップ602で求めた最小値[MIN]を減算して、最小値との差分値[MIN_DIFF_MAX]を求める。   In step 612, the edge determination unit 402 obtains a difference value [MIN_DIFF_MAX] from the minimum value by subtracting the minimum value [MIN] obtained in step 602 from the minimum-maximum value [MIN_MAX] found in step 611.

ステップ613において、エッジ判定部402は、最小-最大値[MIN_MAX]が存在しないため、最小値との差分値[MIN_DIFF_MAX]を“0”に設定する。   In step 613, since the minimum-maximum value [MIN_MAX] does not exist, the edge determination unit 402 sets the difference value [MIN_DIFF_MAX] from the minimum value to “0”.

ステップ614において、エッジ判定部402は、上述の最大-最小値[MAX_MIN]及び最小-最大値[MIN_MAX]のいずれも見つからなかったかどうかを判定する。どちらもなかった場合にはステップ615に進む。一方、どちらかがあった場合にはステップ616に進む。   In step 614, the edge determination unit 402 determines whether none of the above-described maximum-minimum value [MAX_MIN] and minimum-maximum value [MIN_MAX] has been found. If there is neither, the process proceeds to step 615. On the other hand, if there is either, the process proceeds to step 616.

ステップ615に進んだ時点で、最大-最小値[MAX_MIN]及び最小-最大値[MIN_MAX]がどちらも見つからず(ステップ614でYes)、コントラスト値[CONT]が十分に大きい(ステップ604でYes)ことが判明している。したがって、エッジ判定部402は、画素値に急峻な変化がある領域(すなわち、エッジ補正の必要があるエッジ画素)であると判断して、エッジ判定信号を“1(ON)”に設定し、本処理を終える。   At step 615, neither the maximum-minimum value [MAX_MIN] nor the minimum-maximum value [MIN_MAX] is found (Yes in step 614), and the contrast value [CONT] is sufficiently large (Yes in step 604). It turns out that. Therefore, the edge determination unit 402 determines that the region is a region where the pixel value changes abruptly (that is, an edge pixel requiring edge correction), and sets the edge determination signal to “1 (ON)”. This process ends.

ステップ616において、エッジ判定部402は、上述の参照領域に3つ以上の画素値がある場合に、補正が必要なエッジであるか否かを判定する処理(3値以上のエッジ判定処理)を行う。この3値以上のエッジ判定処理は、圧縮処理などで劣化した文字や自然画などに存在するエッジを検出するための処理である。図7は、3値以上のエッジ判定処理の詳細を示すフローチャートである。以下、詳しく説明する。   In step 616, when there are three or more pixel values in the above-described reference area, the edge determination unit 402 determines whether or not the edge needs to be corrected (three or more edge determination processing). Do. The edge determination process of three or more values is a process for detecting an edge existing in a character, a natural image, or the like deteriorated by a compression process or the like. FIG. 7 is a flowchart showing the details of the ternary or higher edge determination processing. The details will be described below.

ステップ701において、エッジ判定部402は、ステップ603で求めたコントラスト値[CONT]から最大値との差分値 [MAX_DIFF_MIN]と最小値との差分値 [MIN_DIFF_MAX]を減算して、平均値付近の値の分布を示す分散値[DIFF]を求める。   In step 701, the edge determination unit 402 subtracts the difference value [MAX_DIFF_MIN] between the maximum value and the difference value [MIN_DIFF_MAX] from the contrast value [CONT] obtained in step 603, and obtains a value near the average value. The variance [DIFF] indicating the distribution of is obtained.

ステップ702において、エッジ判定部402は、ステップ701で求めた分散値[DIFF]が第1の閾値[DiffTh_1]よりも大きいか否かを判定する。第1の閾値は、最大の最小値と最小の最大値との差が十分に大きいかどうかを判定するための閾値である。よって、第1の閾値には、エッジとして検出したい信号値差を表す値を設定する。この第1の閾値には、エッジ判定値[Sub]より少し小さい値が設定されることが望ましい。分散値[DIFF]が第1の閾値[DiffTh_1]よりも大きい場合にはステップ704に進む。一方、分散値[DIFF]が第1の閾値[DiffTh_1]よりも大きくない場合にはステップ703に進む。   In step 702, the edge determination unit 402 determines whether the variance value [DIFF] obtained in step 701 is larger than a first threshold value [DiffTh_1]. The first threshold is a threshold for determining whether the difference between the maximum minimum value and the minimum maximum value is sufficiently large. Therefore, a value representing a signal value difference to be detected as an edge is set as the first threshold value. It is desirable that a value slightly smaller than the edge determination value [Sub] be set as the first threshold. If the variance value [DIFF] is larger than the first threshold value [DiffTh_1], the process proceeds to step 704. On the other hand, if the variance value [DIFF] is not larger than the first threshold value [DiffTh_1], the process proceeds to step 703.

ステップ703において、エッジ判定部402は、ステップ701で求めた分散値[DIFF]が十分大きな値でないため、画素値に急峻な変化がない領域であると判断する。すなわち、エッジ補正の必要がない非エッジ画素であると判断して、エッジ判定信号を“0(OFF)”に設定し、本処理を終える。   In step 703, the edge determination unit 402 determines that the area does not have a sharp change in the pixel value because the variance [DIFF] obtained in step 701 is not a sufficiently large value. That is, it is determined that the pixel is a non-edge pixel that does not need edge correction, the edge determination signal is set to “0 (OFF)”, and the process ends.

ステップ704において、エッジ判定部402は、上述の最大値との差分値[MAX_DIFF_MIN]が第2の閾値[DiffTh_2]より小さいか否かを判定する。第2の閾値及び後述の第3の閾値は、最大値との差分値[MAX_DIFF_MIN]及び最小値との差分値[MIN_DIFF_MAX]が十分に小さいかどうかを判定するための閾値である。最大値との差分値[MAX_DIFF_MIN]及び最小値との差分値[MIN_DIFF_MAX]が大きいということは、グラデーション部などで変化がある部分であることを意味している。グラデーションの変化の勾配がきつい部分は、エッジとして検出したくないので、第2及び第3の閾値を用いて判定することとしている。第2及び第3の閾値は、第1の閾値に比べて十分に小さい値とすることが望ましい。なぜなら、第2及び第3の閾値が大きくなればなるほど、コントラストがあって信号値のばらつきのある部分をエッジとして判定してしまうためである。最大値との差分値[MAX_DIFF_MIN]が第2の閾値[DiffTh_2]より小さい場合にはステップ705に進む。一方、最大値との差分値[MAX_DIFF_MIN]が第2の閾値[DiffTh_2]より小さくない場合にはステップ707に進む。   In step 704, the edge determination unit 402 determines whether the difference value [MAX_DIFF_MIN] from the above-described maximum value is smaller than a second threshold value [DiffTh_2]. The second threshold value and a third threshold value to be described later are threshold values for determining whether the difference value [MAX_DIFF_MIN] from the maximum value and the difference value [MIN_DIFF_MAX] from the minimum value are sufficiently small. The fact that the difference value [MAX_DIFF_MIN] from the maximum value and the difference value [MIN_DIFF_MAX] from the minimum value are large means that there is a change in a gradation portion or the like. Since a portion where the gradient of the gradation change is steep is not desired to be detected as an edge, the determination is made using the second and third threshold values. It is desirable that the second and third threshold values be sufficiently smaller than the first threshold value. This is because, as the second and third threshold values become larger, a portion having contrast and a variation in signal value is determined as an edge. If the difference value [MAX_DIFF_MIN] from the maximum value is smaller than the second threshold value [DiffTh_2], the process proceeds to step 705. On the other hand, if the difference value [MAX_DIFF_MIN] from the maximum value is not smaller than the second threshold value [DiffTh_2], the process proceeds to step 707.

ステップ705において、エッジ判定部402は、上述の最小値との差分値[MIN_DIFF_MAX]が第2の閾値[DiffTh_2]より小さいか否かを判定する。最小値との差分値[MIN_DIFF_MAX]が第2の閾値[DiffTh_2]より小さい場合にはステップ706に進む。一方、最小値との差分値[MIN_DIFF_MAX]が第2の閾値[DiffTh_2]より小さくない場合にはステップ707に進む。   In step 705, the edge determination unit 402 determines whether the difference value [MIN_DIFF_MAX] from the minimum value is smaller than a second threshold value [DiffTh_2]. If the difference value [MIN_DIFF_MAX] from the minimum value is smaller than the second threshold value [DiffTh_2], the process proceeds to step 706. On the other hand, if the difference value [MIN_DIFF_MAX] from the minimum value is not smaller than the second threshold value [DiffTh_2], the process proceeds to step 707.

ステップ706において、エッジ判定部402は、最大値との差分値[MAX_DIFF_MIN]及び最小値との差分値[MIN_DIFF_MAX]の両者が共に十分小さいことから、画素値に急峻な変化がある領域であると判断する。すなわち、エッジ補正の必要があるエッジ画素であると判断して、エッジ判定信号を“1(ON)”に設定し、ステップ708に進む。   In step 706, the edge determination unit 402 determines that the pixel value has an abrupt change because both the difference value [MAX_DIFF_MIN] from the maximum value and the difference value [MIN_DIFF_MAX] from the minimum value are sufficiently small. to decide. That is, it is determined that the pixel is an edge pixel that needs edge correction, and the edge determination signal is set to “1 (ON)”.

ステップ707において、エッジ判定部402は、画素値に急峻な変化がない領域と判断する、すなわち、エッジ補正の必要がない非エッジ画素であると判断して、エッジ判定信号を“0(OFF)”に設定し、ステップ708に進む。   In step 707, the edge determination unit 402 determines that the pixel value does not have a sharp change, that is, determines that the pixel value is a non-edge pixel that does not require edge correction, and sets the edge determination signal to “0 (OFF). ", And the process proceeds to step 708.

ステップ708において、エッジ判定部402は、最大値との差分値[MAX_DIFF_MIN]が第3の閾値[DiffTh_3]より小さいか否かを判定する。最大値との差分値[MAX_DIFF_MIN]が第3の閾値[DiffTh_3]より小さい場合にはステップ710に進む。一方、最大値との差分値[MAX_DIFF_MIN]が第3の閾値[DiffTh_3]より小さくない場合にはステップ709に進む。   In step 708, the edge determination unit 402 determines whether the difference value [MAX_DIFF_MIN] from the maximum value is smaller than a third threshold value [DiffTh_3]. If the difference value [MAX_DIFF_MIN] from the maximum value is smaller than the third threshold value [DiffTh_3], the process proceeds to step 710. On the other hand, if the difference value [MAX_DIFF_MIN] from the maximum value is not smaller than the third threshold value [DiffTh_3], the process proceeds to step 709.

ステップ709において、エッジ判定部402は、最小値との差分値[MIN_DIFF_MAX]が第3の閾値[DiffTh_3]より小さいか否かを判定する。最小値との差分値[MIN_DIFF_MAX]が第3の閾値[DiffTh_3]より小さい場合にはステップ710に進む。一方、最小値との差分値[MIN_DIFF_MAX]が第3の閾値[DiffTh_3]より小さくない場合には、本処理を終える。   In step 709, the edge determination unit 402 determines whether the difference value [MIN_DIFF_MAX] from the minimum value is smaller than a third threshold value [DiffTh_3]. If the difference value [MIN_DIFF_MAX] from the minimum value is smaller than the third threshold value [DiffTh_3], the process proceeds to step 710. On the other hand, if the difference value [MIN_DIFF_MAX] from the minimum value is not smaller than the third threshold value [DiffTh_3], the process ends.

ステップ710において、エッジ判定部402は、最大値との差分値[MAX_DIFF_MIN]及び最小値との差分値[MIN_DIFF_MAX]のいずれかが十分に小さく、画素値に急峻な変化がある領域と判断する。すなわち、エッジ補正の必要があるエッジ画素であると判断して、エッジ判定信号を“1(ON)”に設定し、本処理を終える。   In step 710, the edge determination unit 402 determines that the region is one in which either the difference value [MAX_DIFF_MIN] from the maximum value or the difference value [MIN_DIFF_MAX] from the minimum value is sufficiently small and the pixel value changes sharply. That is, it is determined that the pixel is an edge pixel that needs edge correction, the edge determination signal is set to “1 (ON)”, and the process ends.

なお、上述の説明では、エッジ判定値や第1〜第3の閾値は各一つであるように記載しているが、これらの値を複数用意し、必要に応じて使い分けるようにしてもよい。例えば、さらに属性データを参照するようにして、注目画素の属性がイメージである場合は、他の属性よりもエッジ判定値と第1の閾値をより大きな値に、第2及び第3の閾値をより小さな値にそれぞれ切り替える。また、注目画素の属性が文字や線である場合は、他の属性よりもエッジ判定値と第1の閾値をより小さな値に、第2及び第3の閾値をより大きな値にそれぞれ切り替えてもよい。このような切り替えを行なうことによって、色や形状が複雑になりやすいイメージ属性では補正がかかり難く、また、色や形状が一様になりやすい文字属性や線属性では補正がよりかかり易くなるようにするといった具合に、緻密な制御が可能となる。   In the above description, each of the edge determination value and the first to third threshold values is described as being one, but a plurality of these values may be prepared and used as needed. . For example, by further referring to the attribute data, if the attribute of the target pixel is an image, the edge determination value and the first threshold are set to be larger than the other attributes, and the second and third thresholds are set to be larger. Switch to each smaller value. Further, when the attribute of the pixel of interest is a character or a line, the edge determination value and the first threshold are switched to smaller values and the second and third thresholds are switched to higher values than the other attributes. Good. By performing such switching, correction is difficult to be performed on image attributes whose colors and shapes are likely to be complicated, and correction is more easily performed on character attributes and line attributes whose colors and shapes are likely to be uniform. Thus, precise control is possible.

以上が、3値以上のエッジ判定処理の内容である。   The above is the content of the edge determination processing with three or more values.

図6のフローチャートの説明に戻る。   Returning to the description of the flowchart of FIG.

ステップ617において、エッジ判定部402は、コントラスト値[CONT]が小さいことから(ステップ604でNo)、参照領域が画素値に急峻な変化がない領域であると判断する。すなわち、参照領域はエッジ補正の必要がない非エッジ画素であると判断して、エッジ判定信号を“0(OFF)”に設定し、本処理を終える。   In step 617, since the contrast value [CONT] is small (No in step 604), the edge determination unit 402 determines that the reference region is a region where there is no sharp change in the pixel value. That is, it is determined that the reference area is a non-edge pixel that does not require edge correction, the edge determination signal is set to “0 (OFF)”, and the process ends.

以上がエッジ判定処理の内容である。ここで、図8を用いて、エッジ判定処理の具体例を説明する。図8には、エッジとして検出したい3×3画素の画像801と、エッジとして検出したくない3×3画素の画像802が示されている。画像801と画像802とは同じコントラストである。   The above is the content of the edge determination processing. Here, a specific example of the edge determination processing will be described with reference to FIG. FIG. 8 shows a 3 × 3 pixel image 801 to be detected as an edge and a 3 × 3 pixel image 802 not to be detected as an edge. The images 801 and 802 have the same contrast.

まず、両画像801及び802の最大値[MAX]は共に“40”であり(ステップ601)、最小値[MIN]は共に“0”である(ステップ602)。そして、両画像801及び802のコントラスト[CONT]は共に“40”となる(ステップ603)。   First, the maximum value [MAX] of both images 801 and 802 is "40" (step 601), and the minimum value [MIN] is both "0" (step 602). Then, the contrast [CONT] of both images 801 and 802 both becomes “40” (step 603).

そして、エッジ判定値[Sub]が“20”であるとすると、いずれの画像の場合もステップ605へ移行し(ステップ604でYes)、その平均値[AVE]として共に“20”が導出される。   If the edge determination value [Sub] is “20”, the process proceeds to step 605 for any image (Yes in step 604), and both “20” are derived as the average value [AVE]. .

続くステップでは、画像801の場合は最大-最小値[MAX_MIN]は存在しないため(ステップ607でNo)、最大値との差分値[MAX_DIFF_MIN]は“0”となる(ステップ609)。これに対し、画像802の場合は最大-最小値[MAX_MIN]は存在するため(ステップ607でYes)、最大値との差分値[MAX_DIFF_MIN]として“10(=40−30)”が得られる(ステップ608)。   In a subsequent step, in the case of the image 801, there is no maximum-minimum value [MAX_MIN] (No in step 607), so that a difference value [MAX_DIFF_MIN] from the maximum value is “0” (step 609). On the other hand, in the case of the image 802, since the maximum-minimum value [MAX_MIN] exists (Yes in Step 607), “10 (= 40−30)” is obtained as the difference value [MAX_DIFF_MIN] from the maximum value ( Step 608).

そして、画像801の場合は最小-最大値[MIN_MAX]も存在しないため(ステップ611でNo)、最小値との差分値[MIN_DIFF_MAX]も“0と”なる(ステップ613)。これに対し、画像802の場合は最小-最大値[MIN_MAX]が存在するため(ステップ611でYes)、最小値との差分値[MIN_DIFF_MAX]として“18(=18−0)”が得られる(ステップ612)。   Then, in the case of the image 801, there is no minimum-maximum value [MIN_MAX] (No in step 611), and the difference value [MIN_DIFF_MAX] from the minimum value also becomes “0” (step 613). On the other hand, in the case of the image 802, since the minimum-maximum value [MIN_MAX] exists (Yes in step 611), “18 (= 18−0)” is obtained as the difference value [MIN_DIFF_MAX] from the minimum value ( Step 612).

ここまでの処理により、画像801については、最大-最小値[MAX_MIN]と最小-最大値[MIN_MAX]のどちらも存在しなかったので(ステップ614でYes)、エッジ判定信号がONに設定される(ステップ615)。つまり、画像801はエッジ部であると判定される。一方、画像802については、最大-最小値[MAX_MIN]も最小-最大値[MIN_MAX]の双方が存在するので、3値以上のエッジ判定処理に進むことになる(ステップ616)。   By the processing up to this point, since neither the maximum-minimum value [MAX_MIN] nor the minimum-maximum value [MIN_MAX] exists for the image 801 (Yes in step 614), the edge determination signal is set to ON. (Step 615). That is, the image 801 is determined to be an edge portion. On the other hand, for the image 802, since both the maximum-minimum value [MAX_MIN] and the minimum-maximum value [MIN_MAX] exist, the process proceeds to the edge determination processing of three or more values (step 616).

画像802に対する3値以上のエッジ判定処理では、まず、分散値[DIFF]が導出される(ステップ701)。いま、コントラスト[CONT]は“40”、最大値との差分値[MAX_DIFF_MIN]は“10”、最小値との差分値[MIN_DIFF_MAX]は“18”なので、分散値[DIFF]は“12”となる。   In the edge determination processing of three or more values for the image 802, first, a variance value [DIFF] is derived (step 701). Since the contrast [CONT] is “40”, the difference value [MAX_DIFF_MIN] from the maximum value is “10”, and the difference value [MIN_DIFF_MAX] from the minimum value is “18”, the variance value [DIFF] is “12”. Become.

そして、ステップ702における第1の閾値[DiffTh_1]が“16”であったとすると(ステップ702でNo)、エッジ判定信号がOFFに設定される(ステップ703)。つまり、画像802はエッジ部でないと判定される。   Then, if the first threshold value [DiffTh_1] in step 702 is “16” (No in step 702), the edge determination signal is set to OFF (step 703). That is, it is determined that the image 802 is not an edge portion.

上述のとおり図6のフローチャートでは、参照領域内の画素値が3つ未満の単純な領域である場合に、コントラスト値[CONT]のみを用いて補正が必要なエッジ部であるかどうかを判定するようにしている。しかしながら、このような態様に限定されるものではない。例えば、参照領域内の状態に関わらず、参照領域内のコントラスト値が十分に大きいか否かにのみ基づいてエッジ補正が必要なエッジであるかどうかを判定するようにしてもよい。要は、エッジ部にエッジ補正処理を施すべきであるか否かが適切に判定できればよい。   As described above, in the flowchart of FIG. 6, if the reference area is a simple area having less than three pixel values, it is determined whether or not the edge part needs correction using only the contrast value [CONT]. Like that. However, it is not limited to such an embodiment. For example, regardless of the state in the reference area, it may be determined whether or not the edge needs edge correction based only on whether or not the contrast value in the reference area is sufficiently large. The point is that it suffices if it is possible to appropriately determine whether or not edge correction processing should be performed on the edge portion.

(エッジ方向判定処理)
次に、エッジ方向判定部404で行われるエッジ方向判定処理の詳細について説明する。
(Edge direction determination processing)
Next, details of the edge direction determination processing performed by the edge direction determination unit 404 will be described.

図9は、注目画素とエッジ方向判定部404で参照される4つの画素の位置関係を示した図である。図9において注目画素が[tr_pix]、注目画素の左隣の画素が[left_pix]、注目画素の右隣の画素が[right_pix]、注目画素の上隣の画素が[up_pix]、注目画素の下隣の画素が[down_pix]でそれぞれ示されている。図10は、エッジ方向判定処理の流れを示すフローチャートである。   FIG. 9 is a diagram illustrating a positional relationship between a target pixel and four pixels referred to by the edge direction determination unit 404. In FIG. 9, the pixel of interest is [tr_pix], the pixel to the left of the pixel of interest is [left_pix], the pixel to the right of the pixel of interest is [right_pix], the pixel immediately above the pixel of interest is [up_pix], and the pixel below the pixel of interest is Neighboring pixels are indicated by [down_pix]. FIG. 10 is a flowchart illustrating the flow of the edge direction determination process.

ステップ1001において、エッジ方向判定部404は、注目画素の画素値と注目画素の上隣画素の画素値とを比較し、注目画素の画素値の方が大きいかどうかを判定する。注目画素の画素値の方が大きい場合には、ステップ1002へ進む。一方、注目画素の画素値の方が大きくない場合には、ステップ1003へ進む。   In step 1001, the edge direction determination unit 404 compares the pixel value of the target pixel with the pixel value of the pixel immediately above the target pixel, and determines whether the pixel value of the target pixel is larger. If the pixel value of the target pixel is larger, the process proceeds to step 1002. On the other hand, if the pixel value of the target pixel is not larger, the process proceeds to step 1003.

ステップ1002において、エッジ方向判定部404は、エッジが注目画素の上にあることを示すエッジ方向信号[Edge_Dir]を生成する。本実施例では、エッジ方向信号[Edge_Dir]を2ビットの信号とし、エッジが注目画素の上にあることを示す値として“00”を設定する。生成されたエッジ方向信号[Edge_Dir]は判定結果統合部405に送られ、本処理を終了する。   In step 1002, the edge direction determination unit 404 generates an edge direction signal [Edge_Dir] indicating that the edge is above the pixel of interest. In the present embodiment, the edge direction signal [Edge_Dir] is a 2-bit signal, and “00” is set as a value indicating that the edge is above the pixel of interest. The generated edge direction signal [Edge_Dir] is sent to the determination result integration unit 405, and this processing ends.

ステップ1003において、エッジ方向判定部404は、注目画素の画素値と注目画素の下隣画素の画素値とを比較し、注目画素の画素値の方が大きいかどうかを判定する。注目画素の画素値の方が大きい場合には、ステップ1004に進む。一方、注目画素の画素値の方大きくない場合には、ステップ1005に進む。   In step 1003, the edge direction determination unit 404 compares the pixel value of the target pixel with the pixel value of the lower neighboring pixel of the target pixel, and determines whether the pixel value of the target pixel is larger. If the pixel value of the target pixel is larger, the process proceeds to step 1004. On the other hand, if the pixel value of the target pixel is not larger, the process proceeds to step 1005.

ステップ1004において、エッジ方向判定部404は、エッジが注目画素の下にあることを示すエッジ方向信号[Edge_Dir]を生成する。具体的には、エッジが注目画素の下にあることを示す値として“01”をエッジ方向信号[Edge_Dir]に設定する。生成されたエッジ方向信号[Edge_Dir]は判定結果統合部405に送られ、本処理を終了する。   In step 1004, the edge direction determination unit 404 generates an edge direction signal [Edge_Dir] indicating that the edge is below the pixel of interest. Specifically, “01” is set in the edge direction signal [Edge_Dir] as a value indicating that the edge is below the pixel of interest. The generated edge direction signal [Edge_Dir] is sent to the determination result integration unit 405, and this processing ends.

ステップ1005において、エッジ方向判定部404は、注目画素の画素値と注目画素の右隣画素の画素値とを比較し、注目画素の画素値の方が大きいかどうかを判定する。注目画素の画素値の方が大きい場合には、ステップ1006へ進む。一方、注目画素の画素値の方が大きくない場合には、ステップ1007へ進む。   In step 1005, the edge direction determination unit 404 compares the pixel value of the target pixel with the pixel value of the pixel on the right of the target pixel, and determines whether the pixel value of the target pixel is larger. If the pixel value of the target pixel is larger, the process proceeds to step 1006. On the other hand, if the pixel value of the target pixel is not larger, the process proceeds to step 1007.

ステップ1006において、エッジ方向判定部404は、エッジが注目画素の右にあることを示すエッジ方向信号[Edge_Dir]を生成する。具体的には、エッジが注目画素の右にあることを示す値として“10”をエッジ方向信号[Edge_Dir]に設定する。生成されたエッジ方向信号[Edge_Dir]は判定結果統合部405に送られ、本処理を終了する。   In step 1006, the edge direction determination unit 404 generates an edge direction signal [Edge_Dir] indicating that the edge is to the right of the pixel of interest. Specifically, “10” is set in the edge direction signal [Edge_Dir] as a value indicating that the edge is to the right of the target pixel. The generated edge direction signal [Edge_Dir] is sent to the determination result integration unit 405, and this processing ends.

ステップ1007において、エッジ方向判定部404は、エッジが注目画素の左にあることを示すエッジ方向信号[Edge_Dir]を生成する。具体的には、エッジが注目画素の左にあることを示す値として“11”をエッジ方向信号[Edge_Dir]に設定する。生成されたエッジ方向信号[Edge_Dir]は判定結果統合部405に送られ、本処理を終了する。   In step 1007, the edge direction determination unit 404 generates an edge direction signal [Edge_Dir] indicating that the edge is to the left of the pixel of interest. Specifically, “11” is set in the edge direction signal [Edge_Dir] as a value indicating that the edge is to the left of the pixel of interest. The generated edge direction signal [Edge_Dir] is sent to the determination result integration unit 405, and this processing ends.

以上が、エッジ方向判定処理の内容である。エッジ方向信号によって、注目画素がエッジに対してどの方向に存在するのかが分かる。   The above is the content of the edge direction determination processing. From the edge direction signal, it is possible to determine in which direction the target pixel exists with respect to the edge.

<エッジ補正データ生成処理>
次に、エッジ補正データ生成部304におけるエッジ補正データ生成処理の詳細について説明する。
<Edge correction data generation processing>
Next, details of the edge correction data generation processing in the edge correction data generation unit 304 will be described.

エッジ補正データ生成部304は、予め用意されたテーブル等(例えば一次元のルックアップテーブル:LUT)を参照してエッジ補正データを生成する。具体的には、所定の入力値に対応する出力値を、LUTを参照して決定(変換)し、エッジ補正データとする。本実施例では、入力された画像データを8ビットから4ビットに変換した上で、上記エッジ補正データを生成するものとする。図11は、エッジ補正データ生成処理で用いられるルックアップテーブルの一例を示している。図11(a)〜(c)で示される各LUTは、4ビット(0〜15)の入力値と出力値がそれぞれ一対一で対応付けられている。図11の(a)は、入力値をそのままの値で出力するリニアな特性を持つLUTである。図11の(b)及び(c)は、プリンタの特性に応じて非線形な特性を持つLUTである。図11(b)は、入力値に対して出力値が小さい値をとるLUTであり、プリンタの階調特性が通常よりも濃い場合や、エッジ補正効果を弱める場合などに用いられる。また、図11(c)は、入力値に対して出力値が大きい値をとるLUTであり、プリンタの階調特性が通常より薄い場合や、エッジ補正効果を強める場合などに用いられる。   The edge correction data generation unit 304 generates edge correction data with reference to a table or the like (for example, a one-dimensional lookup table: LUT) prepared in advance. Specifically, an output value corresponding to a predetermined input value is determined (converted) with reference to the LUT, and is set as edge correction data. In this embodiment, the edge correction data is generated after converting the input image data from 8 bits to 4 bits. FIG. 11 shows an example of a look-up table used in the edge correction data generation processing. In each of the LUTs shown in FIGS. 11A to 11C, 4-bit (0 to 15) input values and output values are associated with each other on a one-to-one basis. FIG. 11A shows an LUT having a linear characteristic of outputting an input value as it is. FIGS. 11B and 11C show LUTs having nonlinear characteristics according to the characteristics of the printer. FIG. 11B shows an LUT in which the output value is smaller than the input value, and is used when the gradation characteristics of the printer are darker than usual or when the edge correction effect is weakened. FIG. 11C shows an LUT in which the output value is larger than the input value, and is used when the gradation characteristics of the printer are thinner than usual or when the edge correction effect is enhanced.

<スクリーン処理>
次に、スクリーン処理部305におけるスクリーン処理について説明する。
<Screen processing>
Next, screen processing in the screen processing unit 305 will be described.

図12は、スクリーン処理部305で行われるスクリーン処理の流れを示すフローチャートである。このスクリーン処理は、入力される画像データと予め設定されるディザマトリクスを用いて、プリンタ部103で印刷可能な4ビットの画像データに変換する処理である。   FIG. 12 is a flowchart illustrating the flow of the screen processing performed by the screen processing unit 305. The screen process is a process of converting input image data into 4-bit image data that can be printed by the printer unit 103 by using a preset dither matrix.

ステップ1201において、スクリーン処理部305は、所定のディザマトリクスを用いて、多値のディザ法によって画像データを4ビットのスクリーンデータに変換する。ディザマトリクスを用いた多値のディザ法については、周知の技術であるため説明を省く。   In step 1201, the screen processing unit 305 converts image data into 4-bit screen data by a multivalued dither method using a predetermined dither matrix. The multi-valued dither method using the dither matrix is a well-known technique, and will not be described.

ステップ1202において、スクリーン処理部305は、ステップ1201で得られたスクリーンデータを画像合成部307に出力する。   In step 1202, the screen processing unit 305 outputs the screen data obtained in step 1201 to the image combining unit 307.

以上が、スクリーン処理部305におけるスクリーン処理の内容である。   The above is the contents of the screen processing in the screen processing unit 305.

<位相ずれスクリーン処理>
次に、位相ずれスクリーン処理部306で行われる位相をずらしたスクリーン処理について詳しく説明する。この処理により、その後の画像合成部307における処理において、エッジ部のスクリーンドットをオブジェクトの内側にずらすことが可能となる。位相ずれスクリーン処理部306におけるスクリーン処理の流れは、上述のスクリーン処理部305におけるスクリーン処理の流れと同じであるため、以下では差異点のみを説明する。
<Phase shift screen processing>
Next, the phase-shifted screen processing performed by the phase-shift screen processing unit 306 will be described in detail. This processing makes it possible to shift the screen dots at the edge to the inside of the object in the subsequent processing in the image synthesis unit 307. Since the flow of the screen processing in the phase shift screen processing unit 306 is the same as the flow of the screen processing in the above-described screen processing unit 305, only the differences will be described below.

前述のステップ1201において、位相ずれスクリーン処理部306は、位相をずらしたディザマトリクスを用い、多値のディザ法によって画像データを4ビットのスクリーンデータに変換する。具体的には、スクリーン処理部305で用いたディザマトリクスの位相を、上下左右に各1画素ずらしたディザマトリクスを用いてスクリーンデータに変換する。図13は、位相をずらしたディザマトリクスを説明する図である。図13(a)に示すレベル1〜15のディザマトリクス1301は、スクリーン処理部305で用いられるディザマトリクスである。図13(b)〜(e)に示す、レベル1〜15で構成されるディザマトリクス1302〜1305は、位相ずれスクリーン処理部306で用いられるディザマトリクスであり、ディザマトリクス1301の位相を上下左右にそれぞれ一マスずらしたものである。すなわち、図13(b)は上に1マスずらしたディザマトリクス、同(c)は下に1マスずらしたディザマトリクス、同(d)は左に1マスずらしたディザマトリクス、同(e)は右に1マスずらしたディザマトリクスである。   In step 1201 described above, the phase shift screen processing unit 306 converts the image data into 4-bit screen data by a multi-value dither method using the phase shifted dither matrix. Specifically, the phase of the dither matrix used in the screen processing unit 305 is converted into screen data using a dither matrix shifted by one pixel in each of up, down, left, and right. FIG. 13 is a diagram illustrating a dither matrix with a phase shifted. A dither matrix 1301 of levels 1 to 15 shown in FIG. 13A is a dither matrix used in the screen processing unit 305. The dither matrices 1302 to 1305 composed of levels 1 to 15 shown in FIGS. 13B to 13E are dither matrices used in the phase shift screen processing unit 306, and shift the phase of the dither matrix 1301 up, down, left, and right. Each is shifted by one square. That is, FIG. 13B shows a dither matrix shifted by one cell upward, FIG. 13C shows a dither matrix shifted by one cell downward, FIG. 13D shows a dither matrix shifted one cell left, and FIG. This is a dither matrix shifted one cell to the right.

図14は、スクリーン処理部305でのスクリーン処理結果と位相ずれスクリーン処理部306でのスクリーン処理結果とを比較して説明する図である。図14(a)は、双方のスクリーン処理部に入力される画像データであり、縦12画素×横7画素の矩形のオブジェクト1401が存在している。   FIG. 14 is a diagram illustrating a comparison between the screen processing result of the screen processing unit 305 and the screen processing result of the phase shift screen processing unit 306. FIG. 14A shows image data input to both screen processing units, in which a rectangular object 1401 of 12 × 7 pixels exists.

図14(b)は、スクリーン処理部305におけるスクリーン処理で生成されるスクリーンデータである。画素群1402は、網点に変換された画素群である。   FIG. 14B shows screen data generated by the screen processing in the screen processing unit 305. The pixel group 1402 is a pixel group converted into a halftone dot.

図14(c)〜(f)は、位相ずれスクリーン処理部306における位相を上下左右に1マスずらしたスクリーン処理で生成されるスクリーンデータである。図14(c)〜(f)において画素群1403〜1406は、網点に変換された画素群であり、図14(b)における画素群1402にそれぞれ対応している。図14(c)における画素群1403は、画素群1402に比べて位相が上に1マスずれている。同様に、図14(d)における画素群1404は画素群1402に比べて位相が下に1マスずれている。そして、図14(e)における画素群1405は画素群1402に比べて位相が左に1マスずれ、図14(f)における画素群1406は画素群1402に比べて位相が右に1マスずれている。   FIGS. 14C to 14F show screen data generated by the screen processing in which the phase is shifted by one square in the vertical and horizontal directions in the phase shift screen processing unit 306. 14C to 14F, pixel groups 1403 to 1406 are pixel groups converted into halftone dots, and correspond to the pixel groups 1402 in FIG. 14B, respectively. The pixel group 1403 in FIG. 14C has a phase shifted upward by one cell compared to the pixel group 1402. Similarly, the pixel group 1404 in FIG. 14D has a phase shifted downward by one cell compared to the pixel group 1402. The pixel group 1405 in FIG. 14E has a phase shifted to the left by one cell compared to the pixel group 1402, and the pixel group 1406 in FIG. 14F has a phase shifted to the right by one cell compared to the pixel group 1402. I have.

<画像合成処理>
次に、画像合成部307で行われる画像合成処理について説明する。図15は、画像合成部307で行われる画像合成処理の流れを示すフローチャートである。以下の処理が、入力画像データ(ガンマ補正後の画像データ)内のすべての画素に対して実行される。
<Image synthesis processing>
Next, an image combining process performed by the image combining unit 307 will be described. FIG. 15 is a flowchart illustrating a flow of the image combining process performed by the image combining unit 307. The following processing is performed on all the pixels in the input image data (image data after gamma correction).

ステップ1501において、画像合成部307は、エッジ情報生成部302から入力されるエッジ情報に基づいて、注目画素がエッジ画素であるか否かを判定する。具体的には、エッジ情報の上位1ビットのデータを参照して、値が“1”の場合はエッジ画素と判定し、ステップ1502へ進む。一方、上位1ビットの値が“0”の場合は非エッジ画素と判定し、ステップ1503へ進む。   In step 1501, based on the edge information input from the edge information generation unit 302, the image synthesis unit 307 determines whether the pixel of interest is an edge pixel. Specifically, referring to the upper 1-bit data of the edge information, if the value is “1”, it is determined that the pixel is an edge pixel, and the process proceeds to step 1502. On the other hand, if the value of the upper 1 bit is “0”, it is determined that the pixel is a non-edge pixel, and the process proceeds to step 1503.

ステップ1502において、画像合成部307は、エッジ補正データ生成部304から入力されたエッジ補正データにおける注目画素の画素値を、出力画像データとしてプリンタ部103に出力する。   In step 1502, the image synthesizing unit 307 outputs the pixel value of the pixel of interest in the edge correction data input from the edge correction data generation unit 304 to the printer unit 103 as output image data.

ステップ1503において、画像合成部307は、エッジ情報生成部302から入力されるエッジ情報を参照し、注目画素の周辺画素(注目画素を囲む周囲8画素)にエッジ画素が存在するか否かを判定する。周辺画素にエッジ画素が存在する場合は、ステップ1504へ進む。一方、周辺画素にエッジ画素が存在しない場合は、ステップ1513へ進む。   In step 1503, the image synthesizing unit 307 refers to the edge information input from the edge information generating unit 302, and determines whether an edge pixel exists in a peripheral pixel of the target pixel (eight pixels surrounding the target pixel). I do. If an edge pixel exists in the peripheral pixels, the process proceeds to step 1504. On the other hand, if there is no edge pixel in the peripheral pixels, the process proceeds to step 1513.

ステップ1504において、画像処理部307は、注目画素の画素値と所定の参照画素の画素値を比較して、注目画素がエッジ画素に内接する画素であるかどうか(オブジェクト内側の画素かどうか)を判定する。ここで、参照画素は、注目画素に隣接する画素であって、図16に示すような位置関係にある画素を指す。図16において、中央の画素1601が注目画素を示し、それ以外の画素1602〜1609が参照画素を示している。そして、注目画素がエッジ画素に内接する画素であるかどうかが、以下の条件に従って判定される。
・参照画素1602のエッジ情報の上位1ビットが“1”である場合は、注目画素1601の画素値から参照画素1606の画素値を引いた値が“0”より大きければ、注目画素はエッジ画素に内接する画素であると判定する。
・参照画素1603のエッジ情報の上位1ビットが“1”である場合は、注目画素1601の画素値から参照画素1607の画素値を引いた値が“0”より大きければ、注目画素はエッジ画素に内接する画素であると判定する。
・参照画素1604のエッジ情報の上位1ビットが“1”である場合は、注目画素1601の画素値から参照画素1608の画素値を引いた値が“0”より大きければ、注目画素はエッジ画素に内接する画素であると判定する。
・参照画素1605のエッジ情報の上位1ビットが“1”である場合は、注目画素1601の画素値から参照画素1608の画素値を引いた値が“0”より大きければ、注目画素はエッジ画素に内接する画素であると判定する。
・上記4つの条件に該当しない場合は、注目画素はエッジ画素に内接する画素でないと判定する。
In step 1504, the image processing unit 307 compares the pixel value of the target pixel with the pixel value of the predetermined reference pixel, and determines whether the target pixel is a pixel inscribed in the edge pixel (whether the target pixel is a pixel inside the object). judge. Here, the reference pixel is a pixel adjacent to the target pixel and has a positional relationship as shown in FIG. In FIG. 16, a central pixel 1601 indicates a target pixel, and other pixels 1602 to 1609 indicate reference pixels. Then, it is determined according to the following conditions whether the target pixel is a pixel inscribed in the edge pixel.
When the upper one bit of the edge information of the reference pixel 1602 is “1”, if the value obtained by subtracting the pixel value of the reference pixel 1606 from the pixel value of the target pixel 1601 is larger than “0”, the target pixel is an edge pixel Is determined to be a pixel inscribed in.
When the upper one bit of the edge information of the reference pixel 1603 is “1”, if the value obtained by subtracting the pixel value of the reference pixel 1607 from the pixel value of the target pixel 1601 is larger than “0”, the target pixel is an edge pixel Is determined to be a pixel inscribed in.
When the upper one bit of the edge information of the reference pixel 1604 is “1”, if the value obtained by subtracting the pixel value of the reference pixel 1608 from the pixel value of the target pixel 1601 is larger than “0”, the target pixel is an edge pixel Is determined to be a pixel inscribed in.
When the upper one bit of the edge information of the reference pixel 1605 is “1”, if the value obtained by subtracting the pixel value of the reference pixel 1608 from the pixel value of the target pixel 1601 is larger than “0”, the target pixel is an edge pixel Is determined to be a pixel inscribed in.
If the above four conditions are not met, it is determined that the target pixel is not a pixel inscribed in the edge pixel.

判定の結果、注目画素がエッジ画素に内接する画素であると判定された場合は、ステップ1505に進む。一方、注目画素がエッジ画素に内接する画素でないと判定された場合は、ステップ1513へ進む。   If it is determined that the target pixel is a pixel inscribed in the edge pixel, the process proceeds to step 1505. On the other hand, if it is determined that the target pixel is not a pixel inscribed in the edge pixel, the process proceeds to step 1513.

ステップ1505において、画像合成部307は、エッジ情報を参照し、エッジが注目画素の上にあるかどうか(エッジ情報の下位2ビットの値が“00”であるかどうか)を判定する。下位2ビットの値が“00”である場合は、エッジが注目画素の上にあると判定し、ステップ1506へ進む。一方、下位2ビットの値が “00”でない場合は、ステップ1507へ進む。   In step 1505, the image synthesizing unit 307 refers to the edge information and determines whether the edge is located above the pixel of interest (whether the value of the lower two bits of the edge information is “00”). If the value of the lower two bits is “00”, it is determined that the edge is above the pixel of interest, and the process proceeds to step 1506. On the other hand, if the value of the lower two bits is not “00”, the process proceeds to step 1507.

ステップ1506において、画像合成部307は、スクリーン処理部305と位相ずれスクリーン処理部306の出力結果を合成し、合成データ[combData]を生成する。本ステップでは、オブジェクトの内側にスクリーンドットを移動させるために、エッジの方向(ここでは、上)とは逆の方向に位相をずらしたスクリーンデータを合成する。具体的には、スクリーン処理部305の出力結果[Sc]に、位相ずれスクリーン処理部306の出力結果の内、位相を下にずらしたスクリーンデータ[PSdownSc]を加算し、予め定めた合成係数βを乗算することにより、合成データ[combData]を得る。   In step 1506, the image combining unit 307 combines the output results of the screen processing unit 305 and the phase shift screen processing unit 306 to generate combined data [combData]. In this step, in order to move the screen dot to the inside of the object, screen data whose phase is shifted in the direction opposite to the direction of the edge (here, above) is synthesized. Specifically, the output result [Sc] of the screen processing unit 305 is added with the screen data [PSdownSc] shifted in phase from the output result of the phase shift screen processing unit 306, and a predetermined combination coefficient β To obtain composite data [combData].

ステップ1507において、画像合成部307は、エッジ情報を参照し、エッジが注目画素の下にあるかどうか(エッジ情報の下位2ビットの値が“01”であるかどうか)を判定する。下位2ビットの値が“01”である場合は、エッジが注目画素の下にあると判定し、ステップ1508へ進む。一方、下位2ビットの値が “01”でない場合は、ステップ1509へ進む。   In step 1507, the image synthesizing unit 307 refers to the edge information and determines whether the edge is below the pixel of interest (whether the value of the lower two bits of the edge information is "01"). If the value of the lower two bits is “01”, it is determined that the edge is below the pixel of interest, and the process proceeds to step 1508. On the other hand, if the value of the lower two bits is not “01”, the process proceeds to step 1509.

ステップ1508において、画像合成部307は、スクリーン処理部305と位相ずれスクリーン処理部306の出力結果を合成し、合成データ[combData]を生成する。本ステップでは、オブジェクトの内側にスクリーンドットを移動させるために、エッジの方向(ここでは、下)とは逆の方向に位相をずらしたスクリーンデータを合成する。具体的には、スクリーン処理部305の出力結果[Sc]に、位相ずれスクリーン処理部306の出力結果の内、位相を上にずらしたスクリーンデータ[PSupSc]を加算し、予め定めた合成係数βを乗算することにより、合成データ[combData]を得る。   In step 1508, the image combining unit 307 combines the output results of the screen processing unit 305 and the phase shift screen processing unit 306 to generate combined data [combData]. In this step, in order to move the screen dot to the inside of the object, screen data whose phase is shifted in the direction opposite to the direction of the edge (here, below) is synthesized. Specifically, the output result [Sc] of the screen processing unit 305 is added with the screen data [PSupSc] whose phase has been shifted upward from the output result of the phase shift screen processing unit 306, and a predetermined combination coefficient β To obtain composite data [combData].

ステップ1509において、画像合成部307は、エッジ情報を参照し、エッジが注目画素の左にあるかどうか(エッジ情報の下位2ビットの値が“10”であるかどうか)を判定する。下位2ビットの値が“10”である場合は、エッジが注目画素の左にあると判定し、ステップ1510へ進む。一方、下位2ビットの値が “10”でない場合は、エッジが注目画素の右にあると判定し、ステップ1511へ進む。   In step 1509, the image combining unit 307 determines whether or not the edge is to the left of the target pixel (whether the value of the lower two bits of the edge information is “10”) by referring to the edge information. If the value of the lower two bits is “10”, it is determined that the edge is to the left of the pixel of interest, and the flow proceeds to step 1510. On the other hand, if the value of the lower two bits is not “10”, it is determined that the edge is to the right of the pixel of interest, and the flow proceeds to step 1511.

ステップ1510において、画像合成部307は、スクリーン処理部305と位相ずれスクリーン処理部306の出力結果を合成し、合成データ[combData]を生成する。本ステップでは、オブジェクトの内側にスクリーンドットを移動させるために、エッジの方向(ここでは、左)とは逆の方向に位相をずらしたスクリーンデータを合成する。具体的には、スクリーン処理部305の出力結果[Sc]に、位相ずれスクリーン処理部306の出力結果の内、位相を右にずらしたスクリーンデータ[PSrightSc]を加算し、予め定めた合成係数βを乗算することにより、合成データ[combData]を得る。   In step 1510, the image combining unit 307 combines the output results of the screen processing unit 305 and the phase shift screen processing unit 306, and generates combined data [combData]. In this step, in order to move the screen dot to the inside of the object, the screen data whose phase is shifted in the direction opposite to the direction of the edge (here, left) is synthesized. Specifically, the output result [Sc] of the screen processing unit 305 is added with the screen data [PSrightSc] whose phase is shifted to the right from the output result of the phase shift screen processing unit 306, and a predetermined combination coefficient β To obtain composite data [combData].

ステップ1511において、画像合成部307は、スクリーン処理部305と位相ずれスクリーン処理部306の出力結果を合成し、合成データ[combData]を生成する。本ステップでは、オブジェクトの内側にスクリーンドットを移動させるために、エッジの方向(ここでは、右)とは逆の方向に位相をずらしたスクリーンデータを合成する。具体的には、スクリーン処理部305の出力結果[Sc]に、位相ずれスクリーン処理部306の出力結果の内、位相を左にずらしたスクリーンデータ[PSleftSc]を加算し、予め定めた合成係数βを乗算することにより、合成データ[combData]を得る。   In step 1511, the image combining unit 307 combines the output results of the screen processing unit 305 and the phase shift screen processing unit 306 to generate combined data [combData]. In this step, in order to move the screen dot to the inside of the object, the screen data whose phase is shifted in the direction opposite to the direction of the edge (here, right) is synthesized. Specifically, the output result [Sc] of the screen processing unit 305 is added with the screen data [PSleftSc] whose phase has been shifted to the left from the output result of the phase shift screen processing unit 306, and a predetermined combination coefficient β To obtain composite data [combData].

ステップ1512において、画像合成部307は、注目画素について生成された合成データ[combData]を、出力画像データとしてプリンタ部103に出力する。   In step 1512, the image combining unit 307 outputs the combined data [combData] generated for the target pixel to the printer unit 103 as output image data.

ステップ1513において、画像合成部307は、スクリーン処理部305の出力結果であるスクリーンデータ[Sc] における注目画素の画素値を、出力画像データとしてプリンタ部103に出力する。   In step 1513, the image synthesizing unit 307 outputs the pixel value of the target pixel in the screen data [Sc], which is the output result of the screen processing unit 305, to the printer unit 103 as output image data.

上記の処理が、入力画像データ内に未処理の画素がなくなるまで繰り返される。以上が画像合成処理の内容である。上述のとおり、エッジ情報とガンマ補正後の画像データに応じて、出力される画像データ(注目画素の画素値)が、エッジ補正データ、合成データ、スクリーンデータのいずれかに適宜切り替えられることになる。   The above process is repeated until there is no unprocessed pixel in the input image data. The above is the content of the image synthesis processing. As described above, the output image data (the pixel value of the target pixel) is appropriately switched to any of the edge correction data, the composite data, and the screen data according to the edge information and the image data after the gamma correction. .

なお、本実施例では、合成係数βを乗算して合成データを生成していたが、これに限定されるものではない。例えば、スクリーン処理部305と位相ずれスクリーン処理部306の処理結果の加算値を一次元のルックアップテーブルに入力して、合成データを生成してもよい。   In the present embodiment, the composite data is generated by multiplying the composite coefficient β, but the present invention is not limited to this. For example, the combined value of the processing results of the screen processing unit 305 and the phase shift screen processing unit 306 may be input to a one-dimensional lookup table to generate composite data.

最後に、本実施例を適用する場合と適用しない場合の違いを、図17〜図19を参照して説明する。   Lastly, the difference between the case where the present embodiment is applied and the case where the present embodiment is not applied will be described with reference to FIGS.

図17は、位相ずれスクリーン処理の結果を用いずにエッジ補正処理を行った場合の一例を説明する図である。   FIG. 17 is a diagram illustrating an example of a case where the edge correction processing is performed without using the result of the phase shift screen processing.

図17(a)は、スクリーン処理部305に入力される画像データであり、前述の図14(a)と同様、縦12画素×横7画素の矩形のオブジェクト1701が存在している。   FIG. 17A shows image data input to the screen processing unit 305. As shown in FIG. 14A, there is a rectangular object 1701 of 12 pixels × 7 pixels.

図17(b)は、(画像合成部307に入力される)エッジ情報によって、上位1ビットが“1”のエッジ画素を斜線で示した図である。エッジ画素1702にはエッジ補正データが適用され、エッジ画素1702の内側領域内の画素1703にはスクリーンデータが適用される。   FIG. 17B is a diagram in which an edge pixel whose upper one bit is “1” is indicated by oblique lines based on edge information (input to the image synthesis unit 307). Edge correction data is applied to the edge pixel 1702, and screen data is applied to the pixel 1703 in the area inside the edge pixel 1702.

図17(c)は、スクリーン処理部305で生成されるスクリーンデータを示した図である。画素群1704は、網点に変換された画素群である。   FIG. 17C is a diagram illustrating screen data generated by the screen processing unit 305. The pixel group 1704 is a pixel group converted into a halftone dot.

図17(d)は、画像合成部307に入力されるエッジ補正データを示す図であり、グレーで示される画素の画素値が、図17(b)に示すエッジ画素1702における画素値となる。   FIG. 17D is a diagram illustrating edge correction data input to the image combining unit 307. The pixel value of a pixel indicated by gray is the pixel value of the edge pixel 1702 illustrated in FIG.

図17(e)は、従来技術によるエッジ補正処理の結果の一例を示す図である。この場合、エッジ画素1702に対して、図17(c)に示すスクリーンデータと図17(d)に示すエッジ補正データとで比較を行い、大きい方の値を出力値とする合成処理がなされている。   FIG. 17E is a diagram illustrating an example of a result of the edge correction processing according to the related art. In this case, the edge pixel 1702 is compared with the screen data shown in FIG. 17C and the edge correction data shown in FIG. 17D, and the larger value is used as the output value. I have.

図17(f)は、別の従来技術によるエッジ補正処理の結果の一例を示す図である。この場合、エッジ画素1702に対して、図17(d)に示すエッジ補正データをそのまま用いる合成処理がなされている。   FIG. 17F is a diagram illustrating an example of a result of the edge correction processing according to another conventional technique. In this case, a synthesizing process using the edge correction data shown in FIG.

図18は、本実施例を適用してエッジ補正処理を行った場合の一例を説明する図である。   FIG. 18 is a diagram illustrating an example of a case where edge correction processing is performed by applying the present embodiment.

図18(a)は、スクリーン処理部305に入力される画像データであり、図17(a)と同様、縦12画素×横7画素の矩形のオブジェクト1801が存在している。   FIG. 18A shows image data input to the screen processing unit 305. As in FIG. 17A, a rectangular object 1801 of 12 pixels × 7 pixels exists.

図18(b)は、(画像合成部307に入力される)エッジ情報の上位1ビットが“1”のエッジ画素1802を斜線で、当該エッジ画素に接する内エッジ画素1803を斜め格子で示した図である。エッジ画素1802にはエッジ補正データが用いられ、内エッジ画素1803には合成データが用いられ、内エッジ画素1803の内側領域内の画素1804にはスクリーンデータが用いられる。   FIG. 18B shows an edge pixel 1802 whose upper 1 bit of the edge information (input to the image synthesis unit 307) is “1” by oblique lines, and an inner edge pixel 1803 adjacent to the edge pixel by oblique lattice. FIG. Edge correction data is used for the edge pixel 1802, composite data is used for the inner edge pixel 1803, and screen data is used for a pixel 1804 in the area inside the inner edge pixel 1803.

図18(c)は、スクリーン処理部305で生成されるスクリーンデータを示した図である。画素群1805は、網点に変換された画像群である。   FIG. 18C is a diagram illustrating screen data generated by the screen processing unit 305. The pixel group 1805 is an image group converted into a halftone dot.

図18(d)は、画像合成部307に入力されるエッジ補正データを示す図であり、グレーで示す画素の画素値が、図18(b)に示すエッジ画素1802における画素値となる。   FIG. 18D is a diagram illustrating edge correction data input to the image combining unit 307. The pixel value of a pixel indicated by gray is the pixel value of the edge pixel 1802 illustrated in FIG. 18B.

図18(e)は、画像合成部307で生成される合成データを示す図であり、複数レベルのグレーで示す画素の画素値が、図18(b)に示す内エッジ画素1803における画素値となる。   FIG. 18E is a diagram illustrating combined data generated by the image combining unit 307. The pixel values of the pixels indicated by gray at a plurality of levels correspond to the pixel values of the inner edge pixels 1803 illustrated in FIG. Become.

図18(f)は、画像合成部307から出力される本実施例によるエッジ補正処理結果としての出力画像データを示す図である。この場合、エッジ画素1802に対して図18(d)のエッジ補正データ、内エッジ画素1803に対して図18(e)の合成データ、内エッジ画素の内側領域内の画素1804に対して図18(c)のスクリーンデータがそれぞれ用いられている。   FIG. 18F is a diagram illustrating output image data output from the image combining unit 307 as a result of the edge correction processing according to the present embodiment. In this case, the edge correction data of FIG. 18D for the edge pixel 1802, the composite data of FIG. 18E for the inner edge pixel 1803, and FIG. 18 for the pixel 1804 in the inner area of the inner edge pixel. The screen data of (c) is used respectively.

図19は、本実施例によるエッジ補正処理後の画像における各画素の露光量を説明する図である。   FIG. 19 is a diagram illustrating the exposure amount of each pixel in the image after the edge correction processing according to the present embodiment.

図19(a)は、画素の信号値に対する露光量を示している。画素1901の画素値は“4”であり、露光量が小さいことを薄いグレーで示している。画素1902は画素値が“8”で画素1901より露光量が大きく、やや濃いグレーで示している。画素1903は画素値が“15”で画素1902より露光量が大きく、黒で示している。   FIG. 19A shows the exposure amount with respect to the signal value of the pixel. The pixel value of the pixel 1901 is “4”, which indicates that the exposure amount is small in light gray. The pixel 1902 has a pixel value of “8”, has a larger exposure than the pixel 1901, and is shown in a slightly darker gray. The pixel 1903 has a pixel value of “15”, has a larger exposure than the pixel 1902, and is shown in black.

図19(b)は、図17(e)で示した従来技術によるエッジ補正処理結果(1)における各画素の露光量を示した図である。図19(b)では、エッジ部の画素値は画素によって異なっており、例えば画素1904(グレー)と画素1905(黒)との間に段差が発生してしまうことになる。さらに、電子写真の特性上、ハーフドットはフルドットに引き寄せられるので、潜像形成時には段差がより顕著となり、ジャギーを完全に除去しきれない。   FIG. 19B is a diagram illustrating the exposure amount of each pixel in the edge correction processing result (1) according to the related art illustrated in FIG. 17E. In FIG. 19B, the pixel value of the edge portion differs depending on the pixel, and for example, a step occurs between the pixel 1904 (gray) and the pixel 1905 (black). Further, since the half dots are attracted to the full dots due to the characteristics of electrophotography, the steps become more remarkable at the time of forming a latent image, and jaggies cannot be completely removed.

図19(c)は、図17(f)で示した別の従来技術によるエッジ補正処理結果(2)における各画素の露光量を示した図である。図19(c)では、エッジ部の画素値は全て同じ画素値“8”なので、エッジ部における段差の問題は生じない。しかし、図19(b)において画素1905に存在していたスクリーンドット(フルドット)が、図19(c)では画素値“8”のハーフドットに置き変わるので、スクリーンドットの連続性が失われてしまう。例えば、画素1908に対して、画素1907の露光の影響が失われる。つまり、エッジ部に存在していたフルドットがエッジ補正データによってハーフドットに置き換わることで、スクリーンドットの連続性がエッジの手前で失われ、不自然になってしまう。   FIG. 19C is a diagram showing the exposure amount of each pixel in the edge correction processing result (2) according to another conventional technique shown in FIG. 17F. In FIG. 19C, since the pixel values at the edge portion are all the same pixel value “8”, the problem of the step at the edge portion does not occur. However, the screen dots (full dots) existing at the pixel 1905 in FIG. 19B are replaced with half dots of the pixel value “8” in FIG. 19C, and the continuity of the screen dots is lost. Would. For example, the influence of the exposure of the pixel 1907 on the pixel 1908 is lost. That is, by replacing the full dots existing in the edge portion with the half dots by the edge correction data, the continuity of the screen dot is lost just before the edge, and becomes unnatural.

図19(b)及び(c)から明らかなように、エッジ部周辺において、位相をずらしたスクリーン処理の結果を合成しない場合には、ジャギーを除去しきれなかったり、画像不良が発生してしまうことが分かる。   As is clear from FIGS. 19B and 19C, when the results of the screen processing with the phases shifted from each other are not combined in the vicinity of the edge portion, jaggies cannot be completely removed or an image defect occurs. You can see that.

図19(d)は、図18(f)で示した本実施例によるエッジ補正処理結果における各画素の露光量を示した図である。図19(d)では、エッジ部は図19(c)と同様すべて同じハーフドットで、画素値のばらつきがないのでエッジ部の段差の問題は発生しない。また、オブジェクト内側のエッジ部に隣接する画素(内エッジ画素)に対して、位相をずらしたスクリーン結果を合成することで、エッジ部に存在していたスクリーンドットをオブジェクトの内側にずらすことができている。例えば画素1910にドットを付加することで、あたかも画素1909を中心にスクリーンドットが存在しているかのように見せることができている。これにより、エッジ部においてもスクリーンドットの連続性が維持されている。   FIG. 19D is a diagram illustrating the exposure amount of each pixel in the result of the edge correction processing according to the present embodiment illustrated in FIG. 18F. In FIG. 19D, the edge portions are all the same half dots as in FIG. 19C, and there is no variation in pixel values. In addition, by synthesizing the screen result with the phase shifted with respect to the pixel (inner edge pixel) adjacent to the edge portion inside the object, the screen dot existing at the edge portion can be shifted to the inside of the object. ing. For example, by adding a dot to the pixel 1910, it is possible to make it appear as if a screen dot exists around the pixel 1909. Thereby, the continuity of the screen dots is maintained even at the edge portion.

本実施例によれば、エッジ部に隣接するオブジェクト内側の画素に対して位相をずらしたスクリーン処理の結果が合成され、置き換えられたエッジ部のスクリーンドットがオブジェクトの内側に再配置される。これにより、スクリーンドットの連続性をエッジ部付近まで保ちながら、エッジ部のジャギーを改善することができる。   According to this embodiment, the results of the screen processing with the phase shifted for the pixels inside the object adjacent to the edge are synthesized, and the screen dots of the replaced edge are rearranged inside the object. This makes it possible to improve jaggies at the edges while maintaining the continuity of the screen dots up to the vicinity of the edges.

次に、オブジェクト内側のエッジ部に隣接する画素に対して位相をずらしたスクリーン結果を合成する代わりに、エッジ部に存在するスクリーンドットをオブジェクトの内側に移動させる態様について、実施例2として説明する。なお、実施例1と共通する部分については説明を省略ないしは簡略化し、以下では差異点を中心に説明するものとする。   Next, a mode in which screen dots existing in the edge portion are moved to the inside of the object instead of synthesizing the screen result with the phase shifted for pixels adjacent to the edge portion inside the object will be described as a second embodiment. . The description of the parts common to the first embodiment will be omitted or simplified, and the following description will focus on the differences.

図20は、本実施例に係る、画像処理を担う機能部としての画像処理部の内部構成を示すブロック図である。本実施例に係る画像処理部2000は、色補正部301、エッジ情報生成部2001、ガンマ補正部303、エッジ補正データ生成部304、スクリーン処理部305、画像合成部2002で構成される。これらのうち、色補正部301、ガンマ補正部303、エッジ補正データ生成部304、スクリーン処理部305については、実施例1と同じである。   FIG. 20 is a block diagram illustrating an internal configuration of an image processing unit as a functional unit that performs image processing according to the present embodiment. The image processing unit 2000 according to the present embodiment includes a color correction unit 301, an edge information generation unit 2001, a gamma correction unit 303, an edge correction data generation unit 304, a screen processing unit 305, and an image synthesis unit 2002. Among them, a color correction unit 301, a gamma correction unit 303, an edge correction data generation unit 304, and a screen processing unit 305 are the same as those in the first embodiment.

エッジ情報生成部2001は、CMYKの色毎にエッジ情報を生成する。図21は、本実施例に係る、エッジ情報生成部2001の内部構成を示すブロック図であり、実施例1の図4と比較すると、エッジ方向判定部404が存在していないのが分かる。そのため、本実施例におけるエッジ情報には、エッジの方向を示す情報は含まれない。つまり、本実施例におけるエッジ情報は、画素毎に1ビットの値を持つデータであり、当該画素がエッジ画素である場合に“1”、非エッジ画素である場合に“0”で示す情報となる。生成されたエッジ情報は、画像合成部2002で処理を切り替える際に参照される。   The edge information generation unit 2001 generates edge information for each color of CMYK. FIG. 21 is a block diagram illustrating the internal configuration of the edge information generation unit 2001 according to the present embodiment. As compared with FIG. 4 of the first embodiment, it can be seen that the edge direction determination unit 404 does not exist. Therefore, the edge information in this embodiment does not include information indicating the direction of the edge. That is, the edge information in the present embodiment is data having a 1-bit value for each pixel, and information “1” when the pixel is an edge pixel and information “0” when the pixel is a non-edge pixel. Become. The generated edge information is referred to when the image combining unit 2002 switches the processing.

画像合成部2002は、エッジ情報生成部2001から受け取ったエッジ情報とガンマ補正後の画像データに基づいて、後述する画像合成処理を行なう。   The image synthesizing unit 2002 performs an image synthesizing process described later based on the edge information received from the edge information generating unit 2001 and the image data after gamma correction.

<画像合成処理>
次に、画像合成部2002で行われる画像合成処理の詳細について説明する。図22は、画像合成部2002で行われる画像合成処理の流れを示すフローチャートである。図23は、実施例1の図18に相当する図であり、本実施例を用いてエッジ補正処理を行なった場合の一例を説明する図である。図23(a)は、スクリーン処理部305に入力される画像データであり、前述の図18(a)と同様、縦12画素×横7画素の矩形のオブジェクト2301が存在している。図23(b)は、(画像合成部2002に入力される)エッジ情報が“1”のエッジ画素2302を斜線で、当該エッジ画素に接する内エッジ画素2303を斜め格子で示した図である。図23(c)は、スクリーン処理部305で生成されるスクリーンデータを示した図である。画素群2304は、網点に変換された画像群である。図23(d)は、画像合成部2002に入力されるエッジ補正データを示す図であり、グレーで示す画素の画素値が図23(b)に示すエッジ画素2302における画素値となる。図23(e)は、画像合成部2002で生成されるドット移動データを示した図である。図23(f)は、画像合成部2002で生成されるドット補正データを示した図である。図23(g)は、画像合成部2002から出力される本実施例によるエッジ補正処理結果としての出力画像データを示す図である。
<Image synthesis processing>
Next, details of the image synthesis processing performed by the image synthesis unit 2002 will be described. FIG. 22 is a flowchart illustrating the flow of the image combining process performed by the image combining unit 2002. FIG. 23 is a diagram corresponding to FIG. 18 of the first embodiment, and is a diagram illustrating an example of a case where edge correction processing is performed using the present embodiment. FIG. 23A shows image data input to the screen processing unit 305. As shown in FIG. 18A, a rectangular object 2301 of 12 pixels × 7 pixels exists. FIG. 23B is a diagram in which an edge pixel 2302 whose edge information is “1” (input to the image synthesis unit 2002) is indicated by oblique lines, and an inner edge pixel 2303 adjacent to the edge pixel is indicated by oblique lattice. FIG. 23C is a diagram illustrating screen data generated by the screen processing unit 305. The pixel group 2304 is an image group converted into a halftone dot. FIG. 23D is a diagram illustrating edge correction data input to the image combining unit 2002. The pixel value of a pixel indicated by gray is the pixel value of the edge pixel 2302 illustrated in FIG. FIG. 23E is a diagram showing dot movement data generated by the image composition unit 2002. FIG. 23F is a diagram illustrating the dot correction data generated by the image composition unit 2002. FIG. 23G is a diagram illustrating output image data output from the image combining unit 2002 as a result of the edge correction processing according to the present embodiment.

ステップ2201において、画像合成部2002は、エッジ情報生成部2001から入力されるエッジ情報に基づいて、注目画素がエッジ画素であるか否かを判定する。具体的には、エッジ情報の値が“1”の場合はエッジ画素と判定し、ステップ2202へ進む。一方、エッジ情報の値が“0”の場合は非エッジ画素と判定し、ステップ2203へ進む。   In step 2201, the image synthesis unit 2002 determines whether or not the pixel of interest is an edge pixel based on the edge information input from the edge information generation unit 2001. Specifically, when the value of the edge information is “1”, it is determined that the pixel is an edge pixel, and the process proceeds to step 2202. On the other hand, when the value of the edge information is “0”, it is determined that the pixel is a non-edge pixel, and the process proceeds to step 2203.

ステップ2202において、画像合成部2002は、エッジ補正データ生成部304から入力されたエッジ補正データにおける注目画素の画素値を、出力画像データとしてプリンタ部103に出力する。   In step 2202, the image synthesis unit 2002 outputs the pixel value of the target pixel in the edge correction data input from the edge correction data generation unit 304 to the printer unit 103 as output image data.

ステップ2203において、画像合成部2002は、エッジ情報生成部2001から入力されるエッジ情報を参照し、注目画素の周辺画素(注目画素を囲む周囲8画素)にエッジ画素が存在するか否かを判定する。周辺画素にエッジ画素が存在する場合は、ステップ2204へ進む。一方、周辺画素にエッジ画素が存在しない場合は、ステップ2211へ進む。   In step 2203, the image synthesis unit 2002 refers to the edge information input from the edge information generation unit 2001, and determines whether or not an edge pixel exists in a peripheral pixel of the target pixel (eight pixels surrounding the target pixel). I do. If an edge pixel exists in the peripheral pixels, the process proceeds to step 2204. On the other hand, if there is no edge pixel in the peripheral pixels, the process proceeds to step 2211.

ステップ2204において、画像合成部2002は、注目画素の画素値と前述の参照画素の画素値(いずれもガンマ補正後)を比較して、注目画素がエッジ画素に内接する画素かどうか(オブジェクトの内側の画素であるかどうか)を判定する。具体的には、以下の条件に従って判定する(前述の図16を参照)。
・参照画素1602のエッジ情報の値が“1”である場合は、注目画素1601の画素値から参照画素1606の画素値を引いた値が“0”より大きければ、注目画素はエッジ画素に内接する画素であると判定する。
・参照画素1603のエッジ情報の値が“1”である場合は、注目画素1601の画素値から参照画素1607の画素値を引いた値が“0”より大きければ、注目画素はエッジ画素に内接する画素であると判定する。
・参照画素1604のエッジ情報の値が“1”である場合は、注目画素1601の画素値から参照画素1608の画素値を引いた値が“0”より大きければ、注目画素はエッジ画素に内接する画素であると判定する。
・参照画素1605のエッジ情報の値が“1”である場合は、注目画素1601の画素値から参照画素1608の画素値を引いた値が“0”より大きければ、注目画素はエッジ画素に内接する画素であると判定する。
・上記4つの条件に該当しない場合は、注目画素はエッジ画素に内接する画素でないと判定する。
In step 2204, the image synthesizing unit 2002 compares the pixel value of the target pixel with the pixel value of the above-described reference pixel (both after gamma correction) to determine whether the target pixel is a pixel inscribed in the edge pixel (inside the object). Is determined). Specifically, the determination is made according to the following conditions (see FIG. 16 described above).
When the value of the edge information of the reference pixel 1602 is “1”, if the value obtained by subtracting the pixel value of the reference pixel 1606 from the pixel value of the target pixel 1601 is larger than “0”, the target pixel is included in the edge pixels. It is determined that the pixels are in contact with each other.
When the value of the edge information of the reference pixel 1603 is “1”, if the value obtained by subtracting the pixel value of the reference pixel 1607 from the pixel value of the target pixel 1601 is larger than “0”, the target pixel is included in the edge pixels. It is determined that the pixels are in contact with each other.
When the value of the edge information of the reference pixel 1604 is “1”, if the value obtained by subtracting the pixel value of the reference pixel 1608 from the pixel value of the target pixel 1601 is larger than “0”, the target pixel is included in the edge pixels. It is determined that the pixels are in contact with each other.
When the value of the edge information of the reference pixel 1605 is “1”, if the value obtained by subtracting the pixel value of the reference pixel 1608 from the pixel value of the target pixel 1601 is larger than “0”, the target pixel is included in the edge pixels. It is determined that the pixels are in contact with each other.
If the above four conditions are not met, it is determined that the target pixel is not a pixel inscribed in the edge pixel.

判定の結果、注目画素がエッジ画素に内接する画素であると判定された場合は、ステップ2205に進む。一方、注目画素がエッジ画素に内接する画素でないと判定された場合は、ステップ2211へ進む。   If it is determined that the target pixel is a pixel inscribed in the edge pixel, the process proceeds to step 2205. On the other hand, if it is determined that the target pixel is not a pixel inscribed in the edge pixel, the process proceeds to step 2211.

ステップ2205において、画像合成部2002は、注目画素に隣接する上下左右の画素が、エッジ画素であって、かつ、スクリーンドットの一部であるかどうか(スクリーンドットを構成する画素かどうか)を判定する。具体的には、注目画素に隣接する上下左右の画素について、そのエッジ情報(1ビット)の値が“1”であり、かつ、スクリーンデータにおいて“1”以上の値を持つ画素であるかどうかを判定する。判定の結果、注目画素に隣接する上下左右の画素が、エッジ画素であって、かつ、スクリーンドットを構成する画素(以下、エッジドット画素)である場合は、ステップ2206へ進む。一方、注目画素に隣接する上下左右の画素がエッジドット画素でない場合は、ステップ2208へ進む。   In step 2205, the image synthesis unit 2002 determines whether the upper, lower, left, and right pixels adjacent to the pixel of interest are edge pixels and part of screen dots (whether the pixels constitute screen dots). I do. Specifically, whether the value of the edge information (1 bit) of the upper, lower, left and right pixels adjacent to the target pixel is “1” and whether the pixel has a value of “1” or more in the screen data Is determined. If the result of determination is that the upper, lower, left, and right pixels adjacent to the pixel of interest are edge pixels and pixels that form screen dots (hereinafter, edge dot pixels), the flow proceeds to step 2206. On the other hand, if the upper, lower, left, and right pixels adjacent to the target pixel are not edge dot pixels, the process proceeds to step 2208.

ステップ2206において、画像合成部2002は、ドット移動データを生成する。具体的には、エッジドット画素のスクリーンデータにおける画素値から、エッジ補正データ生成部304から入力されるエッジ補正データにおける画素値を減算して、ドット移動データとする。つまり、ドット移動データ[DotShiftVal]は、エッジドット画素のスクリーンデータ[DotVal]とエッジ補正データ[EdgeVal]から以下の式(1)によって求められる。
DotShiftVal = DotVal - EdgeVAl ・・・式(1)
In step 2206, the image composition unit 2002 generates dot movement data. Specifically, the pixel value in the edge correction data input from the edge correction data generation unit 304 is subtracted from the pixel value in the screen data of the edge dot pixel to obtain dot movement data. That is, the dot movement data [DotShiftVal] is obtained by the following equation (1) from the screen data [DotVal] and the edge correction data [EdgeVal] of the edge dot pixel.
DotShiftVal = DotVal-EdgeVAl ・ ・ ・ Equation (1)

ここで、注目画素が、図23(e)の画素2305(ドット移動データにおいて、グレーで示される画素の1つ)であった場合を例に具体的に説明する。図23(a)の画素2306、図23(b)の画素2307、図23(c)の画素2308、図23(d)の画素2309は、図23(e)の画素2305と同じ位置にある対応画素を示している。   Here, the case where the pixel of interest is the pixel 2305 (one of the pixels shown in gray in the dot movement data) of FIG. The pixel 2306 in FIG. 23A, the pixel 2307 in FIG. 23B, the pixel 2308 in FIG. 23C, and the pixel 2309 in FIG. 23D are located at the same position as the pixel 2305 in FIG. The corresponding pixels are shown.

まず、注目画素はエッジではないので、ステップ2203へ進む(ステップ2201でNo、図23(b)の画素2307を参照)。   First, since the target pixel is not an edge, the process proceeds to step 2203 (No in step 2201; see pixel 2307 in FIG. 23B).

次に、注目画素の周辺でエッジとなる画素に、図23(b)の画素2310があるので、ステップ2204へ進む(ステップ2203でYes)。   Next, since there is a pixel 2310 in FIG. 23B as a pixel which becomes an edge around the target pixel, the process proceeds to step 2204 (Yes in step 2203).

そして、図23(a)の画素2306の画素値は“0”より大きい値なので、エッジの内側であると判定され、ステップ2205へ進む(ステップ2204でYes)。   Then, since the pixel value of the pixel 2306 in FIG. 23A is larger than “0”, it is determined that the pixel is inside the edge, and the process proceeds to Step 2205 (Yes in Step 2204).

そして、注目画素の左隣の画素は、エッジ画素であってスクリーンドットなので(図23(b)の画素2310及び図23(c)の画素2311を参照)、ステップ2206へ進み、ドット移動データが生成される。いま、画素2311の画素値は“15”なので、DotValは“15”となる。そして、画素2312の画素値は“8”なので(図23(d)を参照)、エッジ補正データ[EdgeVal]は“8”となる。したがって、ドット移動データ[DotShiftVal]は“15”から“8”を引いた値である“7”となる。   Then, the pixel on the left of the pixel of interest is an edge pixel and a screen dot (see pixel 2310 in FIG. 23B and pixel 2311 in FIG. 23C). Generated. Since the pixel value of the pixel 2311 is “15”, DotVal is “15”. Since the pixel value of the pixel 2312 is “8” (see FIG. 23D), the edge correction data [EdgeVal] becomes “8”. Therefore, the dot movement data [DotShiftVal] is “7” which is a value obtained by subtracting “8” from “15”.

このようにしてドット移動データが生成される。或いは、注目画素周辺のスクリーンデータを参照し、周辺スクリーンドットから注目画素までの距離に応じた画素値を決定することでドット移動データを得てもよい。     In this way, dot movement data is generated. Alternatively, the dot movement data may be obtained by referring to the screen data around the target pixel and determining a pixel value corresponding to the distance from the peripheral screen dot to the target pixel.

図22のフローチャートの説明に戻る。   Returning to the description of the flowchart in FIG.

ステップ2207において、画像合成部2002は、注目画素について生成されたドット移動データを、出力画像データとしてプリンタ部103に出力する。   In step 2207, the image synthesizing unit 2002 outputs the dot movement data generated for the pixel of interest to the printer unit 103 as output image data.

ステップ2208において、画像合成部2002は、注目画素がスクリーンドットの一部であるかどうかを判定する。具体的には、注目画素が、スクリーン処理部305から入力されるスクリーンデータにおいて“1”以上の値を持つ画素(スクリーンドットを構成する画素)であるかどうかを判定する。判定の結果、注目画素がスクリーンドットを構成する画素である場合は、ステップ2209へ進む。一方、注目画素がスクリーンドットを構成する画素でない場合は、ステップ2211へ進む。   In step 2208, the image synthesizing unit 2002 determines whether the pixel of interest is a part of a screen dot. Specifically, it is determined whether or not the target pixel is a pixel having a value of “1” or more in the screen data input from the screen processing unit 305 (a pixel forming a screen dot). If the result of determination is that the pixel of interest is a pixel that constitutes a screen dot, the flow proceeds to step 2209. On the other hand, if the target pixel is not a pixel constituting the screen dot, the process proceeds to step 2211.

ステップ2209において、画像合成部2002は、ドット補正データを生成する。ドット補正データ[DotFixVal]は、注目画素を含む所定領域(例えば3x3画素)におけるスクリーンデータの合計値[DotSum]と、該所定領域におけるエッジ補正データの合計値[EdgeSum]と、該所定領域内のドット補正データが適用される画素の数[DotNum]から、以下の式(2)で求められる。(小数点以下は切り捨て)
DotFixVal = (DotSum − EdgeSum) / DotNum ・・・式(2)
In step 2209, the image synthesizing unit 2002 generates dot correction data. The dot correction data [DotFixVal] includes a total value [DotSum] of screen data in a predetermined area (for example, 3 × 3 pixels) including the target pixel, a total value [EdgeSum] of edge correction data in the predetermined area, and From the number of pixels [DotNum] to which the dot correction data is applied, it is obtained by the following equation (2). (Truncation after decimal point)
DotFixVal = (DotSum-EdgeSum) / DotNum ... Equation (2)

ここで、注目画素が図23(f)の画素2313(ドット補正データにおいて、グレーで示される画素の1つ)であった場合について説明する。図23(a)の画素2314、図23(b)の画素2315、図23(c)の画素2316は、図23(f)の画素2313と同じ位置にある対応画素を示している。   Here, the case where the pixel of interest is the pixel 2313 (one of the pixels shown in gray in the dot correction data) of FIG. A pixel 2314 in FIG. 23A, a pixel 2315 in FIG. 23B, and a pixel 2316 in FIG. 23C indicate corresponding pixels located at the same position as the pixel 2313 in FIG.

まず、注目画素はエッジではないので、ステップ2203へ進む(ステップ2201でNo、図23(b)の画素2315を参照)。   First, since the target pixel is not an edge, the process proceeds to step 2203 (No in step 2201; see pixel 2315 in FIG. 23B).

次に、注目画素の周辺でエッジとなる画素に、図23(b)の画素2317があるので、ステップ2204へ進む(ステップ2203でYes)。   Next, since there is a pixel 2317 shown in FIG. 23B at a pixel which becomes an edge around the target pixel, the process proceeds to step 2204 (Yes in step 2203).

そして、図23(f)の画素2313の画素値は“0”より大きい値なので、エッジの内側であると判定され、ステップ2205へ進む(ステップ2204でYes)。   Then, since the pixel value of the pixel 2313 in FIG. 23F is a value larger than “0”, it is determined that the pixel is inside the edge, and the process proceeds to Step 2205 (Yes in Step 2204).

そして、注目画素に隣接する上下左右の画素に、エッジ画素であってスクリーンドットを構成する画素は存在しないので、ステップ2208へ進む(ステップ2205でNo)。   Then, since there is no pixel that is an edge pixel and forms a screen dot in the upper, lower, left and right pixels adjacent to the target pixel, the process proceeds to step 2208 (No in step 2205).

そして、注目画素はスクリーンドットを構成するので(図23(c)の画素2316を参照)、ステップ2209へ進み、ドット補正データが生成される。ここで、画素2313(=画素2316)を注目画素とした場合の3x3画素のスクリーンデータの合計値[DotSum]は、画素値が“15”の画素が3個、画素値が“8”の画素が1個なので“53”となる。そして、同様に、上記3x3画素内のエッジ補正データの合計値[EdgeSum]は、画素値が“8”の画素が3個なので“24”となる。さらに、上記3x3画素内のドット補正データが適用される画素(3x3画素内の画素値が0以外の画素であってエッジを構成しない画素)の数[DotNum]は、3個である(図23(f)を参照)。よって、この場合のドット補正データ[DotFixVal]は、(53−24)/3=9.66≒10となる。   Then, since the target pixel forms a screen dot (see the pixel 2316 in FIG. 23C), the process proceeds to step 2209, where dot correction data is generated. Here, when the pixel 2313 (= pixel 2316) is set as the target pixel, the total value [DotSum] of the 3 × 3 pixel screen data is three pixels having the pixel value “15” and the pixel having the pixel value “8”. Is one, so it is “53”. Similarly, the total value [EdgeSum] of the edge correction data in the 3 × 3 pixel is “24” because there are three pixels having the pixel value “8”. Further, the number [DotNum] of the pixels to which the dot correction data in the 3 × 3 pixels is applied (pixels having pixel values other than 0 and not forming an edge in the 3 × 3 pixels) is three (FIG. 23). (F)). Therefore, the dot correction data [DotFixVal] in this case is (53-24) /3=9.66/10.

なお、「注目画素を含む所定領域内のスクリーンデータの合計値と該所定領域内のエッジ補正データの合計値との差」を「該所定領域内のドット補正データが適用される画素の数」で除算するのは、注目画素を中心とする3x3画素で濃度を保存するためである。本来、図23(a)の入力画像に対して、図23(c)のスクリーンデータは濃度が保存された状態である。しかし、図23(e)のエッジ補正データがエッジ部に付加されるので、濃度が上昇してしまう。画像合成処理後のエッジ部は、エッジ補正データとドット補正データから構成されるので、濃度保存されたスクリーンデータの結果からエッジ補正データを減算すればドット補正データを算出することが可能となる。なお、本実施例では、所定領域を3x3画素の領域としたが、5x5画素や7x7画素であっても構わない。   Note that “the difference between the total value of the screen data in the predetermined area including the target pixel and the total value of the edge correction data in the predetermined area” is “the number of pixels to which the dot correction data is applied in the predetermined area”. The reason for dividing by is to preserve the density of 3 × 3 pixels centered on the target pixel. Originally, the screen data in FIG. 23C is in a state where the density is stored for the input image in FIG. However, since the edge correction data of FIG. 23E is added to the edge portion, the density increases. Since the edge portion after the image synthesizing process is composed of the edge correction data and the dot correction data, the dot correction data can be calculated by subtracting the edge correction data from the result of the density-preserved screen data. In the present embodiment, the predetermined area is a 3 × 3 pixel area, but may be a 5 × 5 pixel or a 7 × 7 pixel.

ステップ2210において、画像合成部2002は、注目画素について生成されたドット補正データを、出力画像データとしてプリンタ部103に出力する。   In step 2210, the image synthesis unit 2002 outputs the dot correction data generated for the target pixel to the printer unit 103 as output image data.

ステップ2211において、画像合成部2102は、スクリーン処理部305の出力結果であるスクリーンデータ[Sc] における注目画素の画素値を、出力画像データとしてプリンタ部103に出力する。   In step 2211, the image synthesis unit 2102 outputs the pixel value of the target pixel in the screen data [Sc], which is the output result of the screen processing unit 305, to the printer unit 103 as output image data.

上記の処理が、入力画像データ内に未処理の画素がなくなるまで繰り返される。以上が、本実施例に係る画像合成処理の内容である。   The above process is repeated until there is no unprocessed pixel in the input image data. The above is the content of the image synthesis processing according to the present embodiment.

なお、ドット移動データやドット補正データの生成の手法は、上述したものに限定されるわけではない。例えば、注目画素のガンマ補正後の画素値を入力値とし、各入力値に対応するドット移動データ及びドット補正データの値を出力値としたLUTを予め用意し、これを用いて、ドット移動データやドット補正データを生成してもよい。   The method of generating the dot movement data and the dot correction data is not limited to the above. For example, an LUT in which the pixel value of the target pixel after gamma correction is set as an input value, the dot movement data corresponding to each input value and the value of the dot correction data as an output value are prepared in advance, and the dot movement data Or, dot correction data may be generated.

<変形例>
小ポイントの文字などエッジが密集するオブジェクトの場合、上述した手法でドット移動データを生成してしまうと、エッジが密集する部分とその周囲にあるエッジが密集していない部分との間に濃度差が発生して、画像劣化の原因となる。そこで、上述の実施例2をベースとし、注目画素周囲のエッジ画素の数も考慮してドット移動データを生成する態様について、変形例として説明する。
<Modification>
For objects with dense edges, such as small point characters, if dot movement data is generated using the above-described method, the density difference between the densely populated edges and the surrounding edges that are not densely populated. Occurs, causing image degradation. Therefore, a modified example will be described in which the dot movement data is generated based on the above-described second embodiment and also considering the number of edge pixels around the target pixel.

実施例2とは、ステップ2206におけるドット移動データ生成処理の内容が異なるのみなので、以下では、本変形例におけるドット移動データ生成の手法についてのみ説明する。   Since only the content of the dot movement data generation processing in step 2206 is different from that of the second embodiment, only the method of generating dot movement data in the present modification will be described below.

ステップ2206において、画像合成部2002は、エッジドット画素のスクリーンデータの画素値からエッジ補正データにおける画素値を減算し、当該減算によって得られた値に所定のエッジ補正率を乗算して、ドット移動データを得る。ここで、エッジ補正率は、注目画素の所定の周辺領域(例えば、5×5画素の領域)内にあるエッジ画素の数によって決まる値であり、例えば一次元のLUT(補正率テーブル)により決定される。図24は、所定の周辺領域が5×5画素の領域の場合における補正率テーブルの特性の一例を示す図である。図24に示す特性を持つ補正率テーブルでは、例えば注目画素の周囲に7個のエッジ画素があった場合にはエッジ補正率は80%であり、エッジ画素の数が増えるほどエッジ補正率は小さくなることが分かる。すなわち、本変形例では、注目画素の周囲に多くのエッジがあるほど、生成されるドット移動データの値は小さくなる。これにより、エッジが密集する部分とその周囲との間に大きな濃度差が発生するのを抑えることができる。   In step 2206, the image synthesizing unit 2002 subtracts the pixel value of the edge correction data from the pixel value of the screen data of the edge dot pixel, multiplies the value obtained by the subtraction by a predetermined edge correction rate, and performs dot shift. Get the data. Here, the edge correction rate is a value determined by the number of edge pixels in a predetermined peripheral area (for example, a 5 × 5 pixel area) of the target pixel, and is determined by, for example, a one-dimensional LUT (correction rate table). Is done. FIG. 24 is a diagram illustrating an example of the characteristics of the correction rate table when the predetermined peripheral area is an area of 5 × 5 pixels. In the correction rate table having the characteristics shown in FIG. 24, for example, when there are seven edge pixels around the target pixel, the edge correction rate is 80%, and the edge correction rate decreases as the number of edge pixels increases. It turns out that it becomes. That is, in the present modification, the value of the generated dot movement data decreases as the number of edges around the target pixel increases. As a result, it is possible to suppress the occurrence of a large density difference between the portion where the edges are dense and the periphery thereof.

図25は、本実施例(変形例を含む)におけるエッジ補正処理の結果の一例を示す図である。   FIG. 25 is a diagram illustrating an example of a result of the edge correction process in the present embodiment (including the modification).

図25(a)は、スクリーン処理部305に入力される画像データであり、縦6画素×横7画素の矩形のオブジェクト2501とそれより一回り小さい不整の形状のオブジェクト2502が近接した位置に存在している。オブジェクト2501とオブジェクト2502は同じ濃度である。   FIG. 25A shows image data input to the screen processing unit 305, in which a rectangular object 2501 of 6 × 7 pixels and an irregularly shaped object 2502 slightly smaller than the rectangular object 2501 exist at close positions. are doing. The objects 2501 and 2502 have the same density.

図25(b)は、エッジ情報の値が“1”のエッジ画素を斜線で示した図である。図25(b)において、破線の矩形2504は、画素2503を注目画素とした場合の周辺領域(5×5画素の領域)を示している。このときのエッジ画素の数は7個である。また、破線の矩形2506は、画素2505を注目画素とした場合の周辺領域(5×5画素の領域)を示している。このときのエッジ画素の数は15個である。   FIG. 25B is a diagram in which the edge pixels whose edge information value is “1” are indicated by oblique lines. In FIG. 25B, a dashed rectangle 2504 indicates a peripheral region (5 × 5 pixel region) when the pixel 2503 is set as a target pixel. At this time, the number of edge pixels is seven. A dashed rectangle 2506 indicates a peripheral region (5 × 5 pixel region) when the pixel 2505 is set as a target pixel. At this time, the number of edge pixels is 15.

図25(c)は、スクリーン処理部305で生成されるスクリーンデータを示した図である。画素群2507は、網点に変換された画素群である。   FIG. 25C is a diagram illustrating screen data generated by the screen processing unit 305. The pixel group 2507 is a pixel group converted into a halftone dot.

図25(d)は、画像合成部2002に入力されるエッジ補正データを示す図であり、図25(b)において斜線で示されるエッジ画素における画素値となる。   FIG. 25D is a diagram illustrating the edge correction data input to the image synthesis unit 2002, which is a pixel value of an edge pixel indicated by oblique lines in FIG. 25B.

図25(e)は、画像合成部2002に入力されるドット移動データを示す図である。   FIG. 25E is a diagram illustrating dot movement data input to the image composition unit 2002.

図25(f)は、実施例2を適用した場合のエッジ補正処理結果の一例を示す図である。画素2508はエッジを構成するエッジ画素であり、かつ、スクリーンドットが存在するので、画像合成処理によって画素2509にドットが付加されている。   FIG. 25F is a diagram illustrating an example of an edge correction processing result when the second embodiment is applied. Since the pixel 2508 is an edge pixel forming an edge and has a screen dot, a dot is added to the pixel 2509 by the image synthesis processing.

図25(g)は、変形例を適用した場合のエッジ補正処理結果の一例を示す図である。画素2510はエッジを構成するエッジ画素であり、かつ、スクリーンドットである。実施例2ではドットが付加されることなる画素2511は、当該画素を注目画素としたときの周辺領域内のエッジ画素の数が15個であるため、エッジ補正率が0%となり(図24の補正率テーブルを参照)、その結果画素値が“0(白画素)”となっている。   FIG. 25G is a diagram illustrating an example of the edge correction processing result when the modification is applied. The pixel 2510 is an edge pixel forming an edge and is a screen dot. In the second embodiment, the pixel 2511 to which a dot is added has 15 edge pixels in the peripheral area when the pixel is set as a target pixel, and thus has an edge correction rate of 0% (see FIG. 24). (See the correction rate table.) As a result, the pixel value is “0 (white pixel)”.

図25(f)と図25(g)とを比較すると、オブジェクト2502全体の濃度が図25(f)の方が図25(g)に比べて濃くなっている。その結果、本来は同じ濃度で表現されるべき2つのオブクジェクト2501及び2502が、図25(f)の方では濃度差が大きくなってしまうが、図25(g)では画素2511が白画素なので濃度差が小さくなっている。   When comparing FIG. 25 (f) with FIG. 25 (g), the density of the entire object 2502 is higher in FIG. 25 (f) than in FIG. 25 (g). As a result, the two objects 2501 and 2502, which should be originally expressed with the same density, have a large density difference in FIG. 25F, but the pixel 2511 is a white pixel in FIG. Therefore, the density difference is small.

このように、エッジ画素の数に応じてドット移動データを生成することで、エッジが密集する場合においても、画像劣化を招くことがないエッジ補正処理を実現できる。   As described above, by generating dot movement data according to the number of edge pixels, it is possible to realize edge correction processing that does not cause image degradation even when edges are dense.

また、エッジ補正データやドット補正データについても、ドット移動データと同様、エッジ画素の数に応じた生成を行ってもよい。   Further, the edge correction data and the dot correction data may be generated according to the number of edge pixels, similarly to the dot movement data.

以上述べたとおり、本実施例によれば、スクリーンドットをオブジェクトの内側に移動させることで、スクリーンドットの連続性をエッジ部付近まで保ちながら、エッジ部のジャギーを改善することができる。また、位相ずれスクリーン処理を行なわないのでそのための回路を保持する必要がなく、実施例1に比べて低コストで実現することができる。   As described above, according to the present embodiment, by moving the screen dots to the inside of the object, it is possible to improve the jaggies at the edges while maintaining the continuity of the screen dots near the edges. Further, since the phase shift screen processing is not performed, it is not necessary to hold a circuit for the screen processing, so that it can be realized at lower cost than in the first embodiment.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other Examples)
The present invention is also realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program and reads the program. This is the process to be performed.

Claims (13)

入力画像に含まれるオブジェクトのエッジ部を検出する検出手段と、
前記入力画像に対してハーフトーン処理を実行することで、前記入力画像より階調数が少ないハーフトーン画像を生成するハーフトーン処理手段と、
注目画素が、前記エッジ部に内接し、スクリーンドットを構成し、かつ、その周辺画素に前記エッジ部を構成し、かつ、スクリーンドットを構成する画素を持たない場合に、前記ハーフトーン画像における前記注目画素の濃度が薄くなるように補正して出力する出力手段と、
を有することを特徴とする画像処理装置。
Detecting means for detecting an edge portion of an object included in the input image;
By performing halftone processing on the input image, a halftone processing unit that generates a halftone image having a smaller number of tones than the input image,
The pixel of interest is inscribed in the edge portion, constitutes a screen dot, and constitutes the edge portion in peripheral pixels thereof, and when there is no pixel constituting the screen dot, the pixel in the halftone image Output means for correcting and outputting so that the density of the pixel of interest is reduced,
An image processing apparatus comprising:
前記出力手段は、注目画素が、前記エッジ部を構成する場合に、前記ハーフトーン画像における前記注目画素の濃度として、一定の濃度を有するエッジ補正データを出力することを特徴とする請求項1に記載の画像処理装置。   2. The output unit according to claim 1, wherein, when the pixel of interest forms the edge portion, edge correction data having a constant density is output as the density of the pixel of interest in the halftone image. The image processing apparatus according to any one of the preceding claims. 前記補正は、前記ハーフトーン画像における前記注目画素の濃度から前記エッジ補正データの前記一定の濃度を減算する処理であることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the correction is a process of subtracting the constant density of the edge correction data from the density of the target pixel in the halftone image. 前記エッジ補正データの前記一定の濃度は、前記入力画像における濃度に基づき決定されることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the constant density of the edge correction data is determined based on a density in the input image. 前記出力手段は、前記ハーフトーン画像における前記注目画素及び前記周辺画素からなる所定領域の濃度合計値から、前記エッジ補正データにおける当該所定領域の濃度合計値を差し引くことで得られた値に基づいて、前記ハーフトーン画像における濃度が保存されるように前記補正を行うことを特徴とする請求項に記載の画像処理装置。 The output means is based on a value obtained by subtracting a total density value of the predetermined area in the edge correction data from a total density value of a predetermined area including the target pixel and the peripheral pixels in the halftone image. 3. The image processing apparatus according to claim 2 , wherein the correction is performed so that the density in the halftone image is preserved. 前記出力手段によって出力された前記補正後のハーフトーン画像に基づき電子写真方式の画像形成を行う画像形成手段を更に備えることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 6. The image processing apparatus according to claim 1, further comprising an image forming unit configured to form an electrophotographic image based on the corrected halftone image output by the output unit. 7. apparatus. 入力画像に含まれるオブジェクトのエッジ部を検出する検出ステップと、
前記入力画像に対してハーフトーン処理を実行することで、前記入力画像より階調数が少ないハーフトーン画像を生成するハーフトーン処理ステップと、
注目画素が、前記エッジ部に内接し、スクリーンドットを構成し、かつ、その周辺画素に前記エッジ部を構成し、かつ、スクリーンドットを構成する画素を持たない場合に、前記ハーフトーン画像における前記注目画素の濃度が薄くなるように補正して出力する出力ステップと、
を有することを特徴とする画像処理方法。
A detecting step of detecting an edge portion of an object included in the input image;
By performing a halftone process on the input image, a halftone process step of generating a halftone image having a smaller number of tones than the input image,
The pixel of interest is inscribed in the edge portion, constitutes a screen dot, and constitutes the edge portion in peripheral pixels thereof, and when there is no pixel constituting the screen dot, the pixel in the halftone image An output step of correcting and outputting so that the density of the pixel of interest is reduced,
An image processing method comprising:
前記出力ステップでは、さらに、注目画素が、前記エッジ部を構成する場合に、前記ハーフトーン画像における前記注目画素の濃度として、一定の濃度を有する エッジ補正データを出力することを特徴とする請求項7に記載の画像処理方法。   In the output step, when the target pixel forms the edge portion, edge correction data having a constant density is output as the density of the target pixel in the halftone image. 8. The image processing method according to 7. 前記補正は、前記ハーフトーン画像における前記注目画素の濃度から前記エッジ補正データの前記一定の濃度を減算する処理であることを特徴とする請求項8に記載の画像処理方法。   The image processing method according to claim 8, wherein the correction is a process of subtracting the constant density of the edge correction data from the density of the target pixel in the halftone image. 前記エッジ補正データの前記一定の濃度は、前記入力画像における濃度に基づき決定されることを特徴とする請求項9に記載の画像処理方法。   The image processing method according to claim 9, wherein the constant density of the edge correction data is determined based on a density in the input image. 前記出力ステップでは、前記ハーフトーン画像における前記注目画素及び前記周辺画素からなる所定領域の濃度合計値から、前記エッジ補正データにおける当該所定領域の濃度合計値を差し引くことで得られた値に基づいて、前記ハーフトーン画像における濃度が保存されるように前記補正を行うことを特徴とする請求項乃至10のいずれか1項に記載の画像処理方法。 Wherein in the output step, from said density sum of a predetermined area consisting of the pixel of interest and the peripheral pixels in the halftone image, on the basis of the value obtained by subtracting the density sum of the predetermined region at an edge correction data 11. The image processing method according to claim 8 , wherein the correction is performed so that the density in the halftone image is preserved. 前記出力ステップにて出力された前記補正後のハーフトーン画像に基づき電子写真方式の画像形成を行う画像形成ステップを更に有することを特徴とする請求項7乃至11のいずれか1項に記載の画像処理方法。 12. The image according to claim 7, further comprising an image forming step of forming an electrophotographic image based on the corrected halftone image output in the output step. Processing method. コンピュータを、請求項1乃至6のいずれか1項に記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing device according to any one of claims 1 to 6.
JP2018159044A 2018-08-28 2018-08-28 Image processing device, image forming device, image processing method, and program. Active JP6648933B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018159044A JP6648933B2 (en) 2018-08-28 2018-08-28 Image processing device, image forming device, image processing method, and program.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018159044A JP6648933B2 (en) 2018-08-28 2018-08-28 Image processing device, image forming device, image processing method, and program.

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014167978A Division JP6403490B2 (en) 2014-08-20 2014-08-20 Image processing apparatus, image forming apparatus, image processing method, and program.

Publications (2)

Publication Number Publication Date
JP2018196151A JP2018196151A (en) 2018-12-06
JP6648933B2 true JP6648933B2 (en) 2020-02-14

Family

ID=64571853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018159044A Active JP6648933B2 (en) 2018-08-28 2018-08-28 Image processing device, image forming device, image processing method, and program.

Country Status (1)

Country Link
JP (1) JP6648933B2 (en)

Also Published As

Publication number Publication date
JP2018196151A (en) 2018-12-06

Similar Documents

Publication Publication Date Title
JP6403490B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program.
US5325211A (en) Error diffusion with output and input based feedback
US8619328B2 (en) Image processing apparatus and image processing method
JP4634292B2 (en) Image processing apparatus, image processing method, and program for causing computer to execute the method
EP0833499B1 (en) Inter-separation color image processing using error diffusion
US8477324B2 (en) Image processor and image processing method that uses s-shaped gamma curve
JP4549418B2 (en) Image processing apparatus, image processing method, image forming apparatus, program, and recording medium
US9247105B2 (en) Image forming apparatus and image forming method therefor
US20170208211A1 (en) Image processing apparatus, image processing method, and storage medium
EP0817466B1 (en) Edge enhanced error diffusion
US5784496A (en) Error sum method and apparatus for intercolor separation control in a printing system
EP2919452B1 (en) Apparatus, image processing apparatus, and method
JP2017138518A (en) Image processing apparatus, image forming apparatus, image processing method, and program
JP5023789B2 (en) Image forming apparatus
CN102043366B (en) Image processing equipment and image processing method
US10949720B2 (en) Converting image data resolution using different coefficients depending on whether a target pixel constitutes a predetermined dot
JP2015156570A (en) Color processing apparatus, image forming apparatus, and program
US10410099B2 (en) Image forming apparatus that controls whether to execute image processing for a target pixel based on a calculated amount of change of pixel values, and related control method and storage medium storing a program
JP6648933B2 (en) Image processing device, image forming device, image processing method, and program.
US11423268B2 (en) Image processing apparatus, image processing apparatus control method, and storage medium
JP2004135317A (en) Color image processing apparatus and color image processing method
JP4539979B2 (en) Image processing apparatus and image processing method
US8537412B2 (en) Printing control device
US10838339B2 (en) Image forming apparatus, dither matrix generation method, and dither matrix generation apparatus
JP2001094773A (en) Image processor

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200114

R151 Written notification of patent or utility model registration

Ref document number: 6648933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151