JP2021197709A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2021197709A
JP2021197709A JP2020105356A JP2020105356A JP2021197709A JP 2021197709 A JP2021197709 A JP 2021197709A JP 2020105356 A JP2020105356 A JP 2020105356A JP 2020105356 A JP2020105356 A JP 2020105356A JP 2021197709 A JP2021197709 A JP 2021197709A
Authority
JP
Japan
Prior art keywords
edge
image data
image
correction
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020105356A
Other languages
Japanese (ja)
Inventor
直諒 柏木
Naoaki Kashiwagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020105356A priority Critical patent/JP2021197709A/en
Publication of JP2021197709A publication Critical patent/JP2021197709A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technique to prevent a deterioration in image quality at an end of a printed image.SOLUTION: In an MFP, an image processing unit (halftone processing unit) has: an image acquisition unit 301 that acquires raster image data indicating an image; an edge extraction unit 302 that extracts an edge of an object in the image; an angle determination unit 305 that determines the direction of the edge; a correction processing unit 1601 that performs sharpening processing for an edge in the raster image data, the edge having been determined to be directed in a predetermined direction; and an image output unit 206 that outputs, to a printing unit, print image data generated based on data obtained as a result of the processing performed by the correction processing unit 1601.SELECTED DRAWING: Figure 16

Description

本開示は、画像データにおけるエッジの画質劣化を抑制する技術に関する。 The present disclosure relates to a technique for suppressing deterioration of image quality of edges in image data.

画像形成装置による印刷では、記録媒体上に印刷された画像の端部の濃度が濃くなったり、薄くなったりする濃度変化が発生する場合がある。濃度変化の現象としては「掃き寄せ」、「かきとり」が知られている。レーザービームプリンタなどの電子写真方式を用いた画像形成装置において、「掃き寄せ」は画像の上端部又は下端部にトナー(現像剤)が過剰に付着することで発生する。一方、「かきとり」は下端部のトナーがかきとられることによって発生する。 In printing by an image forming apparatus, a density change may occur in which the density of the edge portion of the image printed on the recording medium becomes darker or lighter. "Sweeping" and "scraping" are known as the phenomenon of concentration change. In an image forming apparatus using an electrophotographic method such as a laser beam printer, "sweep" is generated by excessive adhesion of toner (developer) to the upper end or the lower end of an image. On the other hand, "scraping" occurs when the toner at the lower end is scraped.

特許文献1には、複数の濃度域サンプルを用いて端部領域を補正することにより、画像の端部における濃度変化を抑制する方法が記載されている。 Patent Document 1 describes a method of suppressing a density change at an edge of an image by correcting an edge region using a plurality of density sample.

特開2009−171439号公報Japanese Unexamined Patent Publication No. 2009-171439

しかしながら、特許文献1による方法による補正を行っても、「掃き寄せ」、「かきとり」が発生することによって、画像の端部には、鮮鋭性の低下のような画質の劣化が発生することがある。 However, even if the correction is performed by the method according to Patent Document 1, the occurrence of "sweep" and "scraping" may cause deterioration of image quality such as deterioration of sharpness at the edge of the image. be.

本開示の画像処理装置は、画像を示すラスター画像データを取得する取得手段と、前記画像におけるオブジェクトのエッジを抽出する抽出手段と、前記エッジの向きを決定する決定手段と、前記ラスター画像データにおける、所定の方向を向いていると決定されたエッジに対して鮮鋭化処理を行う補正手段と、前記補正手段による処理の結果得られたデータに基づき生成された印刷画像データを印刷手段に出力する出力手段と、を有することを特徴とする。 The image processing apparatus of the present disclosure includes acquisition means for acquiring raster image data indicating an image, extraction means for extracting edges of objects in the image, determination means for determining the orientation of the edges, and raster image data. , A correction means for sharpening an edge determined to be oriented in a predetermined direction, and a print image data generated based on the data obtained as a result of the processing by the correction means are output to the printing means. It is characterized by having an output means.

本開示の技術によれば、印刷された画像の端部における画質の劣化を抑制することができる。 According to the technique of the present disclosure, deterioration of image quality at the edge of a printed image can be suppressed.

MFPのハードウェア構成を示すブロック図。A block diagram showing the hardware configuration of the MFP. 画像処理部の機能構成を示すブロック図。The block diagram which shows the functional structure of an image processing part. 中間調処理部の機能構成を示すブロック図。The block diagram which shows the functional structure of the halftone processing part. 中間調処理の全体の処理を説明するためのフローチャート。A flowchart for explaining the entire processing of the halftone processing. エッジ抽出処理を説明するためのフローチャート。A flowchart for explaining the edge extraction process. エッジ判定値を決定するためのテーブルの一例を示す模式図。The schematic diagram which shows an example of the table for determining an edge judgment value. エッジの角度を示すパターンの一例を示す模式図。The schematic diagram which shows an example of the pattern which shows the angle of an edge. エッジの角度を説明するための模式図。Schematic diagram for explaining the angle of the edge. 角度決定処理を説明するためのフローチャート。A flowchart for explaining the angle determination process. 濃度値から補正値へ変換するためのテーブルの一例を示す模式図。The schematic diagram which shows an example of the table for conversion from a density value to a correction value. 画像合成処理を説明するためのフローチャート。A flowchart for explaining the image composition process. 補正率決定テーブルを示す模式図。The schematic diagram which shows the correction factor determination table. エッジの角度と補正率決定テーブルとの対応関係を示す模式図。Schematic diagram showing the correspondence between the edge angle and the correction factor determination table. 補正値を決定するためのチャートの模式図。Schematic diagram of the chart for determining the correction value. エッジに発生するボケを説明するための図。The figure for demonstrating the blurring which occurs in an edge. 中間調処理部の機能構成を示すブロック図。The block diagram which shows the functional structure of the halftone processing part. 中間調処理の全体の処理を説明するためのフローチャート。A flowchart for explaining the entire processing of the halftone processing. ラスター画像データの補正処理を説明するためのフローチャート。A flowchart for explaining the correction process of raster image data. 中間調処理を説明するための画像データの一例を示す模式図。The schematic diagram which shows an example of the image data for explaining a halftone process. 鮮鋭化処理を説明するためのフローチャート。A flowchart for explaining the sharpening process. エッジの角度と補正パラメータとの対応関係を示す模式図。Schematic diagram showing the correspondence between the edge angle and the correction parameter. 鮮鋭化処理を施した画像の一例を示す図。The figure which shows an example of the image which performed the sharpening process. 輝度プロファイルの関係を表す模式図。The schematic diagram which shows the relationship of the brightness profile.

以下、本開示の技術を実施するための形態について図面を用いて説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものでなく、また以下の実施形態で説明されている特徴の組み合わせの全てが本開示の技術の解決手段に必須のものとは限らない。 Hereinafter, embodiments for carrying out the technique of the present disclosure will be described with reference to the drawings. It should be noted that the following embodiments do not limit the invention according to the claims, and that all combinations of features described in the following embodiments are indispensable for the means for solving the technique of the present disclosure. Not exclusively.

<第1の実施形態>
本実施形態では、画像形成装置として、電子写真プロセスを利用して画像を記録媒体に印刷するプリント機能を有し、スキャン機能、送信機能等を備えたMFP(Multi Function Peripheral)100を例に説明を行うものとする。しかしこれに限られず、他の印刷方式を行う画像形成装置に対しても本実施形態は適用可能である。なお、MFP100は画像処理装置としても機能する。
<First Embodiment>
In the present embodiment, the MFP (MultiFaction Peripheral) 100, which has a print function for printing an image on a recording medium using an electrophotographic process and has a scan function, a transmission function, and the like, will be described as an example of the image forming apparatus. Shall be done. However, the present embodiment is not limited to this, and the present embodiment can be applied to an image forming apparatus that performs another printing method. The MFP 100 also functions as an image processing device.

以下の実施形態では画像データが保持する各色空間に対応した色をR、G、BまたはL、a、bなどの英字で表すものとする。すなわち、RとはRGB色空間における赤色成分を示す。また、同様に記録媒体上に記録する色材を色毎にC(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)の英字で表す。画像データとは色毎のプレーンを持つ複数プレーンの二次元データである。例えばRGB色空間の画像データとはR、G、B毎の3つの二次元平面の層構造データを示す。 In the following embodiment, the color corresponding to each color space held by the image data is represented by an alphabetic character such as R, G, B or L, a, b. That is, R indicates a red component in the RGB color space. Similarly, the color material to be recorded on the recording medium is represented by the alphabetic characters C (cyan), M (magenta), Y (yellow), and K (black) for each color. Image data is two-dimensional data of a plurality of planes having planes for each color. For example, the image data in the RGB color space indicates layer structure data of three two-dimensional planes for each of R, G, and B.

[画像形成装置のハードウェア構成]
図1は、本実施形態に係るMFP100のハードウェア構成を示すブロック図である。MFP100は、CPU101、ROM102、RAM103、大容量記憶部104、表示部105、操作部106、エンジンI/F107、ネットワークインタフェース(I/F)108、スキャナI/F109を備える。これら各部はシステムバス110を介して相互に接続されている。また、MFP100は、印刷部111及びスキャナユニット112を更に備える。印刷部111及びスキャナユニット112は、それぞれエンジンI/F107及びスキャナI/F109を介してシステムバス110に接続されている。
[Hardware configuration of image forming device]
FIG. 1 is a block diagram showing a hardware configuration of the MFP 100 according to the present embodiment. The MFP 100 includes a CPU 101, a ROM 102, a RAM 103, a large-capacity storage unit 104, a display unit 105, an operation unit 106, an engine I / F 107, a network interface (I / F) 108, and a scanner I / F 109. Each of these parts is connected to each other via the system bus 110. Further, the MFP 100 further includes a printing unit 111 and a scanner unit 112. The printing unit 111 and the scanner unit 112 are connected to the system bus 110 via the engine I / F 107 and the scanner I / F 109, respectively.

CPU101は、MFP100全体の動作を制御する。CPU101は、ROM102に格納されたプログラムをRAM103に読み出して実行することによって、後述する各種の処理を実行する。ROM102は、読み出し専用メモリであり、システム起動プログラムや印刷部111の制御を行うためのプログラム、及び文字データや文字コード情報等が格納されている。RAM103は、揮発性のランダムアクセスメモリであり、CPU101のワークエリア、及び各種のデータの一時的な記憶領域として使用される。例えば、RAM103には、ダウンロードによって追加的に登録されたフォントデータ、外部装置から受信した画像ファイル等を格納するための記憶領域として使用される。大容量記憶部104は、例えばHDDやSSDであり、各種のデータがスプールされ、プログラム、情報ファイル及び画像データ等の格納、または、作業領域として使用される。 The CPU 101 controls the operation of the entire MFP 100. The CPU 101 executes various processes described later by reading the program stored in the ROM 102 into the RAM 103 and executing the program. The ROM 102 is a read-only memory, and stores a system startup program, a program for controlling the printing unit 111, character data, character code information, and the like. The RAM 103 is a volatile random access memory, which is used as a work area of the CPU 101 and a temporary storage area of various data. For example, the RAM 103 is used as a storage area for storing font data additionally registered by downloading, an image file received from an external device, and the like. The large-capacity storage unit 104 is, for example, an HDD or SSD, and various data are spooled and used as a storage of programs, information files, image data, and the like, or as a work area.

表示部105は、例えば液晶ディスプレイ(LCD)で構成され、MFP100の設定状態、実行中の処理の状況、エラー状態等の表示に使用される。操作部106は、ハードキー及び表示部105上に設けられたタッチパネル等の入力デバイスで構成され、ユーザの操作によって入力(指示)を受け付ける。操作部106は、MFP100の設定の変更、設定のリセット等を行うために使用され、また、色調整処理を実行する際のMFP100の色調整処理モードを実行するために使用される。 The display unit 105 is composed of, for example, a liquid crystal display (LCD) and is used for displaying the setting state of the MFP 100, the status of processing being executed, the error status, and the like. The operation unit 106 is composed of an input device such as a hard key and a touch panel provided on the display unit 105, and receives an input (instruction) by a user operation. The operation unit 106 is used to change the setting of the MFP 100, reset the setting, and the like, and is used to execute the color adjustment processing mode of the MFP 100 when executing the color adjustment processing.

エンジンI/F107は、印刷を実行する際に、CPU101からの指示に応じて印刷部111を制御するためのインタフェースとして機能する。エンジンI/F107を介して、CPU101と印刷部111との間でエンジン制御コマンド等が送受信される。ネットワークI/F108は、MFP100をネットワーク113に接続するためのインタフェースとして機能する。なお、ネットワーク113は、例えば、LANであってもよいし、電話回線網(PSTN)であってもよい。 The engine I / F 107 functions as an interface for controlling the printing unit 111 in response to an instruction from the CPU 101 when printing is executed. Engine control commands and the like are transmitted and received between the CPU 101 and the printing unit 111 via the engine I / F 107. The network I / F 108 functions as an interface for connecting the MFP 100 to the network 113. The network 113 may be, for example, a LAN or a telephone line network (PSTN).

印刷部111は、システムバス110側から受信した画像データ(印刷画像データ)に基づいて、複数色(ここではCMYKの4色)の現像剤(トナー)を用いてマルチカラー画像を、紙等の記録媒体上に形成する。 Based on the image data (printed image data) received from the system bus 110 side, the printing unit 111 uses a developer (toner) of a plurality of colors (here, four colors of CMYK) to produce a multicolor image on paper or the like. Formed on a recording medium.

スキャナI/F109は、スキャナユニット112による原稿の読み取りを行う際に、CPU101からの指示に応じてスキャナユニット112を制御するためのインタフェースとして機能する。スキャナI/F109を介して、CPU101とスキャナユニット112との間でスキャナユニット制御コマンド等が送受信される。スキャナユニット112は、CPU101による制御によって、原稿の画像を読み取って読取画像データを生成し、スキャナI/F109を介してRAM103または大容量記憶部104に画像データを送信する。 The scanner I / F 109 functions as an interface for controlling the scanner unit 112 in response to an instruction from the CPU 101 when the scanner unit 112 reads a document. Scanner unit control commands and the like are transmitted and received between the CPU 101 and the scanner unit 112 via the scanner I / F 109. The scanner unit 112 reads the image of the original and generates the scanned image data under the control of the CPU 101, and transmits the image data to the RAM 103 or the large-capacity storage unit 104 via the scanner I / F 109.

[画像処理部の機能構成]
図2は、MFP100における画像処理を担う機能部である画像処理部の内部構成を示すブロック図である。以下に述べる画像処理部200における各処理は、CPU101が、ROM102に保持された制御プログラムをRAM103に展開して実行することで実現される。または、画像処理部200の機能の一部または全部はASIC、FPGA、または電子回路等のハードウェアで実現されてもよい。または、画像処理部200は、MFP100とは独立した装置の機能の一部として構成されてもよく、MFP100はその装置の画像処理部で処理された結果得られたデータを取得してもよい。
[Functional configuration of image processing unit]
FIG. 2 is a block diagram showing an internal configuration of an image processing unit, which is a functional unit responsible for image processing in the MFP 100. Each process in the image processing unit 200 described below is realized by the CPU 101 expanding the control program held in the ROM 102 to the RAM 103 and executing the process. Alternatively, some or all of the functions of the image processing unit 200 may be realized by hardware such as an ASIC, FPGA, or an electronic circuit. Alternatively, the image processing unit 200 may be configured as part of the function of the device independent of the MFP 100, and the MFP 100 may acquire the data obtained as a result of processing by the image processing unit of the device.

本実施形態に係る画像処理部200は、画像入力部201、制御コマンド生成部202、色変換処理部203、Raster Image Processer(以降RIP)部204、中間調処理部205、画像出力部206を有する。 The image processing unit 200 according to the present embodiment includes an image input unit 201, a control command generation unit 202, a color conversion processing unit 203, a Raster Image Processor (hereinafter RIP) unit 204, a halftone processing unit 205, and an image output unit 206. ..

画像入力部201は、印刷する画像のデータを取得する。入力画像データは、例えばホストPC115からネットワーク113及びネットワークI/F108を介して入力される画像データである。或いは、画像入力部201は、大容量記憶部104に格納された画像データを取得してもよい。入力画像データは、sRGB色空間に対応したRGBの各信号を8ビットの256階調で表現する3レイヤーのデータであるものとして説明する。なお、本実施形態におけるsRGBとはIEC(国際電気標準会議)が定めたRGB色空間の標準規格のことを指す。画像入力部201に入力された画像データは、制御コマンド生成部202に送られる。 The image input unit 201 acquires data of an image to be printed. The input image data is, for example, image data input from the host PC 115 via the network 113 and the network I / F 108. Alternatively, the image input unit 201 may acquire the image data stored in the large-capacity storage unit 104. The input image data will be described as being three-layer data in which each RGB signal corresponding to the sRGB color space is expressed by 8-bit 256 gradations. In addition, sRGB in this embodiment refers to the standard of RGB color space defined by IEC (International Electrotechnical Commission). The image data input to the image input unit 201 is sent to the control command generation unit 202.

制御コマンド生成部202は、入力画像データに基づき、色変換処理部203の制御及びRIP部204の制御コマンドの生成を行う。生成された制御コマンドはRIP部204に送られる。 The control command generation unit 202 controls the color conversion processing unit 203 and generates control commands for the RIP unit 204 based on the input image data. The generated control command is sent to the RIP unit 204.

色変換処理部203は、さらに予め記憶されている色変換テーブルを用いて、入力画像データのRGB値をCMYK色空間の色値(画素値)に変換する色変換処理を行う。色変換テーブルはRAM103または大容量記憶部104に記憶されている。例えば、色変換処理部203は、入力画像データの色値を、印刷部111に依存しないRGB色空間からdevRGB色空間の色値に変換する。さらに、色変換処理部203は、devRGB色空間からL***色空間の色値へ変換し、L***色空間からCMYK色空間の色値に色変換する。このように色変換処理を施すことで入力画像データの色値がCMYK色空間の色値に変換される。L***色空間はCIE(国際照明委員会)が定める、人間の視覚特性を考慮した印刷部111に依存しない3次元の視覚均等色空間を指す。印刷部111に依存しない色空間を介することで、人間が同一色と認識する色の再現を実現する。なお、印刷部111に依存しないRGB色空間からCMYK色空間への色変換処理の方法は上述の方法に限定されない。例えば、色変換処理部203は、3つの色変換テーブルが合成された色変換テーブルを用いて、RGB色空間の色値をCMYK色空間の色値に変換してもよい。 The color conversion processing unit 203 further performs color conversion processing for converting RGB values of input image data into color values (pixel values) in the CMYK color space by using a color conversion table stored in advance. The color conversion table is stored in the RAM 103 or the large-capacity storage unit 104. For example, the color conversion processing unit 203 converts the color value of the input image data from the RGB color space independent of the printing unit 111 to the color value of the devRGB color space. Further, the color conversion processing unit 203 converts the devRGB color space into the color value in the L * a * b * color space, and converts the color from the L * a * b * color space into the color value in the CMYK color space. By performing the color conversion process in this way, the color value of the input image data is converted into the color value of the CMYK color space. The L * a * b * color space refers to a three-dimensional visual uniform color space defined by the CIE (International Commission on Illumination) that does not depend on the printing unit 111 in consideration of human visual characteristics. By passing through a color space that does not depend on the printing unit 111, it is possible to reproduce colors that humans recognize as the same color. The method of color conversion processing from the RGB color space to the CMYK color space, which does not depend on the printing unit 111, is not limited to the above method. For example, the color conversion processing unit 203 may convert the color value of the RGB color space into the color value of the CMYK color space by using the color conversion table in which the three color conversion tables are combined.

RIP部204は、制御コマンド生成部202が生成した制御コマンドを用いてCMYK色空間のラスター画像のデータを生成する。本実施形態においてCMYK色空間のラスター画像データは、記録媒体上に記録する色材の色毎の記録量を示す4プレーンの二次元データである。本実施形態では各色8ビットのデータであるものとして説明する。 The RIP unit 204 generates raster image data in the CMYK color space using the control commands generated by the control command generation unit 202. In the present embodiment, the raster image data in the CMYK color space is four-plane two-dimensional data indicating the recording amount for each color of the coloring material to be recorded on the recording medium. In this embodiment, it is assumed that the data is 8-bit data for each color.

中間調処理部205は、RIP部204によって生成されたラスター画像に対して、中間調処理を行う。入力画像データが各色256階調で表現されるデータであっても、印刷部が対応可能な階調数は、2、4、また16階調等の256階調より少ない低階調数である場合が多い。中間調処理部205は、256階調よりも少ない階調数でも安定した中間調表現での出力が可能となるように中間調処理を行う。これらの処理を経て印刷部111で表現可能なデータである印刷画像データが生成される。以下、本実施形態の印刷部111が表現可能な階調数は16であるものとして説明する。 The halftone processing unit 205 performs halftone processing on the raster image generated by the RIP unit 204. Even if the input image data is data expressed in 256 gradations for each color, the number of gradations that the printing unit can handle is a low gradation number less than 256 gradations such as 2, 4, and 16 gradations. In many cases. The halftone processing unit 205 performs halftone processing so that stable halftone expression can be output even with a number of gradations smaller than 256 gradations. Through these processes, print image data, which is data that can be expressed by the print unit 111, is generated. Hereinafter, the number of gradations that can be expressed by the printing unit 111 of the present embodiment will be described as 16.

画像出力部206は、中間調処理部205から印刷画像データを受け取ると、エンジンI/F107を介して印刷画像データを印刷部111に送信する。CPU101は、印刷画像データに基づく画像形成の指示を、印刷部111に対して行う。印刷部111は、露光、現像、転写及び定着の各プロセスを実行することによって、記録媒体上に入力画像データに従ったカラー画像を印刷する。 When the image output unit 206 receives the print image data from the halftone processing unit 205, the image output unit 206 transmits the print image data to the print unit 111 via the engine I / F 107. The CPU 101 instructs the printing unit 111 to form an image based on the printed image data. The printing unit 111 prints a color image according to the input image data on the recording medium by executing each process of exposure, development, transfer, and fixing.

[中間調処理部の機能構成]
図3は、中間調処理部205の機能構成を示す機能ブロック図である。中間調処理部205は、画像取得部301、エッジ抽出部302、量子化処理部303、補正量決定部304、角度決定部305、画像合成部306を有する。
[Functional configuration of halftone processing unit]
FIG. 3 is a functional block diagram showing a functional configuration of the halftone processing unit 205. The halftone processing unit 205 includes an image acquisition unit 301, an edge extraction unit 302, a quantization processing unit 303, a correction amount determination unit 304, an angle determination unit 305, and an image composition unit 306.

画像取得部301は、RIP部204からCMYK色空間で表現されたラスター画像データを取得する。画像取得部301は、CMYK色空間のラスター画像データを取得すると、エッジ抽出部302、量子化処理部303、補正量決定部304の各処理部にラスター画像データを出力する。 The image acquisition unit 301 acquires raster image data expressed in the CMYK color space from the RIP unit 204. When the image acquisition unit 301 acquires raster image data in the CMYK color space, it outputs the raster image data to each processing unit of the edge extraction unit 302, the quantization processing unit 303, and the correction amount determination unit 304.

エッジ抽出部302は、画像取得部301からラスター画像データを取得する。エッジ抽出部302は、ラスター画像データに基づき画像内の各オブジェクトの端部(エッジ)の抽出を行い、画素ごとに、その画素がエッジを構成する画素であるかを示す値が保持されているエッジ画像データを生成する。エッジ画像データは角度決定部305に出力される。エッジ抽出処理の詳細は後述する。 The edge extraction unit 302 acquires raster image data from the image acquisition unit 301. The edge extraction unit 302 extracts the end portion (edge) of each object in the image based on the raster image data, and holds a value indicating whether the pixel is a pixel constituting the edge for each pixel. Generate edge image data. The edge image data is output to the angle determination unit 305. The details of the edge extraction process will be described later.

角度決定部305は、エッジ画像データを取得し、エッジ画像データにおける、エッジを構成する画素とその周りの画素である参照画素とを用いて、その画素で構成されるエッジの角度(エッジの向き)を決定する。エッジの角度の決定方法については後述する。 The angle determination unit 305 acquires the edge image data, and uses the pixels constituting the edge and the reference pixels which are pixels around the edges in the edge image data, and the angle of the edge composed of the pixels (edge orientation). ) Is determined. The method of determining the edge angle will be described later.

量子化処理部303は、ラスター画像データに基づき組織的ディザ法によって量子化を行うことにより、スクリーンデータ(ハーフトーン画像データ)を生成する。ハーフトーン画像データは、印刷部111で印刷可能な4ビット(16階調)の画像データである。量子化処理はCMYK毎に行われ、CMYK毎のハーフトーン画像データが生成される。組織的ディザ法については、周知の技術であるため説明は省略する。なお、本実施形態では組織的ディザ法によって量子化するものとして説明するが、他にも濃度パターン法、誤差拡散法等の様々な方法を適用することが可能である。 The quantization processing unit 303 generates screen data (halftone image data) by performing quantization by a systematic dither method based on raster image data. The halftone image data is 4-bit (16 gradations) image data that can be printed by the printing unit 111. The quantization process is performed for each CMYK, and halftone image data for each CMYK is generated. Since the systematic dither method is a well-known technique, the description thereof will be omitted. In this embodiment, it is described as being quantized by the systematic dither method, but various other methods such as a concentration pattern method and an error diffusion method can be applied.

補正量決定部304は、エッジのがたつきを補正するための、エッジ補正データを生成する。
生成されたエッジ補正データは画像合成部306に送られる。エッジ補正データは、印刷部111によって形成される画像のエッジがドットで縁取られるようにハーフトーン画像データを補正するためのデータである。補正量決定部304の詳細な処理は後述する。
The correction amount determination unit 304 generates edge correction data for correcting the rattling of the edge.
The generated edge correction data is sent to the image compositing unit 306. The edge correction data is data for correcting the halftone image data so that the edges of the image formed by the printing unit 111 are bordered by dots. The detailed processing of the correction amount determination unit 304 will be described later.

画像合成部306は、エッジ角度データ、ハーフトーン画像データ、エッジ補正データを取得する。画像合成部306は、エッジ角度データに基づき、エッジ補正データをエッジの角度に応じて修正する。さらに、修正したエッジ補正データとハーフトーン画像データとを合成処理し、印刷部111で出力するための印刷画像データを生成する。画像合成部306の詳細な処理は後述する。 The image composition unit 306 acquires edge angle data, halftone image data, and edge correction data. The image composition unit 306 corrects the edge correction data according to the angle of the edge based on the edge angle data. Further, the corrected edge correction data and the halftone image data are combined to generate print image data to be output by the print unit 111. The detailed processing of the image composition unit 306 will be described later.

[がたつきについて]
本実施形態で説明する「がたつき」とは、量子化処理部303において中間調濃度のラスター画像を面積階調処理することで発生する階段状のギザギザである。組織的ディザ法で用いられるスクリーンの線数、印刷部111で表現可能な解像度に加え、搬送方向に応じたエッジでのドットの再現性によってがたつきに違いが発生する。
[About rattling]
The “rattling” described in the present embodiment is a stepped jaggedness generated by area gradation processing of a raster image having a halftone density in the quantization processing unit 303. In addition to the number of lines on the screen used in the systematic dither method and the resolution that can be expressed by the printing unit 111, the reproducibility of dots at the edges according to the transport direction causes a difference in rattling.

がたつきを補正する方法として、エッジを縁取るようにドットが形成されるようなエッジ補正データを生成して、エッジ補正データとスクリーンデータを合成して、印刷画像データを生成することが考えられる。しかしながら、例えば、画像が印刷される記録媒体の搬送方向の下流側を向きのエッジでは印刷部によるドットの再現性が低く、エッジを一律に補正する方法では、がたつきが補正しきれない場合がある。 As a method of correcting rattling, it is conceivable to generate edge correction data in which dots are formed so as to border the edges, and combine the edge correction data and screen data to generate print image data. Be done. However, for example, when the edge facing the downstream side in the transport direction of the recording medium on which the image is printed has low dot reproducibility by the printing unit, the rattling cannot be completely corrected by the method of uniformly correcting the edge. There is.

このため本実施形態では、補正量決定部304によって生成されたエッジ補正データをエッジの向きに応じて修正することにより、がたつきの補正の精度を高め、印刷画像の劣化を抑制する方法を説明する。 Therefore, in the present embodiment, a method of improving the accuracy of rattling correction and suppressing deterioration of the printed image by correcting the edge correction data generated by the correction amount determination unit 304 according to the direction of the edge will be described. do.

[中間調処理の処理フロー]
図4は、中間調処理部205における全体の処理の流れを示すフローチャートである。図4を用いて本実施形態に係る中間調処理の全体の処理フローについて説明する。図4のフローチャートで示される一連の処理は、MFP100のCPU101がROM102に記憶されているプログラムコードをRAM103に展開し実行することにより行われる。また、図4におけるステップの一部または全部の機能をASICまたは電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味し、以後のフローチャートにおいても同様とする。
[Processing flow for halftone processing]
FIG. 4 is a flowchart showing the overall processing flow in the halftone processing unit 205. The entire processing flow of the halftone processing according to the present embodiment will be described with reference to FIG. The series of processes shown in the flowchart of FIG. 4 is performed by the CPU 101 of the MFP 100 expanding the program code stored in the ROM 102 into the RAM 103 and executing the program code. Further, some or all the functions of the steps in FIG. 4 may be realized by hardware such as an ASIC or an electronic circuit. The symbol "S" in the description of each process means that the step is a step in the flowchart, and the same applies to the subsequent flowcharts.

S401において画像取得部301は、RIP部204から出力されたCMYK色空間のラスター画像データを取得する。画像取得部301は、取得したラスター画像データを、エッジ抽出部302、量子化処理部303、補正量決定部304に出力する。 In S401, the image acquisition unit 301 acquires the raster image data of the CMYK color space output from the RIP unit 204. The image acquisition unit 301 outputs the acquired raster image data to the edge extraction unit 302, the quantization processing unit 303, and the correction amount determination unit 304.

S402ではラスター画像データからエッジ画像データを生成するエッジ抽出処理が行われる。 In S402, an edge extraction process for generating edge image data from raster image data is performed.

図5は、エッジ抽出処理の詳細を説明するためのフローチャートである。図5を用いてS402の処理の詳細を説明する。エッジ抽出処理では、画素毎にエッジを構成する画素であるかを示す1ビットの値をもつエッジ画像データが作成される。エッジ抽出処理は、CMYK色空間のラスター画像データに基づき色材のデータごとに行われ、CMYKの色毎のエッジ画像データに生成される。以下のフローチャートでは、CMYKのいずれかの色材のラスター画像から、その色材のエッジ画像データを生成する処理を説明する。 FIG. 5 is a flowchart for explaining the details of the edge extraction process. The details of the processing of S402 will be described with reference to FIG. In the edge extraction process, edge image data having a 1-bit value indicating whether or not each pixel is a pixel constituting an edge is created. The edge extraction process is performed for each color material data based on the raster image data of the CMYK color space, and is generated in the edge image data for each color of CMYK. In the following flowchart, the process of generating the edge image data of the color material from the raster image of any of the color materials of CMYK will be described.

S501においてエッジ抽出部302は、ラスター画像データの画素から注目画素を選択する。 In S501, the edge extraction unit 302 selects a pixel of interest from the pixels of the raster image data.

S502においてエッジ抽出部302は、注目画素を中心とする幅3画素、高さ3画素の計9画素(3×3画素)で示す参照領域の画素値である信号値の中で、最も大きい信号値を最大値[MAX]として決定する。本実施形態のエッジ抽出処理における参照領域は、注目画素を中心とする3×3画素の領域であるものとして説明するが、参照領域は3×3画素に限定されず、5×5画素以上の領域でもよい。なお、参照領域を構成する画素を参照画素とよぶ。 In S502, the edge extraction unit 302 is the largest signal among the signal values which are the pixel values of the reference region indicated by a total of 9 pixels (3 × 3 pixels) having a width of 3 pixels and a height of 3 pixels centered on the pixel of interest. Determine the value as the maximum value [MAX]. The reference area in the edge extraction process of the present embodiment will be described as an area of 3 × 3 pixels centered on the pixel of interest, but the reference area is not limited to 3 × 3 pixels and has 5 × 5 pixels or more. It may be an area. The pixels that make up the reference area are called reference pixels.

S503においてエッジ抽出部302は、参照領域内の信号値の中で、最も小さい信号値を最小値[MIN]として決定する。 In S503, the edge extraction unit 302 determines the smallest signal value among the signal values in the reference region as the minimum value [MIN].

S504においてエッジ抽出部302は、S502で決定された最大値[MAX]からS503で決定された最小値[MIN]を減算し、コントラスト値[CONT]を算出する。これにより、参照領域の信号値の段差量が算出される。 In S504, the edge extraction unit 302 subtracts the minimum value [MIN] determined in S503 from the maximum value [MAX] determined in S502 to calculate the contrast value [CONT]. As a result, the step amount of the signal value in the reference area is calculated.

S505においてエッジ抽出部302は、S503で決定された最小値[MIN]を入力とする一次元のルックアップテーブル(以下、LUT)を用いて、エッジ判定値[Sub]を決定する。 In S505, the edge extraction unit 302 determines the edge determination value [Sub] using a one-dimensional look-up table (hereinafter referred to as LUT) in which the minimum value [MIN] determined in S503 is input.

図6は本ステップで用いられる一次元のLUTの例である。エッジ判定値[Sub]は、注目画素がオブジェクトのエッジを構成する画素であるかを判定するための閾値である。 FIG. 6 is an example of a one-dimensional LUT used in this step. The edge determination value [Sub] is a threshold value for determining whether the pixel of interest is a pixel constituting the edge of the object.

S506においてエッジ抽出部302は、S504で決定されたコントラスト値[CONT]とS505で決定されたエッジ判定値[Sub]とを比較し、コントラスト値[CONT]の方が大きいかを判定する。判定の結果、エッジ判定値[Sub]よりもコントラスト値[CONT]の方が大きい場合(S506がYES)S507に進む。 In S506, the edge extraction unit 302 compares the contrast value [CONT] determined in S504 with the edge determination value [Sub] determined in S505, and determines whether the contrast value [CONT] is larger. As a result of the determination, when the contrast value [CONT] is larger than the edge determination value [Sub] (YES in S506), the process proceeds to S507.

コントラスト値[CONT]が閾値より大きく、コントラスト値[CONT]が十分に大きいということは、信号値に急峻な変化がある領域であるため、注目画素はエッジを構成している画素であると考えられる。このため、S507においてエッジ抽出部302は、S501で選択された注目画素がエッジ補正の対象であることを示すため、注目画素のエッジ判定信号を“1(ON)に設定する。 Since the contrast value [CONT] is larger than the threshold value and the contrast value [CONT] is sufficiently large in the region where the signal value changes sharply, it is considered that the pixel of interest is a pixel constituting the edge. Be done. Therefore, in S507, the edge extraction unit 302 sets the edge determination signal of the pixel of interest to "1 (ON)" in order to indicate that the pixel of interest selected in S501 is the target of edge correction.

一方、エッジ判定値[Sub]よりもコントラスト値[CONT]の方が大きくない場合(S506がNO)、S508に進む。エッジ判定値[Sub]よりもコントラスト値[CONT]の方が大きくない場合は、エッジ補正処理が必要ないと考えられるため、S508においてエッジ抽出部302は、注目画素のエッジ判定信号を“0(OFF)”に設定する。 On the other hand, when the contrast value [CONT] is not larger than the edge determination value [Sub] (S506 is NO), the process proceeds to S508. If the contrast value [CONT] is not larger than the edge determination value [Sub], it is considered that the edge correction process is not necessary. Therefore, in S508, the edge extraction unit 302 sets the edge determination signal of the pixel of interest to “0 ( OFF) ”.

S509において、エッジ抽出部302は、ラスター画像データの全ての画素に対してエッジ抽出処理を行ったか判定する。全ての画素に対して処理が終了していない場合は、S501に戻り、エッジ抽出処理が未処理である画素を注目画素として選択してS502〜S508の処理を繰り返す。全ての画素に対してエッジ抽出処理が完了することで、CMYK色空間のラスター画像データから、画素毎にエッジ判定信号の値が保持されているエッジ画像データが生成される。生成されたエッジ画像データは角度決定部305に出力される。そして、エッジ抽出処理は終了する。 In S509, the edge extraction unit 302 determines whether or not the edge extraction process has been performed on all the pixels of the raster image data. If the processing is not completed for all the pixels, the process returns to S501, the pixel for which the edge extraction processing has not been processed is selected as the pixel of interest, and the processing of S502 to S508 is repeated. When the edge extraction process is completed for all the pixels, edge image data in which the value of the edge determination signal is held for each pixel is generated from the raster image data in the CMYK color space. The generated edge image data is output to the angle determination unit 305. Then, the edge extraction process ends.

図4に戻り中間調処理の全体の処理フローの説明を続ける。S403では角度決定部305によって、エッジの角度を示すエッジ角度データを生成するエッジ角度決定処理が行われる。エッジ角度決定処理では、エッジ画像データに対し、5×5画素のパターンとの畳み込み演算を行い、パターンとの一致度を算出するパターンマッチングが実施される。パターンとの一致度の算出の際に参照されるエッジ画像データにおける5×5画素を参照領域と定義する。さらに、参照領域の中央に位置する画素を注目画素とし、注目画素以外の画素を周辺画素とする。 Returning to FIG. 4, the description of the entire processing flow of the halftone processing will be continued. In S403, the angle determination unit 305 performs an edge angle determination process for generating edge angle data indicating the edge angle. In the edge angle determination process, pattern matching is performed on the edge image data by performing a convolution operation with a pattern of 5 × 5 pixels and calculating the degree of matching with the pattern. A reference area is defined as 5 × 5 pixels in the edge image data referred to when calculating the degree of coincidence with the pattern. Further, the pixel located in the center of the reference region is defined as the pixel of interest, and the pixels other than the pixel of interest are defined as peripheral pixels.

図7は、エッジ角度決定処理で用いられるパターンの一例を示す。パターンは5×5画素のサイズで、画素値は0、1、2の3値である。0は背景画素を表し、1はオブジェクトの画素を表し、2は背景またはオブジェクトのいずれかの画素を表す。本実施形態では、8種類のパターン700〜707を用いる。パターンにはそれぞれ独立なID値が設定されている。図7に示すようにパターンID値の0〜7はそれぞれ、パターン700〜707に対応するものとして説明する。 FIG. 7 shows an example of a pattern used in the edge angle determination process. The pattern has a size of 5 × 5 pixels, and the pixel values are three values of 0, 1, and 2. 0 represents a background pixel, 1 represents an object pixel, and 2 represents either a background or an object pixel. In this embodiment, eight types of patterns 700 to 707 are used. Independent ID values are set for each pattern. As shown in FIG. 7, the pattern ID values 0 to 7 are described as corresponding to the patterns 700 to 707, respectively.

図8は、エッジの角度を説明するための模式図である。図8に示す通り、本実施形態では、印刷部111が画像を印刷する際の用紙等の記録媒体が搬送される方向である搬送方向に直交する軸を0°とし、0°から時計回りに回転した角度をエッジの角度と定義する。 FIG. 8 is a schematic diagram for explaining the angle of the edge. As shown in FIG. 8, in the present embodiment, the axis orthogonal to the transport direction, which is the direction in which the recording medium such as paper when the printing unit 111 prints an image is conveyed, is 0 °, and the axis is clockwise from 0 °. The angle of rotation is defined as the angle of the edge.

それぞれのパターンは角度が異なるエッジを表し、エッジ角度決定処理では、一致度が高いパターンが示すエッジの角度(エッジの向き)を、注目画素のエッジの角度(エッジの向き)として決定する。例えばパターン700〜702は、エッジが記録媒体の搬送方向の上流側を向いているエッジ(上端部)を表すパターンである。このうち、パターン700はエッジ角度が0°を表すパターンである。また、例えば、パターン705〜707は、エッジが、上流側とは反対側である記録媒体の搬送方向の下流側を向いているエッジ(下端部)のパターンである。つまり搬送方向と同じ方向を向いているエッジを表すパターンである。このうち、例えば、パターン706はエッジ角度が180°を表すパターンである。また、パターン703、704は記録媒体の搬送方向と直交している方向を向いているエッジを表すパターンである。 Each pattern represents an edge having a different angle, and in the edge angle determination process, the angle of the edge (direction of the edge) indicated by the pattern having a high degree of matching is determined as the angle of the edge of the pixel of interest (direction of the edge). For example, patterns 700 to 702 are patterns representing an edge (upper end portion) whose edge faces the upstream side in the transport direction of the recording medium. Of these, the pattern 700 is a pattern in which the edge angle represents 0 °. Further, for example, the patterns 705 to 707 are patterns of edges (lower end portions) whose edges face the downstream side in the transport direction of the recording medium, which is the opposite side to the upstream side. That is, it is a pattern representing an edge facing in the same direction as the transport direction. Of these, for example, the pattern 706 is a pattern having an edge angle of 180 °. Further, the patterns 703 and 704 are patterns representing edges facing in a direction orthogonal to the transport direction of the recording medium.

図9は、エッジ角度決定処理の詳細を説明するためのフローチャートである。図9を用いてS403の処理の詳細を説明する。エッジ角度決定処理は、CMYK色空間のラスター画像データに基づき色材のデータごとに行われ、CMYKの色毎のエッジ角度データが生成される。以下のフローチャートでは、CMYKのいずれかの色のラスター画像から、その色のエッジ画像データを生成する処理を説明する。 FIG. 9 is a flowchart for explaining the details of the edge angle determination process. The details of the processing of S403 will be described with reference to FIG. The edge angle determination process is performed for each color material data based on the raster image data of the CMYK color space, and the edge angle data for each color of CMYK is generated. In the following flowchart, a process of generating edge image data of a color from a raster image of any color of CMYK will be described.

S901において角度決定部305は、パターンマッチングに用いるパターン700〜707を取得する。 In S901, the angle determination unit 305 acquires patterns 700 to 707 used for pattern matching.

S902において角度決定部305は、エッジ画像データの画素から注目画素を選択する。 In S902, the angle determination unit 305 selects a pixel of interest from the pixels of the edge image data.

S903において角度決定部305は、注目画素のエッジ判定信号がONを示す1かを判定する。 In S903, the angle determination unit 305 determines whether the edge determination signal of the pixel of interest is 1 indicating ON.

注目画素のエッジ判定信号が1の場合(S903がYES)、注目画素はエッジを構成する画素である。このため、S904〜S907においてエッジの角度を決定するための処理が行われる。はじめに、S904において角度決定部305は、パターン700〜707からパターンマッチング処理を行う注目パターンを1つ選択する。 When the edge determination signal of the pixel of interest is 1 (YES in S903), the pixel of interest is a pixel constituting the edge. Therefore, in S904 to S907, a process for determining the angle of the edge is performed. First, in S904, the angle determination unit 305 selects one pattern of interest from the patterns 700 to 707 to perform pattern matching processing.

S905において角度決定部305は、注目画素と周辺画素とで構成される参照領域と、S904で選択した注目パターンとの一致度を算出するパターンマッチング処理を行う。パターンマッチングでは、エッジ画像データにおける注目画素を含む参照領域の25画素の値と、注目パターンの25画素の値とを比較する。そして、注目パターンにおける画素と参照領域の対応する画素との値が一致するか否かを判定する。このとき、注目パターンの画素の値が2である場合は、参照領域の対応する画素の値がどのような値であっても一致したものと判定する。このように本ステップでは注目画素の参照領域と注目パターンとの一致度が算出される。 In S905, the angle determination unit 305 performs pattern matching processing for calculating the degree of matching between the reference region composed of the pixel of interest and the peripheral pixels and the pattern of interest selected in S904. In pattern matching, the value of 25 pixels in the reference region including the pixel of interest in the edge image data is compared with the value of 25 pixels of the pattern of interest. Then, it is determined whether or not the values of the pixels in the pattern of interest and the corresponding pixels in the reference area match. At this time, when the value of the pixel of the attention pattern is 2, it is determined that the value of the corresponding pixel in the reference area matches any value. In this way, in this step, the degree of coincidence between the reference area of the pixel of interest and the pattern of interest is calculated.

S906において角度決定部305は、S901で取得した全てのパターン700〜707との一致度の算出が完了したか否かを判定する。終了していない場合、S904に戻り一致度の算出が行われていないパターンを注目パターンに選択してS905の処理を繰り返す。全パターンとのパターンマッチング処理が終了した場合にはS907に進む。 In S906, the angle determination unit 305 determines whether or not the calculation of the degree of coincidence with all the patterns 700 to 707 acquired in S901 is completed. If it is not completed, the process returns to S904, the pattern for which the matching degree has not been calculated is selected as the pattern of interest, and the process of S905 is repeated. When the pattern matching process with all the patterns is completed, the process proceeds to S907.

S907において角度決定部305は、パターン700〜707の中から一致度が最も高かったパターンを選択する。そして、一致度が最も高いパターンのID値を注目画素のエッジ角度を示す値に設定して、エッジ角度データを生成する。例えば、注目画素の参照領域がパターン706と一致度が高いと判定された場合、注目画素には、搬送方向の下流側における角度が180°であるエッジを構成する画素であることを示す「6」が設定される。 In S907, the angle determination unit 305 selects the pattern having the highest degree of matching from the patterns 700 to 707. Then, the ID value of the pattern having the highest degree of matching is set to a value indicating the edge angle of the pixel of interest, and the edge angle data is generated. For example, when it is determined that the reference region of the pixel of interest has a high degree of coincidence with the pattern 706, the pixel of interest is a pixel constituting an edge having an angle of 180 ° on the downstream side in the transport direction. Is set.

一方、注目画素のエッジ判定信号が0の場合(S903がNO)、注目画素はエッジの画素ではなくエッジ補正の対象外の画素である。このためS908において角度決定部305は、注目画素には、エッジ補正の対象外の画素である非処理画素であることを示す「−1」を設定する。 On the other hand, when the edge determination signal of the pixel of interest is 0 (NO in S903), the pixel of interest is not an edge pixel but a pixel not subject to edge correction. Therefore, in S908, the angle determination unit 305 sets “-1” indicating that the pixel of interest is a non-processed pixel that is not subject to edge correction.

S909において角度決定部305は、全ての画素に対してエッジの角度決定処理を行ったか判定する。全ての画素に対して処理が終了していない場合は、S902に戻り、未処理である画素を注目画素として選択してS902〜S908の処理を繰り返す。全ての画素に対して処理が完了することとで、エッジ角度データが生成される。本実施形態におけるエッジ角度データは、パターンのID値である0〜7と非エッジを示す−1とのいずれかの値が画素毎に保持された二次元データとして生成される。生成されたエッジ角度データは画像合成部306に出力される。そして、エッジ抽出処理は終了する。 In S909, the angle determination unit 305 determines whether or not the edge angle determination process has been performed on all the pixels. If the processing is not completed for all the pixels, the process returns to S902, the unprocessed pixel is selected as the pixel of interest, and the processing of S902 to S908 is repeated. When the processing is completed for all the pixels, the edge angle data is generated. The edge angle data in the present embodiment is generated as two-dimensional data in which any value of 0 to 7, which is the ID value of the pattern, and -1, which indicates non-edge, is held for each pixel. The generated edge angle data is output to the image composition unit 306. Then, the edge extraction process ends.

なお、画素ごとにパターンとの一致度を算出した結果に基づきエッジ角度データを生成するものとして説明したが、画素ごとに角度を決定した後に周辺との角度差が低減するような補正処理を実施することが好ましい。また、画像データの上端部が必ず搬送方向上端となるように調整することを前提として角度を算出する例を示した。しかしながら本実施形態の効果は上記の一例に限定されず、より好適には、ユーザが指定する用紙向きやページ内面付を考慮して角度を決定することが好ましい。 In addition, although it was explained that edge angle data is generated based on the result of calculating the degree of coincidence with the pattern for each pixel, correction processing is performed so that the angle difference with the periphery is reduced after determining the angle for each pixel. It is preferable to do so. Further, an example of calculating the angle is shown on the premise that the upper end of the image data is always adjusted to be the upper end in the transport direction. However, the effect of this embodiment is not limited to the above example, and more preferably, the angle is determined in consideration of the paper orientation specified by the user and the imposition on the inside of the page.

図4に戻り中間調処理の全体の処理フローの説明を続ける。S404において量子化処理部303は、多値のディザ処理によりCMYK色空間のラスター画像データからハーフトーン画像データを生成する。量子化処理部303は、予め保存されているディザマトリックスとラスター画像データを比較処理し、ハーフトーン画像データを生成する。すなわち本実施形態のように印刷部111で表現可能な階調数が16階調である場合には、例えば、16階調を表現可能な4ビットのハーフトーン画像が生成される。この場合、ビット数と同じ4枚のスクリーンデータを色材毎に独立に保持する。生成されたハーフトーン画像データは、画像合成部306に送られる。 Returning to FIG. 4, the description of the entire processing flow of the halftone processing will be continued. In S404, the quantization processing unit 303 generates halftone image data from the raster image data in the CMYK color space by multi-value dither processing. The quantization processing unit 303 compares the dither matrix stored in advance with the raster image data, and generates halftone image data. That is, when the number of gradations that can be expressed by the printing unit 111 is 16 gradations as in the present embodiment, for example, a 4-bit halftone image that can express 16 gradations is generated. In this case, four screen data having the same number of bits are independently held for each color material. The generated halftone image data is sent to the image composition unit 306.

S405において補正量決定部304は、CMYK色空間のラスター画像データからエッジ補正データを生成する。補正量決定部304は、ラスター画像から注目画素を選択して、注目画素の補正値を決定する。この処理を全画素に対して行うことにより、画素毎の補正値を保持するエッジ補正データを生成される。補正値は、エッジのがたつき補正するため、後述する画像合成処理において、エッジと判定された画素の、ハーフトーン画像データの画素値を補正するために用いられる。 In S405, the correction amount determination unit 304 generates edge correction data from the raster image data in the CMYK color space. The correction amount determination unit 304 selects the pixel of interest from the raster image and determines the correction value of the pixel of interest. By performing this process on all pixels, edge correction data holding the correction value for each pixel is generated. Since the correction value corrects the rattling of the edge, it is used to correct the pixel value of the halftone image data of the pixel determined to be the edge in the image composition processing described later.

図10は、補正値の決定に用いられる一次元のLUT1000をグラフで表した図である。図10に示すように、注目画素の補正値は、ラスター画像における注目画素の濃度値を示すCMYK毎の信号値が入力されて決定される。LUT1000は、印刷部111で表現可能な階調数に合わせて0〜15の値で補正値が決定されるように設計される。つまり、エッジ補正データはハーフトーン画像データと同じ4ビットの画像データとなる。LUT1000は色材毎に独立に保持される。そしてエッジ補正データの生成は、エッジ抽出処理および量子化処理と同様に、色材毎に独立に実施され、色材毎のエッジ補正データが生成される。生成されたエッジ補正データは画像合成部306に出力される。 FIG. 10 is a graph showing the one-dimensional LUT1000 used for determining the correction value. As shown in FIG. 10, the correction value of the pixel of interest is determined by inputting a signal value for each CMYK indicating the density value of the pixel of interest in the raster image. The LUT 1000 is designed so that the correction value is determined by a value of 0 to 15 according to the number of gradations that can be expressed by the printing unit 111. That is, the edge correction data is the same 4-bit image data as the halftone image data. The LUT 1000 is held independently for each coloring material. Then, the generation of the edge correction data is performed independently for each color material as in the edge extraction process and the quantization process, and the edge correction data for each color material is generated. The generated edge correction data is output to the image composition unit 306.

S406では、エッジ角度データ、エッジ補正データ、ハーフトーン画像データに基づき、印刷部111に出力される印刷画像データを生成するための画像合成処理が行われる。 In S406, an image composition process for generating print image data output to the print unit 111 is performed based on the edge angle data, edge correction data, and halftone image data.

[画像合成処理]
図11は、画像合成処理の詳細を説明するためのフローチャートである。図11を用いてS406の処理の詳細を説明する。画像合成処理は、色材ごとに行われ、CMYKの色毎の印刷画像データが生成される。以下のフローチャートでは、CMYKのいずれかの色材の印刷画像データを生成する処理を説明する。
[Image composition processing]
FIG. 11 is a flowchart for explaining the details of the image composition process. The details of the processing of S406 will be described with reference to FIG. The image composition process is performed for each color material, and print image data for each CMYK color is generated. In the following flowchart, a process of generating print image data of any of the CMYK color materials will be described.

S1101において画像合成部306は、注目画素を選択する。そしてS1102〜S1106において注目画素の0〜15の階調値を表す信号値を決定する処理が行われる。決定された信号値は印刷画像データにおける注目画素の信号値(画素値)として用いられ、印刷画像データが生成される。 In S1101, the image composition unit 306 selects the pixel of interest. Then, in S1102 to S1106, a process of determining a signal value representing a gradation value of 0 to 15 of the pixel of interest is performed. The determined signal value is used as a signal value (pixel value) of the pixel of interest in the printed image data, and the printed image data is generated.

S1102において画像合成部306は、エッジ角度データに基づき、注目画素がエッジを構成する画素であるかを判定する。画像合成部306は、エッジ角度データにおける、注目画素に対応する画素の値が「−1」以外の場合は、注目画素がエッジを構成する画素であると判定する。一方、エッジ角度データにおける注目画素に対応する画素における値が「−1」である場合は、注目画素がエッジを構成する画素ではないと判定する。 In S1102, the image synthesizing unit 306 determines whether the pixel of interest is a pixel constituting the edge based on the edge angle data. When the value of the pixel corresponding to the pixel of interest in the edge angle data is other than "-1", the image composition unit 306 determines that the pixel of interest is a pixel constituting the edge. On the other hand, when the value in the pixel corresponding to the pixel of interest in the edge angle data is "-1", it is determined that the pixel of interest is not a pixel constituting the edge.

注目画素がエッジでない場合(S1102がNO)、がたつきを補正する必要はない。このため、S1106に進み、画像合成部306は量子化処理の結果生成されたハーフトーン画像データの信号値をそのまま注目画素の信号値に設定する。 When the pixel of interest is not an edge (NO in S1102), it is not necessary to correct the rattling. Therefore, the process proceeds to S1106, and the image synthesizing unit 306 sets the signal value of the halftone image data generated as a result of the quantization process to the signal value of the pixel of interest as it is.

注目画素がエッジである場合(S1102がYES)、注目画素の信号値は、がたつきの補正を考慮して決定される。このためまず、S1103に進み、画像合成部306は、エッジ補正データにおける注目画素の補正値を、注目画素が構成しているエッジの角度に応じて修正する。 When the pixel of interest is an edge (YES in S1102), the signal value of the pixel of interest is determined in consideration of the correction of rattling. Therefore, first, the process proceeds to S1103, and the image synthesizing unit 306 corrects the correction value of the pixel of interest in the edge correction data according to the angle of the edge formed by the pixel of interest.

本実施形態では、エッジ抽出処理のS503で決定した注目画素の最小値[MIN]に応じて補正率を決定し、決定された補正率をS405の補正データ生成処理で決定された補正値に乗算することにより、修正後の補正値を算出する。この修正後の補正値のことを、修正値とも記す。最小値[MIN]から補正率への変換は、一次元のLUTに基づき行われる。 In the present embodiment, the correction factor is determined according to the minimum value [MIN] of the pixel of interest determined in S503 of the edge extraction process, and the determined correction factor is multiplied by the correction value determined in the correction data generation process of S405. By doing so, the corrected correction value is calculated. The corrected value after this correction is also referred to as a corrected value. The conversion from the minimum value [MIN] to the correction factor is based on a one-dimensional LUT.

図12は、最小値[MIN]を入力して補正率を決定するために用いられる一次元LUTをグラフで示した模式図である。図12に示すように、本実施形態では、補正率を決定するための一次元LUT(以下、「補正率決定テーブル」と呼ぶ)を複数備えている。複数の補正率決定テーブルにはそれぞれID値が設定されている。 FIG. 12 is a schematic diagram showing a graph of a one-dimensional LUT used for inputting a minimum value [MIN] to determine a correction factor. As shown in FIG. 12, the present embodiment includes a plurality of one-dimensional LUTs (hereinafter, referred to as “correction factor determination table”) for determining the correction factor. ID values are set in each of the plurality of correction factor determination tables.

本実施形態では、図12(a)の補正率決定テーブルには0(LUT_ID=0)が、ID値として設定されているものとする。また、図12(b)の補正率決定テーブルには1(LUT_ID=1)、図12(c)の補正率決定テーブルには2(LUT_ID=2)が、それぞれID値として設定されているものとする。本実施形態では、注目画素が構成しているエッジの角度に応じて、複数の補正率決定テーブルを選択して使い分ける。記録媒体の搬送方向に応じたドットの再現性を考慮して、エッジの角度に適した補正率決定テーブルがそれぞれ設計されており、中間調処理が行われる前に予め保存されている。 In the present embodiment, it is assumed that 0 (LUT_ID = 0) is set as the ID value in the correction factor determination table of FIG. 12 (a). Further, 1 (LUT_ID = 1) is set as the ID value in the correction factor determination table of FIG. 12 (b), and 2 (LUT_ID = 2) is set in the correction factor determination table of FIG. 12 (c). And. In the present embodiment, a plurality of correction factor determination tables are selected and used properly according to the angle of the edge formed by the pixel of interest. In consideration of the reproducibility of dots according to the transport direction of the recording medium, the correction factor determination tables suitable for the edge angles are designed, and are stored in advance before the halftone processing is performed.

補正率決定テーブルは、ID値が大きいほど、補正率が大きく決定されるように設計されている。LUT_ID=1の補正率決定テーブルは、LUT_ID=0の補正率決定テーブルよりも、補正率が大きく決定されるように設計されている。また、LUT_ID=2の補正率決定テーブルは、LUT_ID=1の補正率決定テーブルよりも、補正率が大きく決定されるように設計されている。 The correction factor determination table is designed so that the larger the ID value, the larger the correction factor is determined. The correction factor determination table with LUT_ID = 1 is designed so that the correction factor is determined to be larger than the correction factor determination table with LUT_ID = 0. Further, the correction factor determination table with LUT_ID = 2 is designed so that the correction factor is determined to be larger than the correction factor determination table with LUT_ID = 1.

補正値に補正率を乗算して修正後の補正値(修正値)が決定される。ハーフトーン画像データの信号値が補正される場合、本ステップで決定された修正値が、ハーフトーン画像データの信号値に置き換えられる。ID値が大きな補正率決定テーブルが選択されると補正率が大きく決定され、結果として、印刷部111によって形成されるドットが濃く表現されるように信号値を修正することができる。 The corrected correction value (correction value) is determined by multiplying the correction value by the correction factor. When the signal value of the halftone image data is corrected, the correction value determined in this step is replaced with the signal value of the halftone image data. When the correction factor determination table having a large ID value is selected, the correction factor is largely determined, and as a result, the signal value can be corrected so that the dots formed by the printing unit 111 are expressed darkly.

図13は、エッジの角度に対応する補正率決定テーブルのID値を保持しているテーブルを示す図である。画像合成部306は、図13のテーブルを用いて、注目画素のエッジの角度に応じた補正率決定テーブルを選択する。 FIG. 13 is a diagram showing a table that holds the ID value of the correction factor determination table corresponding to the angle of the edge. The image composition unit 306 uses the table of FIG. 13 to select a correction factor determination table according to the angle of the edge of the pixel of interest.

本実施形態では、かきとり現象による影響のように、記録媒体の搬送方向の下流側を向いているエッジが、他の側を向むいているエッジに比べがたつきが大きく発生してしまう場合について説明する。図13に示す通り、下流側を向いているエッジであることを示すパターン705、706、707(パターンID値5、6、7)には、補正率決定テーブルのID値は1または2が対応付けられている。このように、下端部のがたつきが大きく発生してしまう場合、上端部よりも下端部のエッジの補正率が大きくなるように補正率が決定される。このため、下端部では、下端部以外のエッジよりも濃いドットが印刷されるように修正値が決定されることになる。このように、本実施形態では、エッジの向きによってがたつきの大きさに違いが生じる場合でも、エッジの向きに応じたがたつきの補正をすることができる。 In the present embodiment, as in the case of the influence of the scraping phenomenon, the edge facing the downstream side in the transport direction of the recording medium causes more rattling than the edge facing the other side. explain. As shown in FIG. 13, the ID values 1 or 2 of the correction factor determination table correspond to the patterns 705, 706, and 707 (pattern ID values 5, 6, and 7) indicating that the edges are facing the downstream side. It is attached. In this way, when the rattling of the lower end portion is large, the correction factor is determined so that the correction factor of the edge of the lower end portion is larger than that of the upper end portion. Therefore, at the lower end portion, the correction value is determined so that dots darker than the edges other than the lower end portion are printed. As described above, in the present embodiment, even if the size of the rattling differs depending on the orientation of the edge, the rattling can be corrected according to the orientation of the edge.

なお、補正によりエッジのドットが高濃度となると、搬送方向の下流側を向いているエッジであっても、パターン705、707のような搬送方向に対して斜めのエッジでは、エッジのがたつきが目立つことがある。これは、パターン705、707で示すように、斜めのエッジはエッジ自体が直線ではないためである。このため、本実施形態では、搬送方向の下流側を向いているエッジであっても、エッジの角度によって選択される補正率決定テーブルを変更している。図13に示すように斜めのエッジである場合(パターンIDが5または7の場合)は、搬送方向に平行に近い向きであるエッジ(パターンIDが6の場合)と比較して小さい補正率が決定されるように、補正率決定テーブルが対応付けられている。このように、本実施形態では、エッジの向きに適したがたつきを補正することが可能となる。 When the dot density of the edge becomes high due to the correction, even if the edge faces the downstream side in the transport direction, the edge rattles at the edge diagonal to the transport direction such as patterns 705 and 707. May stand out. This is because, as shown in the patterns 705 and 707, the diagonal edges themselves are not straight lines. Therefore, in the present embodiment, the correction factor determination table selected by the angle of the edge is changed even for the edge facing the downstream side in the transport direction. As shown in FIG. 13, when the edge is slanted (when the pattern ID is 5 or 7), the correction factor is smaller than that of the edge which is almost parallel to the transport direction (when the pattern ID is 6). A correction factor determination table is associated with the determination. As described above, in the present embodiment, it is possible to correct the rattling suitable for the direction of the edge.

S1104において画像合成部306は、S1103で決定した修正値(修正後の補正値)とハーフトーン画像データの注目画素の信号値とを比較し、修正値の方が大きいかを判定する。 In S1104, the image synthesizing unit 306 compares the correction value (correction value after correction) determined in S1103 with the signal value of the pixel of interest in the halftone image data, and determines whether the correction value is larger.

修正値の方が大きい場合(S1104がYES)、S1105において画像合成部306は、印刷画像データの注目画素における信号値を、S1103の結果得られた修正値に置き換える。このように、ハーフトーン画像データにおけるエッジの信号値を修正値に置き換えることで印刷画像データが生成される。このため、エッジを縁取るドットが付与されるようにハーフトーン画像データが補正されて、がたつきが抑制される。 When the correction value is larger (YES in S1104), the image synthesizing unit 306 replaces the signal value in the pixel of interest of the printed image data with the correction value obtained as a result of S1103 in S1105. In this way, the print image data is generated by replacing the edge signal value in the halftone image data with the correction value. Therefore, the halftone image data is corrected so that dots bordering the edges are added, and rattling is suppressed.

一方、ハーフトーン画像データの信号値の方が大きい場合(S1104がNO)、S1106に進む。そして、画像合成部306は量子化処理の結果生成されたハーフトーン画像データの信号値をそのまま、印刷画像データにおける注目画素の信号値として設定する。 On the other hand, when the signal value of the halftone image data is larger (S1104 is NO), the process proceeds to S1106. Then, the image synthesizing unit 306 sets the signal value of the halftone image data generated as a result of the quantization process as it is as the signal value of the pixel of interest in the printed image data.

なお、ハーフトーン画像データの注目画素がエッジを構成する画素である場合は、ハーフトーン画像データの信号値によらずに、一律に、ハーフトーン画像データの信号値を、修正値に置き換えるように補正が行われてもよい。 When the pixel of interest in the halftone image data is a pixel constituting an edge, the signal value of the halftone image data should be uniformly replaced with a correction value regardless of the signal value of the halftone image data. Corrections may be made.

本実施形態では、ハーフトーン画像データの信号値の方が修正値よりも大きい場合は、S1105の処理のようにハーフトーン画像データの信号値を修正値に置き換えない。この方法では、量子化処理の結果生成されたハーフトーン画像データのドットの配置を活かして、がたつきの補正が行われる。よって、印刷される画像の見た目が損なうのを抑制しつつ、がたつきを補正することができる。 In the present embodiment, when the signal value of the halftone image data is larger than the correction value, the signal value of the halftone image data is not replaced with the correction value as in the process of S1105. In this method, rattling is corrected by utilizing the arrangement of dots in the halftone image data generated as a result of the quantization process. Therefore, it is possible to correct the rattling while suppressing the appearance of the printed image from being spoiled.

S1107において画像合成部306は、全ての画素に対して画像合成処理を行ったか判定する。全ての画素に対して処理が終了していない場合は、S1101に戻り、未処理である画素を注目画素として選択してS1102〜S1106の処理を繰り返す。全ての画素に対して処理が完了することとで、印刷画像データが生成される。 In S1107, the image synthesizing unit 306 determines whether or not the image synthesizing process has been performed on all the pixels. If the processing is not completed for all the pixels, the process returns to S1101, the unprocessed pixel is selected as the pixel of interest, and the processing of S1102 to S1106 is repeated. When the processing is completed for all the pixels, print image data is generated.

比較例として、S1103において1つの補正率決定テーブルによって修正値が決定される例を考えると、エッジの向きの違いによるドットの再現性が考慮されずに印刷画像データにおけるエッジの信号値が決定されてしまう。このため、比較例の方法では、かきとり現象に代表される原因により、印刷されるドットの濃度が低下する搬送方向下端側では補正量が不足することがある。 As a comparative example, considering an example in which the correction value is determined by one correction factor determination table in S1103, the signal value of the edge in the printed image data is determined without considering the reproducibility of dots due to the difference in the direction of the edge. It ends up. Therefore, in the method of the comparative example, the correction amount may be insufficient on the lower end side in the transport direction where the density of the printed dots decreases due to a cause typified by the scraping phenomenon.

一方、本実施形態によれば、エッジの向きに応じて修正値を決定することができる。このため、搬送方向によってエッジのドットの再現性が異なる場合でも、エッジの向きに適したがたつきの補正が可能となる。このため、本実施形態によれば、印刷された画像の端部における画質の劣化を抑制することができる。 On the other hand, according to the present embodiment, the correction value can be determined according to the direction of the edge. Therefore, even if the reproducibility of the edge dots differs depending on the transport direction, it is possible to correct the rattling suitable for the edge orientation. Therefore, according to the present embodiment, deterioration of image quality at the edge of the printed image can be suppressed.

[補正率決定テーブルとエッジの向きとの対応付け]
上記の説明では、オブジェクトの下端部のがたつきが他の端部よりも大きく発生してしまう場合において、下端部のがたつき補正するためのドットが他端部よりも濃く印刷されるように補正値を修正する方法を説明した。しかしながら、印刷部111を構成している露光ドラムと現像スリーブとの回転方向によっては、オブジェクトの上端部のように下端部以外のエッジの、がたつきが目立つ場合もある。このためドットが濃く表現されるように補正値を修正する対象のエッジは下端部に限られない。エッジの品位を予め確認し、全ての向きのエッジで均一にがたつきが補正されるように、エッジの向きに応じた補正率決定テーブルが選択されてもよい。例えば、上端部の方が、がたつきが発生しやすい場合は、パターンIDが0〜2の場合、LUT_IDが1または2に選択されるように図13のテーブルを設計してもよい。
[Association between correction factor determination table and edge orientation]
In the above description, when the rattling of the lower end of the object occurs larger than that of the other edges, the dots for correcting the rattling of the lower end are printed darker than the other end. Explained how to correct the correction value. However, depending on the rotation direction of the exposure drum constituting the printing unit 111 and the developing sleeve, rattling of edges other than the lower end portion such as the upper end portion of the object may be conspicuous. Therefore, the edge to which the correction value is corrected so that the dot is expressed darkly is not limited to the lower end portion. The correction factor determination table according to the direction of the edge may be selected so that the quality of the edge is confirmed in advance and the rattling is uniformly corrected for the edges in all directions. For example, if the upper end portion is more prone to rattling, the table of FIG. 13 may be designed so that the LUT_ID is selected as 1 or 2 when the pattern ID is 0 to 2.

[印刷部が表現可能な階調数]
上記の説明では、印刷部111が表現可能な階調数は3階調以上であるため、3値以上の補正値をエッジの向きに応じて修正する例を説明した。他にも、印刷部111が表現可能な階調数は2階調の場合あっても本実施形態の方法は適用可能である。例えば、印刷部111が表現可能な階調数が2値の場合には、ハーフトーン画像データ以外で付加するドットの個数を補正値で定義する。そして、がたつきが大きくなるエッジの向きでは濃度が濃く表現されるように、ハーフトーン画像データ以外で付加するドットの個数をエッジの向きに応じて増減されるように補正値を修正する方法でもよい。この方法でもエッジの向きに応じてかたつきを補正することができる。
[Number of gradations that can be expressed by the print unit]
In the above description, since the number of gradations that can be expressed by the printing unit 111 is three or more gradations, an example of correcting a correction value of three or more values according to the direction of the edge has been described. In addition, the method of this embodiment can be applied even if the number of gradations that can be expressed by the printing unit 111 is two gradations. For example, when the number of gradations that can be expressed by the printing unit 111 is binary, the number of dots to be added other than the halftone image data is defined by the correction value. Then, a method of correcting the correction value so that the number of dots to be added other than the halftone image data is increased or decreased according to the direction of the edge so that the density is expressed deeply in the direction of the edge where the rattling becomes large. But it may be. With this method as well, it is possible to correct the rattling according to the direction of the edge.

[コントラスト値を用いた補正]
エッジ補正データの補正値は、他にも例えば、コントラスト値[CONT]も考慮して修正されてもよい。例えば、補正値が増加するように修正したい場合には、コントラスト値[CONT]の値が大きくなるように制御すること補正値を増加させてもよい。または、ドットの再現性が低いエッジでは、コントラスト値[CONT]が所定の値より大きくなるように信号値を制御することでがたつきを補正してもよい。
[Correction using contrast value]
The correction value of the edge correction data may be corrected in consideration of, for example, the contrast value [CONT]. For example, when it is desired to correct the correction value so that the correction value is increased, the correction value may be increased by controlling the contrast value [CONT] to be large. Alternatively, at the edge where the reproducibility of the dots is low, the rattling may be corrected by controlling the signal value so that the contrast value [CONT] becomes larger than a predetermined value.

[エッジの向きと補正率決定テーブルとの対応関係のキャリブレーション]
上記の説明では、エッジの向きに応じた補正率決定テーブルを選択することで、エッジの向きに適したがたつきの補正を行う方法を説明した。エッジの中間調濃度のドットの再現性は、印刷部または記録媒体の種類によっても変動する。そのため、印刷部または記録媒体の種類も考慮して補正値を修正する機能を有していてもよい。
[Calibration of the correspondence between the edge orientation and the correction factor determination table]
In the above description, a method of correcting rattling suitable for the edge orientation has been described by selecting a correction factor determination table according to the edge orientation. The reproducibility of dots with halftone density at the edges also varies depending on the type of printing unit or recording medium. Therefore, it may have a function of correcting the correction value in consideration of the type of the printing unit or the recording medium.

図14は、異なる方向を向いているエッジの状態を確認するためのチャートの例である。例えば、図12(a)〜(c)に示す3つの補正率決定テーブルのいずれか1つを用いて補正値を修正して図14のチャートを印刷する。これを図12(a)〜(c)に示す3つの補正率決定テーブル全てに対して行う。ユーザは、図14のチャートが印刷された3つの印刷物のそれぞれを目視で確認し、がたつきが補正できている補正率決定テーブルを、エッジの向きに応じて特定して、図13に示すエッジの向きと補正率決定テーブルとの対応を修正してもよい。以上の処理を施すことで、印刷部111と記録媒体の種類とに応じて補正値が修正されるように処理することができる。他にも、印刷した図14のチャートをユーザが目視で確認する方法に代えて、スキャナユニット112でチャートが印刷された印刷物を読み取ることによって得られた画像データからがたつきを数値化し、適切な補正値に修正する方法でもよい。 FIG. 14 is an example of a chart for confirming the state of edges facing in different directions. For example, the correction value is corrected using any one of the three correction factor determination tables shown in FIGS. 12 (a) to 12 (c), and the chart of FIG. 14 is printed. This is done for all three correction factor determination tables shown in FIGS. 12 (a) to 12 (c). The user visually confirms each of the three printed matter on which the chart of FIG. 14 is printed, identifies the correction factor determination table in which the rattling can be corrected, according to the direction of the edge, and shows it in FIG. The correspondence between the edge orientation and the correction factor determination table may be modified. By performing the above processing, it is possible to perform processing so that the correction value is corrected according to the type of the printing unit 111 and the recording medium. In addition, instead of the method in which the user visually confirms the printed chart of FIG. 14, the rattling is quantified from the image data obtained by reading the printed matter on which the chart is printed by the scanner unit 112, and is appropriate. It may be a method of correcting to a correct correction value.

<第2の実施形態>
第1の実施形態では、エッジにおける中間調濃度の品位の劣化である「がたつき」を補正する方法を説明した。本実施形態ではエッジにおける中間調濃度の品位の劣化である「ボケ」を抑制し、鮮鋭性を向上させる方法について説明する。本実施形態は、第1の実施形態からの差分を中心に説明する。特に明記しない部分については第1の実施形態と同じ構成および処理である。
<Second embodiment>
In the first embodiment, a method for correcting "rattling", which is a deterioration in the quality of the halftone density at the edge, has been described. In this embodiment, a method of suppressing "blurring", which is a deterioration of the quality of the halftone density at the edge, and improving sharpness will be described. This embodiment will be described focusing on the difference from the first embodiment. The parts not specified in particular have the same configuration and processing as those in the first embodiment.

図15は、画像のエッジにおける中間調濃度のボケを説明するための図である。図15(a)は、エッジが理想的な状態で印刷された画像を示す図である。図15(a)では、搬送方向の上流側のエッジである上端部および搬送方向の下流側のエッジである下端部は鮮鋭性があり、ぼけが見られない。 FIG. 15 is a diagram for explaining the blurring of the halftone density at the edge of the image. FIG. 15A is a diagram showing an image printed with ideal edges. In FIG. 15A, the upper end portion, which is the upstream edge in the transport direction, and the lower end portion, which is the downstream edge in the transport direction, are sharp and no blurring is observed.

図15(b)は、エッジにボケが発生している、印刷された画像を示す図である。図15(b)の下端部Bは下端部以外の領域Aと比較してボケており鮮鋭性が低下している。印刷部111の特性により、トナーがかきとられる「かきとり」が下端部で発生する場合、または本来背景色であるべき箇所にトナーが付与されることによって生じる「掃き寄せ」が下端部で発生する場合、下端部にボケが生じることがある。 FIG. 15B is a diagram showing a printed image in which the edges are blurred. The lower end portion B in FIG. 15B is blurred as compared with the region A other than the lower end portion, and the sharpness is lowered. Due to the characteristics of the printing unit 111, "scraping" in which toner is scraped off occurs at the lower end portion, or "sweep" caused by applying toner to a portion that should be the background color occurs at the lower end portion. In that case, blurring may occur at the lower end.

本実施形態では、このような特定の向きのエッジに発生するボケを抑制する方法を説明する。なお、本実施形態では下端部の発生するボケを抑制する方法を説明するが、本実施形態は下端部以外のエッジのボケにも適用可能である。例えば上端部に発生するボケに対しても本実施形態の方法は適用可能である。 In the present embodiment, a method of suppressing blurring that occurs at an edge having such a specific orientation will be described. Although the method of suppressing the blurring of the lower end portion is described in the present embodiment, the present embodiment can be applied to the blurring of the edge other than the lower end portion. For example, the method of the present embodiment can be applied to the blur generated at the upper end portion.

[中間調処理部の構成]
図16は、本実施形態の中間調処理部205の機能構成を示すブロック図である。第1の実施形態と同一の構成については、同じ符号を付して説明を省略する。本実施形態の中間調処理部205は、画像取得部301、エッジ抽出部302、角度決定部305、補正処理部1601、量子化処理部303を有する。
[Structure of halftone processing unit]
FIG. 16 is a block diagram showing a functional configuration of the halftone processing unit 205 of the present embodiment. The same components as those in the first embodiment are designated by the same reference numerals and the description thereof will be omitted. The halftone processing unit 205 of the present embodiment includes an image acquisition unit 301, an edge extraction unit 302, an angle determination unit 305, a correction processing unit 1601, and a quantization processing unit 303.

補正処理部1601は、画像取得部301が取得したラスター画像データと角度決定部305で生成されたエッジ角度データとを取得する。補正処理部1601はエッジ角度データに基づき、ラスター画像データに対してエッジのボケの発生を抑制するための補正処理を行う。補正処理部1601の詳細な処理は後述する。 The correction processing unit 1601 acquires the raster image data acquired by the image acquisition unit 301 and the edge angle data generated by the angle determination unit 305. The correction processing unit 1601 performs correction processing for suppressing the occurrence of edge blur on the raster image data based on the edge angle data. The detailed processing of the correction processing unit 1601 will be described later.

[中間調処理の処理フロー]
図17は、中間調処理部205における処理の流れを示すフローチャート図である。図17を用いて本実施形態に係る中間調処理の全体の処理フローについて説明する。
[Processing flow for halftone processing]
FIG. 17 is a flowchart showing a processing flow in the halftone processing unit 205. The entire processing flow of the halftone processing according to the present embodiment will be described with reference to FIG.

S1701において画像取得部301は、RIP部204から出力されたCMYK色空間のラスター画像データを取得する。画像取得部301は、取得したラスター画像データを、エッジ抽出部302、補正処理部1601に出力する。 In S1701, the image acquisition unit 301 acquires the raster image data of the CMYK color space output from the RIP unit 204. The image acquisition unit 301 outputs the acquired raster image data to the edge extraction unit 302 and the correction processing unit 1601.

S1702ではラスター画像データからエッジ画像データを生成するエッジ抽出処理が行われる。処理の詳細はS402と同様であるため説明は省略する。 In S1702, an edge extraction process for generating edge image data from raster image data is performed. Since the details of the processing are the same as those of S402, the description thereof will be omitted.

S1703では角度決定部305による、それぞれのエッジの角度(エッジの向き)を示すエッジ角度データを生成するためのエッジ角度決定処理が行われる。処理の詳細はS403と同様であるため説明は省略する。 In S1703, the angle determination unit 305 performs an edge angle determination process for generating edge angle data indicating the angle (direction of the edge) of each edge. Since the details of the processing are the same as those of S403, the description thereof will be omitted.

S1704では補正処理部1601によるラスター画像データの補正処理が行われる。 In S1704, the correction processing unit 1601 performs correction processing of the raster image data.

図18は、ラスター画像データの補正処理の詳細を説明するためのフローチャートである。図18を用いてS1704の処理の詳細を説明する。ラスター画像データの補正処理は、CMYK色空間のラスター画像データの色材のデータごとに行われる。以下のフローチャートでは、CMYKのいずれかの色のラスター画像に対する処理について説明する。 FIG. 18 is a flowchart for explaining the details of the correction process of the raster image data. The details of the processing of S1704 will be described with reference to FIG. The correction processing of the raster image data is performed for each color material data of the raster image data in the CMYK color space. In the following flowchart, processing for a raster image of any color of CMYK will be described.

S1801において補正処理部1601はラスター画像データに対して平滑化処理を行う。補正処理部1601は、ラスター画像データを複数の画素で構成される所定のサイズ(例えば、横3画素、縦7画素のサイズ)のウィンドウに切り出し、所定のサイズのウィンドウ内の画素に対して平滑化を行なう。平滑化は、例えば、ウィンドウ内の信号値の平均値を求め、平均値を注目画素の信号値に置き換えることで行う。ラスター画像内の画素から注目画素を選択して平滑化を行う処理を、全画素が注目画素に選択されるまで行うことでラスター画像全体が平滑化処理される。 In S1801, the correction processing unit 1601 performs smoothing processing on the raster image data. The correction processing unit 1601 cuts out the raster image data into a window of a predetermined size (for example, a size of 3 horizontal pixels and 7 vertical pixels) composed of a plurality of pixels, and smoothes the pixels in the window of the predetermined size. Perform the conversion. Smoothing is performed, for example, by obtaining the average value of the signal values in the window and replacing the average value with the signal value of the pixel of interest. The entire raster image is smoothed by performing a process of selecting a pixel of interest from the pixels in the raster image and performing smoothing until all the pixels are selected as the pixel of interest.

平滑化処理において注目画素の信号値を決定する方法は、ウィンドウ内の信号値の平均値を用いる方法に限られない。他にも例えば、フィルタ処理を用いてライン中心に重みを置いた平滑化フィルタを用いて決定してもよい。 The method of determining the signal value of the pixel of interest in the smoothing process is not limited to the method of using the average value of the signal values in the window. Alternatively, for example, it may be determined by using a smoothing filter in which a weight is placed at the center of the line by using a filtering process.

図19は、ラスター画像データの補正処理を説明するための図である。図19(a)は平滑化処理が行われる前のラスター画像の例を示す図である。図19(b)は、図19(a)のラスター画像に対して本ステップの平滑化処理がされた結果得られたラスター画像を示す図である。平滑化処理が行われた結果、図19(b)ではオブジェクトのエッジにボケがかかり、中間調の濃度が低くなっている。 FIG. 19 is a diagram for explaining a correction process of raster image data. FIG. 19A is a diagram showing an example of a raster image before the smoothing process is performed. FIG. 19B is a diagram showing a raster image obtained as a result of performing the smoothing process of this step on the raster image of FIG. 19A. As a result of the smoothing process, in FIG. 19B, the edges of the object are blurred and the density of the halftone is low.

S1802において補正処理部1601は、平滑化処理後のラスター画像の画素の信号値と、平滑化処理前のラスター画像の対応する画素の信号値との差分を算出して差分画像を生成する。図19(c)は、本ステップの結果得られる差分画像の例を示す図である。図19(c)に示すように本ステップの処理によって図19(a)に示す処理前のラスター画像のエッジが抽出される。差分画像の情報は、角度データと後述する補正パラメータに基づきラスター画像データに付加される。 In S1802, the correction processing unit 1601 calculates the difference between the signal value of the pixel of the raster image after the smoothing process and the signal value of the corresponding pixel of the raster image before the smoothing process to generate a difference image. FIG. 19C is a diagram showing an example of a difference image obtained as a result of this step. As shown in FIG. 19 (c), the processing of this step extracts the edges of the raster image before the processing shown in FIG. 19 (a). The difference image information is added to the raster image data based on the angle data and the correction parameters described later.

S1803において補正処理部1601は、差分画像とエッジ角度データとに基づき、所定の向きのエッジに対して鮮鋭化処理を行う。 In S1803, the correction processing unit 1601 performs sharpening processing on the edges in a predetermined direction based on the difference image and the edge angle data.

図20は、鮮鋭化処理の詳細を説明するためのフローチャートである。図20を用いてS1803の処理の詳細を説明する。 FIG. 20 is a flowchart for explaining the details of the sharpening process. The details of the processing of S1803 will be described with reference to FIG.

S2001において補正処理部1601は、ラスター画像データの画素から注目画素を選択する。S2002において補正処理部1601は、エッジ角度データから注目画素のエッジの角度を表す値を取得する。図19(d)は、ラスター画像データの画素に対応するエッジ角度データを示す図である。第1の実施形態で説明したように、エッジ角度データは、パターン700〜707のID値である0〜7と非エッジを示す−1とのうちの何れか値が画素毎に保持された二次元データである。 In S2001, the correction processing unit 1601 selects a pixel of interest from the pixels of the raster image data. In S2002, the correction processing unit 1601 acquires a value representing the edge angle of the pixel of interest from the edge angle data. FIG. 19D is a diagram showing edge angle data corresponding to pixels of raster image data. As described in the first embodiment, in the edge angle data, any one of 0 to 7, which is an ID value of patterns 700 to 707, and -1, which indicates a non-edge, is held for each pixel. It is dimensional data.

S2003において補正処理部1601は、注目画素のエッジの角度に応じた補正パラメータを取得する。 In S2003, the correction processing unit 1601 acquires correction parameters according to the angle of the edge of the pixel of interest.

図21は補正パラメータを取得するために用いられるテーブルを説明するための図である。補正パラメータは0と1とを含む0から1の間の値であり、後述する注目画素の補正値を算出するために用いられる。エッジの角度は注目画素によって構成されるエッジの角度であり、エッジの角度を示す値として、図7のパターンのID値が保持されている。このため、補正処理部1601は、図21のテーブルを用いて、注目画素のエッジ角度データの値から、注目画素の補正パラメータを取得できる。 FIG. 21 is a diagram for explaining a table used for acquiring correction parameters. The correction parameter is a value between 0 and 1 including 0 and 1, and is used for calculating the correction value of the pixel of interest described later. The angle of the edge is the angle of the edge composed of the pixels of interest, and the ID value of the pattern of FIG. 7 is held as a value indicating the angle of the edge. Therefore, the correction processing unit 1601 can acquire the correction parameter of the pixel of interest from the value of the edge angle data of the pixel of interest using the table of FIG. 21.

エッジの角度と補正パラメータとの対応付けは、印刷部111の特性に基づき予め決められている。そして、エッジの角度と補正パラメータとの対応付けに基づき生成された図21のテーブルがMFP100に保存されている。なお、注目画素がエッジを構成する画素でない場合、つまり、エッジ角度データにおける注目画素の値が−1の場合は、例えば、補正パラメータは0に決定される。 The association between the edge angle and the correction parameter is predetermined based on the characteristics of the printing unit 111. Then, the table of FIG. 21 generated based on the correspondence between the edge angle and the correction parameter is stored in the MFP 100. When the pixel of interest is not a pixel constituting the edge, that is, when the value of the pixel of interest in the edge angle data is -1, the correction parameter is determined to be 0, for example.

S2004において補正処理部1601は、注目画素と同じ位置にある差分画像の画素値に、S2003において取得された注目画素の補正パラメータを乗算して、ラスター画像の信号値を補正するための補正値を算出する。 In S2004, the correction processing unit 1601 multiplies the pixel value of the difference image at the same position as the pixel of interest by the correction parameter of the pixel of interest acquired in S2003 to obtain a correction value for correcting the signal value of the raster image. calculate.

S2005において補正処理部1601は、ラスター画像データの注目画素の信号値にS2004で算出された注目画素の補正値を加算し、加算の結果得られた値を、ラスター画像データの注目画素の信号値に置き換える。補正値を加算した結果得られた値が、ラスター画像データの信号値の最大値を超える場合、注目画素の信号値は最大値に置き換える。つまり、ラスター画像の信号値が8ビットの場合、ラスター画像データの注目画素の信号値に補正値を加算した結果が例えば300である場合は、255にクリッピングしてラスター画像データの注目画素の信号値を255に置き換える。 In S2005, the correction processing unit 1601 adds the correction value of the attention pixel calculated in S2004 to the signal value of the attention pixel of the raster image data, and the value obtained as a result of the addition is the signal value of the attention pixel of the raster image data. Replace with. When the value obtained as a result of adding the correction values exceeds the maximum value of the signal value of the raster image data, the signal value of the pixel of interest is replaced with the maximum value. That is, when the signal value of the raster image is 8 bits, if the result of adding the correction value to the signal value of the pixel of interest in the raster image data is, for example, 300, it is clipped to 255 and the signal of the pixel of interest in the raster image data. Replace the value with 255.

図21に示すように補正パラメータの値には、補正値を0とするパラメータである0、一般的なアンシャープマスクの処理として用いられる1、そして0より大きくかつ1未満の値である0.7などが考えられる。補正処理部1601における鮮鋭化処理はアンシャープマスクによる処理であるものとして説明するが、バイラテラルフィルタが用いられもよい。 As shown in FIG. 21, the correction parameter values include 0, which is a parameter whose correction value is 0, 1 which is used for general unsharp mask processing, and 0, which is a value larger than 0 and less than 1. 7 etc. can be considered. Although the sharpening process in the correction processing unit 1601 will be described as a process using an unsharp mask, a bilateral filter may be used.

図21に示すように注目画素の補正パラメータについては、注目画素によって構成されエッジの向き(角度)に応じて決定されている。例えば、注目画素で構成されるエッジが搬送方向の上流側を向いていると決定されたエッジである場合(パターンのID値が0〜2の場合)、注目画素の補正パラメータとして0が対応付けられている。また、注目画素で構成されるエッジの向きが搬送方向と直交する向きであると決定されたエッジである場合(パターンIDが3、4の場合)、注目画素の補正パラメータとして0が対応付けられている。つまり、本実施形態では注目画素のエッジ角度のID値が0〜4または−1の場合にはエッジに鮮鋭化処理がされないように補正パラメータは0に決定される。 As shown in FIG. 21, the correction parameter of the pixel of interest is configured by the pixel of interest and is determined according to the direction (angle) of the edge. For example, when the edge composed of the pixel of interest is determined to face the upstream side in the transport direction (when the ID value of the pattern is 0 to 2), 0 is associated as the correction parameter of the pixel of interest. Has been done. Further, when the direction of the edge composed of the pixel of interest is determined to be the direction orthogonal to the transport direction (when the pattern ID is 3 or 4), 0 is associated as the correction parameter of the pixel of interest. ing. That is, in the present embodiment, when the ID value of the edge angle of the pixel of interest is 0 to 4 or -1, the correction parameter is determined to be 0 so that the edge is not sharpened.

注目画素によって構成されるエッジが搬送方向の下流側を向いていると決定されたエッジである場合(パターンIDが5〜7の場合)、注目画素の補正パラメータには0以外の値が対応付けられている。つまり、搬送方向の下流側を向いていると決定されたエッジには鮮鋭化処理が施される。 When the edge composed of the pixel of interest is determined to face the downstream side in the transport direction (when the pattern ID is 5 to 7), a value other than 0 is associated with the correction parameter of the pixel of interest. Has been done. That is, the edge determined to face the downstream side in the transport direction is sharpened.

図19(e)は、本ステップの結果得られる補正処理がされたラスター画像の例を示す図である。本ステップの処理によって、図19(a)に示す補正処理前のラスター画像の下端部が濃くなるように信号値が修正される。このためラスター画像データを用いて量子化処理によってハーフトーン画像データを生成して、ハーフトーン画像データに基づく印刷画像データに基づき印刷部111が印刷を行っても、図15(b)のような下端部のボケの発生が抑制される。このように、本実施形態では、エッジの向きに応じて、補正パラメータを変更することにより、所定の向きのエッジに対して鮮鋭化処理を行うことが可能となる。このため、所定の向きのエッジにボケが発生しやすい場合でも、エッジのボケを抑制することができる。 FIG. 19 (e) is a diagram showing an example of a raster image that has undergone correction processing obtained as a result of this step. By the processing of this step, the signal value is corrected so that the lower end portion of the raster image before the correction processing shown in FIG. 19A becomes darker. Therefore, even if the halftone image data is generated by the quantization process using the raster image data and the printing unit 111 prints based on the printed image data based on the halftone image data, as shown in FIG. 15B. The occurrence of blurring at the lower end is suppressed. As described above, in the present embodiment, by changing the correction parameter according to the direction of the edge, it is possible to perform the sharpening process on the edge in a predetermined direction. Therefore, even when the edge in a predetermined direction is likely to be blurred, the edge blur can be suppressed.

また、本実施形態では、搬送方向の下流側を向いているエッジのうち、図7のパターン705、707に示すようなエッジの向きが搬送方向に対して斜めになっている場合、補正パラメータは0より大きくかつ1未満の値となるように対応付けられている。例えば、図21のテーブルにおいて、注目画素で構成されるエッジの角度(向き)を示す値が5または7の場合、注目画素の補正パラメータとして0.7が対応付けられている。つまり、エッジの向きが搬送方向に対して平行ではなく斜めの場合、パターン706で示すようなエッジの向きが搬送方向と同じ方向に向いている場合よりも、補正パラメータが小さな値になるように図21のテーブルが設計されている。この理由を説明する。 Further, in the present embodiment, among the edges facing the downstream side in the transport direction, when the direction of the edges as shown in the patterns 705 and 707 in FIG. 7 is slanted with respect to the transport direction, the correction parameter is set. They are associated so that they are greater than 0 and less than 1. For example, in the table of FIG. 21, when the value indicating the angle (direction) of the edge composed of the pixel of interest is 5 or 7, 0.7 is associated as the correction parameter of the pixel of interest. That is, when the direction of the edge is not parallel to the transport direction but at an angle, the correction parameter is set to a smaller value than when the direction of the edge as shown in the pattern 706 is in the same direction as the transport direction. The table of FIG. 21 is designed. The reason for this will be explained.

図22は、ラスター画像データを示す図であり、信号値が補正された搬送方向の下流側を向いているエッジを説明するための図である。図22(a)は図19(e)と同じ図であり補正されたエッジの向きは、用紙の搬送方向と同じ向きである。図22(b)は搬送方向に対して斜行しているエッジにおいて補正がされた後のラスター画像を示す図である。 FIG. 22 is a diagram showing raster image data, and is a diagram for explaining an edge facing the downstream side in the transport direction in which the signal value is corrected. 22 (a) is the same as FIG. 19 (e), and the corrected edge orientation is the same as the paper transport direction. FIG. 22B is a diagram showing a raster image after correction at an edge that is oblique with respect to the transport direction.

ここで、図22(b)の下流側のエッジの信号値が、図22(a)の下流側のエッジにおける修正後の信号値と同じになるように鮮鋭化処理がされる場合を考える。この場合、補正によりエッジの中間調が高濃度となることにより、図22(b)のような斜めのエッジではエッジのがたつきが目立つことがある。ラスター画像データの構造上、斜めのエッジはエッジ自体が直線ではないためである。 Here, consider a case where the sharpening process is performed so that the signal value of the downstream edge of FIG. 22B becomes the same as the corrected signal value of the downstream edge of FIG. 22A. In this case, the halftone of the edge becomes high density due to the correction, so that the edge rattling may be conspicuous at the diagonal edge as shown in FIG. 22 (b). This is because the diagonal edge is not a straight line due to the structure of the raster image data.

このため、本実施形態では、搬送方向の下流側を向いているエッジであっても、エッジの角度によって補正パラメータを変更している。前述したように、注目画素が構成するエッジが搬送方向に対して斜めのエッジである場合は、搬送方向に平行に近い向きであるエッジと比較して小さい値の補正パラメータを用いて鮮鋭化処理が行われる。このため、下流側を向いているエッジのうち、搬送方向に斜行しているエッジに対しては、がたつきを抑制しつつ、ボケを抑制するための補正をすることができる。このように、補正パラメータをエッジの向きに応じて変更することで、エッジの向きに適した、中間調のエッジの鮮鋭化処理を実施するすことが可能となる。 Therefore, in the present embodiment, the correction parameter is changed depending on the angle of the edge even if the edge is facing the downstream side in the transport direction. As described above, when the edge formed by the pixel of interest is an edge oblique to the transport direction, sharpening processing is performed using a correction parameter having a smaller value than the edge whose direction is close to parallel to the transport direction. Is done. Therefore, among the edges facing the downstream side, the edges that are oblique in the transport direction can be corrected to suppress blurring while suppressing rattling. In this way, by changing the correction parameter according to the direction of the edge, it is possible to carry out the sharpening process of the halftone edge suitable for the direction of the edge.

S2006において補正処理部1601は、全ての画素に対して処理を行ったか判定する。全ての画素に対して処理が終了していない場合は、S2001に戻り、未処理である画素を注目画素として選択してS2002〜S2005の処理を繰り返す。全ての画素に対して処理が完了することとで、エッジのボケが補正されるように信号値が修正されたラスター画像データが生成される。修正されたラスター画像データは量子化処理部303に出力される。そして、鮮鋭化処理は終了する。 In S2006, the correction processing unit 1601 determines whether or not processing has been performed on all the pixels. If the processing is not completed for all the pixels, the process returns to S2001, the unprocessed pixel is selected as the pixel of interest, and the processing of S2002 to S2005 is repeated. When the processing is completed for all the pixels, raster image data in which the signal value is corrected so that the edge blur is corrected is generated. The modified raster image data is output to the quantization processing unit 303. Then, the sharpening process is completed.

図17に戻り中間調処理の全体の処理フローの説明を続ける。S1705において量子化処理部303による、修正されたCMYK色空間のラスター画像データからハーフトーン画像データを生成する。ハーフトーン画像データを生成する処理は、S404と同一であるため説明を省略する。ハーフトーン画像データに基づき印刷画像データが生成され、印刷画像データが画像出力部206に出力される。 Returning to FIG. 17, the description of the entire processing flow of the halftone processing will be continued. Halftone image data is generated from the raster image data of the modified CMYK color space by the quantization processing unit 303 in S1705. Since the process of generating halftone image data is the same as that of S404, the description thereof will be omitted. Printed image data is generated based on the halftone image data, and the printed image data is output to the image output unit 206.

図23は、エッジに対する本実施形態の補正処理の効果を説明するための図である。図23(a)〜(c)の縦軸は搬送方向、横軸は輝度を表している。図23(a)は図19(a)のラスター画像の搬送方向の輝度プロファイルを表現した図であり、理想的には印刷された画像の濃度も図23(a)のように変化するのが好ましい。しかしながら、図19(a)のラスター画像を印刷した結果、下端部にボケが発生した場合は、印刷された画像の濃度は図23(b)に示すよう変化する。図23(b)のボケ部Aは「かきとり」によって発生する濃度変化によって発生したボケである。ボケ部Bは、本来背景色であるべき箇所にトナーが付与されることによって生じる「掃き寄せ」によって発生したボケである。 FIG. 23 is a diagram for explaining the effect of the correction process of the present embodiment on the edge. The vertical axis of FIGS. 23 (a) to 23 (c) represents the transport direction, and the horizontal axis represents the luminance. FIG. 23 (a) is a diagram expressing the luminance profile of the raster image of FIG. 19 (a) in the transport direction, and ideally, the density of the printed image also changes as shown in FIG. 23 (a). preferable. However, if blurring occurs at the lower end as a result of printing the raster image of FIG. 19 (a), the density of the printed image changes as shown in FIG. 23 (b). The blur portion A in FIG. 23 (b) is a blur caused by a change in density caused by “scraping”. The bokeh portion B is a bokeh generated by "sweep" caused by applying toner to a portion that should be originally a background color.

図23(c)は、図19(a)ラスター画像に対して本実施形態における補正処理が行われた結果得られたラスター画像に基づく印刷画像の濃度変化を、図23(a)と同じように表した図である。図23(b)でボケ部Aであった、図23(c)の箇所Cでは、ラスター画像データにおいて、濃度が上昇するように補正されているための鮮鋭化処理が行われる。また箇所Dでは濃度は低下する。よって、本実施形態の補正処理によって印刷された画像の下端部の濃度変化は図23(a)に近づくことになる。このため本実施形態によれば下端部のボケが抑制され。印刷された画像のエッジにおける画質の劣化を抑制することができる。 23 (c) shows the density change of the printed image based on the raster image obtained as a result of performing the correction processing in the present embodiment on the raster image of FIG. 19 (a) in the same manner as in FIG. 23 (a). It is a figure shown in. At the location C in FIG. 23 (c), which was the blurred portion A in FIG. 23 (b), a sharpening process is performed to correct the raster image data so that the density increases. Further, the concentration decreases at the location D. Therefore, the density change at the lower end of the image printed by the correction process of the present embodiment approaches FIG. 23 (a). Therefore, according to the present embodiment, blurring at the lower end is suppressed. It is possible to suppress deterioration of image quality at the edges of the printed image.

なお、第1の実施形態の方法と本実施形態の方法とを組み合わせて適用してもよい。例えば、S1705でハーフトーン画像データを生成した後に、第1の実施形態で説明したS405の補正データの生成処理と、S405の画像合成処理とが行われて、ハーフトーン画像データのエッジを補正してもよい。 In addition, the method of the first embodiment and the method of this embodiment may be applied in combination. For example, after the halftone image data is generated in S1705, the correction data generation process of S405 and the image composition process of S405 described in the first embodiment are performed to correct the edge of the halftone image data. You may.

<その他の実施形態>
上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
A program that realizes one or more functions of the above-described embodiment is supplied to a system or device via a network or a storage medium. It can also be realized by the process of reading and executing a program by one or more processors in the computer of the system or apparatus. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

301 画像取得部
302 エッジ抽出部
1601 補正処理部
206 画像出力部
200 画像処理部
100 MFP
301 Image acquisition unit 302 Edge extraction unit 1601 Correction processing unit 206 Image output unit 200 Image processing unit 100 MFP

Claims (12)

画像を示すラスター画像データを取得する取得手段と、
前記画像におけるオブジェクトのエッジを抽出する抽出手段と、
前記エッジの向きを決定する決定手段と、
前記ラスター画像データにおける、所定の方向を向いていると決定されたエッジに対して鮮鋭化処理を行う補正手段と、
前記補正手段による処理の結果得られたデータに基づき生成された印刷画像データを印刷手段に出力する出力手段と、
を有することを特徴とする画像処理装置。
An acquisition method for acquiring raster image data indicating an image,
An extraction means for extracting the edges of an object in the image,
A determination means for determining the orientation of the edge and
A correction means for sharpening an edge determined to be oriented in a predetermined direction in the raster image data, and a correction means.
An output means for outputting the printed image data generated based on the data obtained as a result of the processing by the correction means to the printing means, and an output means.
An image processing apparatus characterized by having.
前記所定の方向は、前記画像が前記印刷手段によって記録媒体に印刷される際の前記記録媒体の搬送方向における下流側および上流側のいずれか一方の側を向いている方向である
ことを特徴とする請求項1に記載の画像処理装置。
The predetermined direction is characterized in that the image is oriented toward either the downstream side or the upstream side in the transport direction of the recording medium when the image is printed on the recording medium by the printing means. The image processing apparatus according to claim 1.
前記補正手段は、
前記一方の側を向いていると決定されたエッジのうち、エッジの向きが前記一方の側に対して所定の角度を成す第1の方向である場合は、エッジの向きが前記第1の方向よりも前記搬送方向に平行な方向に近い向きをしている第2の方向の場合よりも、濃度が薄くなるように鮮鋭化処理をする
ことを特徴とする請求項2に記載の画像処理装置。
The correction means
Of the edges determined to be facing one side, if the direction of the edge is the first direction forming a predetermined angle with respect to the one side, the direction of the edge is the first direction. The image processing apparatus according to claim 2, wherein the image processing apparatus is sharpened so that the density is lower than that in the case of the second direction, which is closer to the direction parallel to the transport direction. ..
エッジに対する前記鮮鋭化処理は、アンシャープマスクにより行われ、
差分画像を前記ラスター画像データに足し合わせる処理において、前記第1の方向を向いていると決定されたエッジに鮮鋭化処理を行う場合は、前記差分画像の画素値に1未満でかつ0より大きい値を乗算した結果得られた値を足し合わせる
ことを特徴とする請求項3に記載の画像処理装置。
The sharpening treatment for the edges is performed by an unsharp mask.
In the process of adding the difference image to the raster image data, when the sharpening process is performed on the edge determined to be facing the first direction, the pixel value of the difference image is less than 1 and larger than 0. The image processing apparatus according to claim 3, wherein the values obtained as a result of multiplying the values are added together.
前記補正手段は、
前記一方の側と反対側を向いていると決定されたエッジ、および前記搬送方向と直交する方向を向いている決定されたエッジには鮮鋭化処理は行わない
ことを特徴とする請求項2から4のいずれか1項に記載の画像処理装置。
The correction means
The second aspect of the present invention is characterized in that the sharpening process is not performed on the edge determined to be facing the opposite side to the one side and the determined edge facing the direction orthogonal to the transport direction. The image processing apparatus according to any one of 4.
前記一方の側は、前記下流側である
ことを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 2 to 5, wherein one side is the downstream side.
前記抽出手段は、
前記画像を示すラスター画像データにおいて、注目画素と前記注目画素の周辺画素との画素値のうちの最大値と最小値との差に基づき、前記注目画素はエッジを構成する画素であるかを判定することにより、前記エッジの抽出を行う
ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
The extraction means is
In the raster image data showing the image, it is determined whether the pixel of interest is a pixel constituting an edge based on the difference between the maximum value and the minimum value of the pixel values of the pixel of interest and the peripheral pixels of the pixel of interest. The image processing apparatus according to any one of claims 1 to 6, wherein the edge is extracted by the image processing apparatus.
前記決定手段は、
前記抽出されたエッジと、複数の方向を向いているエッジを示す夫々のパターンと、の一致度に基づき前記エッジの向きを決定する
ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
The determination means is
The aspect according to any one of claims 1 to 7, wherein the orientation of the edge is determined based on the degree of coincidence between the extracted edge and each pattern showing the edge pointing in a plurality of directions. The image processing device described.
前記補正手段による前記鮮鋭化処理の結果得られたデータに処理をしてハーフトーン画像データを生成する生成手段をさらに有し、
前記出力手段は、前記ハーフトーン画像データに基づき生成された前記印刷画像データを印刷手段に出力する
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
Further having a generation means for generating halftone image data by processing the data obtained as a result of the sharpening process by the correction means.
The image processing apparatus according to any one of claims 1 to 8, wherein the output means outputs the printed image data generated based on the halftone image data to the printing means.
前記エッジを構成する画素に対応する前記ハーフトーン画像データの画素の値を、前記エッジの向いている方向に応じて補正する第2の補正手段をさらに有し、
前記印刷画像データは、前記第2の補正手段による補正がされた結果得られたハーフトーン画像データである
ことを特徴とする請求項9に記載の画像処理装置。
Further, it has a second correction means for correcting the value of the pixel of the halftone image data corresponding to the pixel constituting the edge according to the direction in which the edge is facing.
The image processing apparatus according to claim 9, wherein the printed image data is halftone image data obtained as a result of correction by the second correction means.
画像を示すラスター画像データを取得する取得ステップと、
前記画像におけるオブジェクトのエッジを抽出する抽出ステップと、
前記エッジの向きを決定する決定ステップと、
前記ラスター画像データにおける所定の向きの前記エッジに対して鮮鋭化処理を行う補正ステップと、
前記補正ステップによる処理の結果得られたデータに基づき生成された印刷画像データを印刷手段に出力する出力ステップと、
を有することを特徴とする画像処理方法。
The acquisition step to acquire raster image data showing an image,
An extraction step that extracts the edges of objects in the image,
The decision step to determine the orientation of the edge and
A correction step for sharpening the edge in a predetermined direction in the raster image data, and a correction step.
An output step for outputting print image data generated based on the data obtained as a result of the processing by the correction step to the printing means, and an output step.
An image processing method characterized by having.
コンピュータを、請求項1から10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the image processing apparatus according to any one of claims 1 to 10.
JP2020105356A 2020-06-18 2020-06-18 Image processing apparatus, image processing method, and program Pending JP2021197709A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020105356A JP2021197709A (en) 2020-06-18 2020-06-18 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020105356A JP2021197709A (en) 2020-06-18 2020-06-18 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2021197709A true JP2021197709A (en) 2021-12-27

Family

ID=79196060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020105356A Pending JP2021197709A (en) 2020-06-18 2020-06-18 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021197709A (en)

Similar Documents

Publication Publication Date Title
US9361557B2 (en) Image processing apparatus and control method for performing screen processing
JP6031286B2 (en) Image processing apparatus and image processing method
JP4498233B2 (en) Image processing apparatus and image processing method
US10270938B2 (en) Image-processing-based text separation method, text separation device, and image formation apparatus
CN106303150B (en) Image processing apparatus, control method for image processing apparatus, and storage medium
JP6808325B2 (en) Image processing equipment, image processing methods and programs
JP6781406B2 (en) Image processing equipment and computer programs
GB2419766A (en) Differential halftone processing
JP6613115B2 (en) Image processing apparatus, image processing method, and program
JP2018074497A (en) Image processing device, image processing method and program
JP5863001B2 (en) Image processing apparatus, image forming apparatus, and program
JP6703788B2 (en) Image processing apparatus and image processing method
US10529058B2 (en) Image processing apparatus that smooths image using classification result of pixels included therein
JP6976824B2 (en) Image processing equipment, image processing methods, and programs
JP2015002443A (en) Image processing apparatus and image processing method
JP2015002442A (en) Image processing apparatus and method
JP2021197709A (en) Image processing apparatus, image processing method, and program
JP2021197708A (en) Image processing apparatus, image processing method, and program
JP6736299B2 (en) Printing device, printing method, and program
JP2016115963A (en) Image processing apparatus, image processing method and program
JP2019134232A (en) Image formation device, and method and program for the device
US9681024B2 (en) Image processing apparatus, control method, and computer-readable recording medium configured to perform error diffusion process having and adder to add an error intergrated value diffused to the target pixel, the green noise and the predetermined noise, to the pixel value of the target pixel
JP6540056B2 (en) Digital Image Halftoning with Selective Enhancement
JP2015075834A (en) Image processing apparatus, image processing method, and program
WO2013103559A1 (en) Halftone screen generation mechanism