JP2009239530A - Correction value calculating method and printing method - Google Patents

Correction value calculating method and printing method Download PDF

Info

Publication number
JP2009239530A
JP2009239530A JP2008081749A JP2008081749A JP2009239530A JP 2009239530 A JP2009239530 A JP 2009239530A JP 2008081749 A JP2008081749 A JP 2008081749A JP 2008081749 A JP2008081749 A JP 2008081749A JP 2009239530 A JP2009239530 A JP 2009239530A
Authority
JP
Japan
Prior art keywords
data
correction value
pixel
read data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008081749A
Other languages
Japanese (ja)
Inventor
Hirokazu Kasahara
広和 笠原
透 ▲高▼橋
Toru Takahashi
Toru Miyamoto
徹 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008081749A priority Critical patent/JP2009239530A/en
Publication of JP2009239530A publication Critical patent/JP2009239530A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To calculate a correction value for suppressing the non-uniformity of density recognizable by a human being. <P>SOLUTION: A correction value acquiring method includes: a pattern forming step of forming a pattern constituted of a plurality of dot streams by forming on a medium the dot streams corresponding to data of pixel streams in print image data of a resolution matched to a printing resolution; a reading step of acquiring read data by reading an image of the pattern by means of a scanner; a filter applying step of applying a low-pass filter to the read data; and a correction value calculating step of calculating a correction value for correcting data of the pixel streams in the print image dat, for each pixel stream, respectively, in accordance with the read data to which the low-pass filter has been applied. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、補正値算出方法及び印刷方法に関する。   The present invention relates to a correction value calculation method and a printing method.

インクジェットプリンタによって紙に印刷された画像(印刷画像)にスジ状の濃度ムラが生じることがある。この濃度ムラの原因は、印刷画像を構成する多数のドット列がヘッドの製造誤差の影響で理想通りに形成されず、ドットの大小によってドット列ごとに濃淡ができたりするためと考えられている。   Streaky density unevenness may occur in an image (printed image) printed on paper by an inkjet printer. The cause of this density unevenness is considered to be that a large number of dot rows constituting a print image are not formed as ideal due to the influence of the head manufacturing error, and the density of each dot row can be changed depending on the size of the dots. .

そこで、濃く印刷される部分の画素を淡く補正し、淡く印刷される部分の画素を濃く補正するように、印刷前に画像データ(印刷画像データ)を予め補正することによって、印刷画像の濃度ムラを軽減することが行われている(特許文献1参照)。   Therefore, by correcting the image data (print image data) before printing so that the pixels of the darkly printed portion are lightly corrected and the pixels of the lightly printed portion are darkly corrected, the density unevenness of the printed image is corrected. (See Patent Document 1).

具体的には、まず、一定階調値の印刷画像データに基づいて、所定の印刷解像度(例えば720×720dpi)のテストパターンをプリンタが印刷する。このテストパターンをスキャナが読み取り、テストパターンを構成するドット列に合わせるようにして、印刷解像度に相当する幅(例えば1/720インチの幅)の列状の領域の濃度をそれぞれ検出する。そして、検出された濃度と目標濃度との差に従って、ドット列ごとに補正値をそれぞれ算出する。算出された補正値は、プリンタのメモリに記憶される。   Specifically, first, the printer prints a test pattern having a predetermined print resolution (for example, 720 × 720 dpi) based on print image data having a certain gradation value. The test pattern is read by the scanner, and the density of the row-like regions having a width corresponding to the printing resolution (for example, a width of 1/720 inch) is detected so as to match with the dot rows constituting the test pattern. Then, a correction value is calculated for each dot row in accordance with the difference between the detected density and the target density. The calculated correction value is stored in the printer memory.

その後、ユーザ下でプリンタが画像を印刷するときに、印刷画像データの解像度が印刷解像度に合わせて変換され、この結果、印刷画像データ上の画素列が、印刷画像上のドット列と1対1の関係になる。このとき、印刷画像データ上の各画素列の階調値を、対応するドット列の補正値に基づいてそれぞれ補正する。これにより、濃く印刷される画素列は淡く補正され、淡く印刷される画素列は濃く補正される。そして、補正後の印刷画像データに基づいて印刷が行われると、各画素列の階調値の補正結果に応じて各ドット列のドット発生率が補正されているので、各ドット列の濃淡が補正されて印刷画像の濃度ムラが軽減する。
特開2005−205691号公報
Thereafter, when the printer prints an image under the user, the resolution of the print image data is converted in accordance with the print resolution. As a result, the pixel row on the print image data has a one-to-one correspondence with the dot row on the print image. It becomes a relationship. At this time, the gradation value of each pixel row on the print image data is corrected based on the correction value of the corresponding dot row. As a result, the pixel array printed dark is corrected lightly, and the pixel array printed light is corrected dark. When printing is performed based on the corrected print image data, the dot occurrence rate of each dot row is corrected according to the correction result of the gradation value of each pixel row. The density unevenness of the printed image is reduced by the correction.
JP 2005-206991 A

人間が印刷画像を見たとき、その人は、印刷画像中に高周波数成分の濃度ムラがあっても認識できないことがある。また、印刷画像中に所定の帯域の周波数成分の濃度ムラがあるときに、人間は、印刷画像に濃度ムラがあると認識する。
印刷画像の濃度ムラを補正する場合、人間に認識される濃度ムラを補正していれば十分であり、人間に認識されないような濃度ムラ(例えば高い周波数成分の濃度ムラ)までをも補正する必要は無い。
本発明は、人間に視認されるような濃度ムラを補正することを目的とする。
When a human sees a printed image, the person may not be able to recognize even if there is uneven density of high frequency components in the printed image. Further, when there is density unevenness of a frequency component in a predetermined band in the print image, a human recognizes that the print image has density unevenness.
When correcting density unevenness in a printed image, it is sufficient to correct density unevenness recognized by humans, and it is necessary to correct even density unevenness that is not recognized by humans (for example, density unevenness of high frequency components). There is no.
It is an object of the present invention to correct density unevenness that is visible to humans.

上記目的を達成するための主たる発明は、印刷解像度に合わせた解像度の印刷画像データの画素列のデータに応じてドット列を媒体に形成することによって、複数の前記ドット列から構成されるパターンを形成するパターン形成ステップと、スキャナによって前記パターンの画像を読み取って、読取データを取得する読取ステップと、前記読取データに対してローパスフィルタを適用するフィルタ適用ステップと、前記ローパスフィルタの適用後の前記読取データに応じて、印刷画像データの各画素列のデータを補正するための補正値を、画素列ごとにそれぞれ算出する補正値算出ステップと、を有する補正値取得方法。
本発明の他の特徴については、本明細書及び添付図面の記載により明らかにする。
A main invention for achieving the above object is to form a pattern composed of a plurality of dot rows by forming dot rows on a medium in accordance with pixel row data of print image data having a resolution matching the print resolution. A pattern forming step to form, a reading step of reading an image of the pattern by a scanner to obtain read data, a filter applying step of applying a low-pass filter to the read data, and the application of the low-pass filter A correction value acquisition method comprising: a correction value calculation step for calculating, for each pixel column, a correction value for correcting the data of each pixel column of the print image data in accordance with the read data.
Other features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

===開示の概要===
本明細書及び添付図面の記載により、少なくとも、以下の事項が明らかとなる。
=== Summary of disclosure ===
At least the following matters will become clear from the description of the present specification and the accompanying drawings.

印刷解像度に合わせた解像度の印刷画像データの画素列のデータに応じてドット列を媒体に形成することによって、複数の前記ドット列から構成されるパターンを形成するパターン形成ステップと、スキャナによって前記パターンの画像を読み取って、読取データを取得する読取ステップと、前記読取データに対してローパスフィルタを適用するフィルタ適用ステップと、前記ローパスフィルタの適用後の前記読取データに応じて、印刷画像データの各画素列のデータを補正するための補正値を、画素列ごとにそれぞれ算出する補正値算出ステップと、を有する補正値取得方法が明らかになる。
このような補正値取得方法によれば、人間に視認される濃度ムラを補正できる補正値を取得できる。
A pattern forming step for forming a pattern composed of a plurality of dot rows by forming dot rows on a medium according to pixel row data of print image data having a resolution that matches the print resolution, and the pattern by a scanner Each of the print image data according to the reading step of reading the image of the image and acquiring the read data, the filter applying step of applying a low pass filter to the read data, and the read data after the application of the low pass filter A correction value acquisition method having a correction value calculation step for calculating a correction value for correcting data of a pixel column for each pixel column is clarified.
According to such a correction value acquisition method, it is possible to acquire a correction value that can correct density unevenness visually recognized by humans.

前記読取ステップの後に、前記スキャナの影響を前記読取データから除去するための逆フィルタ処理が行われ、前記フィルタ適用ステップでは、逆フィルタ処理後の前記読取データに対して前記ローパスフィルタが適用されることが望ましい。これにより、スキャナの影響を受けない補正値を算出できる。   After the reading step, an inverse filter process for removing the influence of the scanner from the read data is performed, and in the filter applying step, the low-pass filter is applied to the read data after the inverse filter process. It is desirable. Thereby, a correction value that is not affected by the scanner can be calculated.

前記フィルタ適用ステップでは、前記読取データに対して重み関数が畳込み積分され、前記重み関数は、所定の周波数特性を持つ視覚フィルタのインパルス応答に相当する
ことが望ましい。これにより、人間に視認される濃度ムラを補正できる補正値を取得できる。
In the filter applying step, it is preferable that a weighting function is convolved with the read data, and the weighting function corresponds to an impulse response of a visual filter having a predetermined frequency characteristic. Thereby, it is possible to acquire a correction value that can correct density unevenness visually recognized by humans.

前記フィルタ適用ステップでは、前記読取データに対して重み関数が畳込み積分され、前記重み関数は、正の範囲が前記ドット列の幅に相当する範囲よりも広く設定された広がり関数であることが望ましい。これにより、人間に視認される濃度ムラを補正できる補正値を取得できる。   In the filter applying step, a weight function is convolved with the read data, and the weight function is a spread function in which a positive range is set wider than a range corresponding to the width of the dot row. desirable. Thereby, it is possible to acquire a correction value that can correct density unevenness visually recognized by humans.

前記フィルタ適用ステップでは、前記印刷解像度よりも高い解像度の前記読取データに対してローパスフィルタが適用され、前記補正値算出ステップでは、前記ローパスフィルタの適用後の前記読取データが前記印刷解像度に解像度変換され、解像度変換後の前記読取データに応じて前記補正値が算出されることが望ましい。これにより、精度のよい補正値を算出できる。   In the filter applying step, a low pass filter is applied to the read data having a resolution higher than the print resolution, and in the correction value calculating step, the read data after applying the low pass filter is converted into the print resolution. Preferably, the correction value is calculated according to the read data after the resolution conversion. Thereby, a highly accurate correction value can be calculated.

前記読取ステップでは、前記パターンの2次元の画像データから各画素列の代表値が算出されて、各画素列の代表値によって1次元の前記読取データが構成され、前記フィルタ適用ステップでは、1次元の前記読取データに対してローパスフィルタが適用されることが望ましい。これにより、補正値を算出するための演算処理の負荷を軽減できる。   In the reading step, a representative value of each pixel column is calculated from the two-dimensional image data of the pattern, and the one-dimensional read data is constituted by the representative value of each pixel column. Preferably, a low pass filter is applied to the read data. Thereby, the load of the arithmetic processing for calculating a correction value can be reduced.

前記フィルタ適用ステップでは、2次元の画像データである前記読取データに対してローパスフィルタが適用され、前記補正値算出ステップでは、ローパスフィルタの適用後の前記読取データから各画素列の代表値が算出され、各画素列の代表値に応じて前記補正値が算出されることが望ましい。このような処理でも、人間に視認される濃度ムラを補正できる補正値を取得できる。   In the filter applying step, a low-pass filter is applied to the read data that is two-dimensional image data, and in the correction value calculating step, a representative value of each pixel column is calculated from the read data after the low-pass filter is applied. Preferably, the correction value is calculated according to the representative value of each pixel column. Even with such processing, it is possible to obtain a correction value that can correct density unevenness visually recognized by humans.

印刷解像度に合わせた解像度の印刷画像データの画素列のデータに応じてドット列を媒体に形成することによって、複数の前記ドット列から構成されるパターンを形成するパターン形成ステップと、スキャナによって前記パターンの画像を読み取って、読取データを取得する読取ステップと、前記読取データに対してローパスフィルタを適用するフィルタ適用ステップと、前記ローパスフィルタの適用後の前記読取データに応じて、印刷画像データの各画素列のデータを補正するための補正値を、画素列ごとにそれぞれ算出する補正値算出ステップと、印刷解像度に合わせた解像度の印刷画像データの各画素データを、その画素データの画素列に対応する前記補正値に従って補正し、補正後の画素データに従って画像を形成する画像形成ステップとを有する画像形成方法が明らかになる。
このような画像形成方法によれば、人間に視認される濃度ムラを補正して画像を形成できる。
A pattern forming step for forming a pattern composed of a plurality of dot rows by forming dot rows on a medium according to pixel row data of print image data having a resolution that matches the print resolution, and the pattern by a scanner Each of the print image data according to the reading step of reading the image of the image and acquiring the read data, the filter applying step of applying a low pass filter to the read data, and the read data after the application of the low pass filter A correction value calculation step for calculating a correction value for correcting the pixel column data for each pixel column, and each pixel data of the print image data having a resolution matching the print resolution corresponds to the pixel column of the pixel data. An image forming step is performed in which an image is formed according to the corrected pixel data and according to the corrected pixel data. An image forming method and a flop reveals.
According to such an image forming method, it is possible to correct the density unevenness visually recognized by humans and form an image.

===用語の説明===
まず、本実施形態を説明する際に用いられる用語の意味を説明する。
図1は、用語の説明図である。
=== Explanation of terms ===
First, the meanings of terms used in describing this embodiment will be described.
FIG. 1 is an explanatory diagram of terms.

「印刷画像」とは、紙上に印刷された画像である。インクジェットプリンタの印刷画像は、紙上に形成された無数のドットから構成されている。
「ラスタライン」とは、ヘッドと紙とが相対移動する方向(移動方向)に並ぶドットの列である。後述の実施形態のようなラインプリンタの場合、「ラスタライン」は、紙の搬送方向に並ぶドットの列を意味する。一方、キャリッジに搭載されたヘッドによって印刷するシリアルプリンタの場合、「ラスタライン」は、キャリッジの移動方向に並ぶドットの列を意味する。移動方向と垂直な方向に多数のラスタラインが並ぶことによって、印刷画像が構成されることになる。図に示すように、n番目の位置にあるラスタラインのことを「第nラスタライン」と呼ぶ。
A “printed image” is an image printed on paper. A print image of an ink jet printer is composed of countless dots formed on paper.
A “raster line” is a row of dots arranged in the direction in which the head and paper move relative to each other (movement direction). In the case of a line printer as in the embodiments described later, “raster line” means a row of dots arranged in the paper transport direction. On the other hand, in the case of a serial printer that prints with a head mounted on a carriage, “raster line” means a row of dots arranged in the carriage movement direction. A print image is formed by arranging a large number of raster lines in a direction perpendicular to the moving direction. As shown in the figure, the raster line at the nth position is referred to as an “nth raster line”.

「画像データ」とは、2次元画像を示すデータである。後述する実施形態では、256階調の画像データや、4階調の画像データなどがある。
「印刷画像データ」とは、画像を紙に印刷するときに用いられる画像データである。プリンタが4階調でドットの形成(大ドット・中ドット・小ドット・ドット無し)を制御する場合、4階調の印刷画像データは、印刷画像を構成するドットの形成状態を示すことになる。
「読取画像データ」とは、スキャナによって読み取られた画像データである。
“Image data” is data indicating a two-dimensional image. In an embodiment described later, there are 256 gradation image data, 4 gradation image data, and the like.
“Print image data” is image data used when printing an image on paper. When the printer controls dot formation with four gradations (large dot, medium dot, small dot, no dot), the four gradation print image data indicates the formation state of dots constituting the print image. .
“Read image data” is image data read by a scanner.

「画素」とは、画像を構成する最小単位である。この画素が2次元的に配置されることによって画像が構成される。主に、画像データ上の画素を意味する。
「画素列」とは、画像データ上において所定方向に並ぶ画素の列である。図に示すように、n番目の画素列のことを「第n画素列」と呼ぶ。
A “pixel” is a minimum unit that constitutes an image. An image is formed by arranging these pixels two-dimensionally. Mainly means a pixel on the image data.
A “pixel column” is a column of pixels arranged in a predetermined direction on image data. As shown in the figure, the nth pixel column is referred to as an “nth pixel column”.

「画素データ」とは、画素の階調値を示すデータである。画像データは多数の画素データから構成されていることになる。「画素データ」のことを「画素の階調値」と言うこともある。4階調の印刷画像データの場合、各画素データは、2ビットデータになり、ある画素のドット形成状態(大ドット・中ドット・小ドット・ドット無し)を示すことになる。
「画素列データ」とは、画素列に含まれる複数の画素の画素データである。画素列データ中の画素データに従ってドットが形成されることによって、ラスタラインが形成されることになる。「画素列データ」のことを、「画素列の階調値」と言うこともある。
“Pixel data” is data indicating the gradation value of a pixel. The image data is composed of a large number of pixel data. “Pixel data” is sometimes referred to as “pixel gradation value”. In the case of four-tone print image data, each pixel data is 2-bit data, and indicates the dot formation state (large dot, medium dot, small dot, no dot) of a certain pixel.
“Pixel column data” is pixel data of a plurality of pixels included in a pixel column. A raster line is formed by forming dots according to the pixel data in the pixel column data. The “pixel column data” is sometimes referred to as “pixel column gradation value”.

「画素領域」とは、画像データ上の画素に対応した紙上の領域である。例えば、印刷画像データの解像度が720×720dpiの場合、「画素領域」は、1辺が1/720インチの正方形状の領域になる。   A “pixel area” is an area on paper corresponding to a pixel on image data. For example, when the resolution of the print image data is 720 × 720 dpi, the “pixel area” is a square area having one side of 1/720 inch.

「列領域」とは、画素列に対応した紙上の領域である。例えば、印刷画像データの解像度が720×720dpiの場合、列領域は、1/720インチ幅の細長い領域になる。「列領域」は、印刷画像データ上の画素列に対応した紙上の領域を意味する場合もあるし、読取画像データ上の画素列に対応した紙上の領域を意味する場合もある。図中の右下には、前者の場合の列領域が示されている。前者の場合の「列領域」は、ラスタラインの形成目標位置でもある。後者の場合の「列領域」は、読取画像データ上の画素列が読み取られた紙上の測定位置(測定範囲)でもあり、言い換えると、画素列の示す画像(画像片)が存在する紙上の位置でもある。図に示すように、n番目の位置にある列領域のことを「第n列領域」と呼ぶ。第n列領域は第nラスタラインの形成目標位置になる。   A “row area” is an area on paper corresponding to a pixel row. For example, when the resolution of the print image data is 720 × 720 dpi, the row area is an elongated area having a width of 1/720 inch. The “row area” may mean an area on paper corresponding to a pixel line on print image data, or may mean an area on paper corresponding to a pixel line on read image data. In the lower right part of the figure, a row region in the former case is shown. The “row area” in the former case is also a raster line formation target position. The “row area” in the latter case is also a measurement position (measurement range) on the paper where the pixel row on the read image data is read. In other words, the position on the paper where the image (image piece) indicated by the pixel row exists. But there is. As shown in the figure, the row region at the nth position is referred to as an “nth row region”. The nth row region is the target position for forming the nth raster line.

「画像片」とは、画像の一部分を意味する。画像データ上において、ある画素列の示す画像は、画像データの示す画像の「画像片」になる。また、印刷画像において、あるラスタラインによって表される画像は、印刷画像の「画像片」になる。また、印刷画像において、ある列領域での発色によって表される画像も、印刷画像の「画像片」に該当する。   “Image piece” means a part of an image. On the image data, an image indicated by a certain pixel row is an “image piece” of the image indicated by the image data. In the print image, an image represented by a certain raster line is an “image piece” of the print image. In the print image, an image represented by color development in a certain row region also corresponds to an “image piece” of the print image.

ところで、図1の右下には、画素領域とドットとの位置関係が示されている。ヘッドの製造誤差の影響によって第2ラスタラインが第2列領域からズレた結果、第2列領域の濃度が淡くなる。また、第4列領域では、ヘッドの製造誤差の影響によってドットが小さくなった結果、第4列領域の濃度が淡くなる。このような濃度ムラや濃度ムラ補正方法を説明する必要があるため、本実施形態では、「ラスタライン」、「画素列」、「列領域」等の意味や関係を上記の内容に沿って説明している。
但し、「画像データ」や「画素」等の一般的な用語の意味は、上記の説明だけでなく、通常の技術常識に沿って適宜解釈して良い。
Incidentally, in the lower right of FIG. 1, the positional relationship between the pixel region and the dots is shown. As a result of the deviation of the second raster line from the second row region due to the influence of the head manufacturing error, the density of the second row region becomes light. Further, in the fourth row region, the density of the fourth row region becomes light as a result of the dot becoming smaller due to the influence of the head manufacturing error. Since it is necessary to explain such density unevenness and the density unevenness correction method, in this embodiment, the meaning and relationship of “raster line”, “pixel column”, “column region”, and the like are described along the above contents. is doing.
However, the meanings of general terms such as “image data” and “pixel” may be appropriately interpreted in accordance with not only the above description but also common technical common sense.

===プリンタの構成===
図2は、プリンタ1の全体構成のブロック図である。図3は、プリンタ1の搬送処理とドット形成処理を説明するための斜視図である。
=== Configuration of Printer ===
FIG. 2 is a block diagram of the overall configuration of the printer 1. FIG. 3 is a perspective view for explaining the conveyance process and the dot formation process of the printer 1.

プリンタ1は、搬送ユニット20、ヘッドユニット40、検出器群50、及びコントローラ60を有する。外部装置であるコンピュータ110から印刷データを受信したプリンタ1は、コントローラ60によって各ユニット(搬送ユニット20、ヘッドユニット40)を制御する。コントローラ60は、コンピュータ110から受信した印刷データに基づいて、各ユニットを制御し、紙に画像を印刷する。プリンタ1内の状況は検出器群50によって監視されており、検出器群50は、検出結果をコントローラ60に出力する。コントローラ60は、検出器群50から出力された検出結果に基づいて、各ユニットを制御する。 The printer 1 includes a transport unit 20, a head unit 40, a detector group 50, and a controller 60. The printer 1 that has received the print data from the computer 110 as an external device controls each unit (the transport unit 20 and the head unit 40) by the controller 60. The controller 60 controls each unit based on the print data received from the computer 110 and prints an image on paper. The situation in the printer 1 is monitored by a detector group 50, and the detector group 50 outputs a detection result to the controller 60. The controller 60 controls each unit based on the detection result output from the detector group 50.

搬送ユニット20は、媒体(例えば、紙Sなど)を所定の方向(以下、搬送方向という)に搬送させるためのものである。この搬送ユニット20は、上流側ローラ22A及び下流側ローラ22Bと、ベルト24とを有する。不図示の搬送モータが回転すると、上流側ローラ22A及び下流側ローラ22Bが回転し、ベルト24が回転する。給紙された紙Sは、ベルト24によって、印刷可能な領域(ヘッドと対向する領域)まで搬送される。ベルト24が紙Sを搬送することによって、紙Sがヘッドユニット40に対して搬送方向に移動する。印刷可能な領域を通過した紙Sは、ベルト24によって外部へ排紙される。なお、搬送中の紙Sは、ベルト24に静電吸着又はバキューム吸着されている。   The transport unit 20 is for transporting a medium (for example, paper S) in a predetermined direction (hereinafter referred to as a transport direction). The transport unit 20 includes an upstream roller 22A and a downstream roller 22B, and a belt 24. When a conveyance motor (not shown) rotates, the upstream roller 22A and the downstream roller 22B rotate, and the belt 24 rotates. The fed paper S is conveyed by the belt 24 to a printable area (area facing the head). When the belt 24 transports the paper S, the paper S moves in the transport direction with respect to the head unit 40. The paper S that has passed through the printable area is discharged to the outside by the belt 24. The paper S being conveyed is electrostatically attracted or vacuum attracted to the belt 24.

ヘッドユニット40は、紙Sにインクを吐出するためのものである。ヘッドユニット40は、搬送中の紙Sに対してインクを吐出することによって、紙Sにドットを形成し、画像を紙Sに印刷する。本実施形態のプリンタ1はラインプリンタであり、ヘッドユニット40は紙幅分のドットを一度に形成することができる。   The head unit 40 is for ejecting ink onto the paper S. The head unit 40 ejects ink onto the paper S being conveyed, thereby forming dots on the paper S and printing an image on the paper S. The printer 1 of this embodiment is a line printer, and the head unit 40 can form dots for the paper width at a time.

図4は、ヘッドユニット40の下面における複数のヘッドの配列の説明図である。図に示すように、紙幅方向に沿って、複数のヘッド41が千鳥列状に並んでいる。各ヘッドには、ブラックインクノズル列、シアンインクノズル列、マゼンタインクノズル列及びイエローインクノズル列が形成されている。各ノズル列は、インクを吐出するノズルを複数個備えている。各ノズル列の複数のノズルは、紙幅方向に沿って、一定のノズルピッチで並んでいる。つまり、各ヘッドのノズル列によって、紙幅分のノズル群が構成されている。   FIG. 4 is an explanatory diagram of an arrangement of a plurality of heads on the lower surface of the head unit 40. As shown in the figure, a plurality of heads 41 are arranged in a staggered pattern along the paper width direction. In each head, a black ink nozzle row, a cyan ink nozzle row, a magenta ink nozzle row, and a yellow ink nozzle row are formed. Each nozzle row includes a plurality of nozzles that eject ink. The plurality of nozzles in each nozzle row are arranged at a constant nozzle pitch along the paper width direction. That is, a nozzle group corresponding to the paper width is constituted by the nozzle row of each head.

図5は、簡略説明用のノズル配置とドット形成の様子の説明図である。ここでは、ヘッドユニット40には、各ヘッドのノズル列によって、所定のノズルピッチのノズル群が構成されているものとする。実際のノズルの位置は図4に示すように搬送方向の位置が異なるが、吐出するタイミングを異ならせることによって、各ヘッドのノズル列から構成されるノズル群のことを、図5のように一列に並ぶノズルとして考えることができる。また、説明の簡略化のため、ブラックインクのノズル群だけが設けられているものとする。更に説明を簡略化するため、ブラックインクのノズル群は、24個のノズルから構成されているものとする。以下の説明において、搬送方向のことを「X方向」と呼び、紙幅方向のことを「Y方向」と呼ぶことがある。
このノズル群は、1/720インチ間隔で紙幅方向(y方向)に並ぶ24個のノズルから構成されている。各ノズルに対して、図中の上から順に、番号を付している。
FIG. 5 is an explanatory diagram of the nozzle arrangement and the dot formation for simplified explanation. Here, in the head unit 40, it is assumed that a nozzle group having a predetermined nozzle pitch is configured by the nozzle row of each head. As shown in FIG. 4, the actual nozzle positions are different in the transport direction, but by changing the ejection timing, the nozzle groups composed of the nozzle rows of each head are arranged in a row as shown in FIG. Can be thought of as nozzles lined up in For the sake of simplicity, it is assumed that only the black ink nozzle group is provided. Further, to simplify the explanation, it is assumed that the nozzle group of black ink is composed of 24 nozzles. In the following description, the transport direction may be referred to as “X direction”, and the paper width direction may be referred to as “Y direction”.
This nozzle group is composed of 24 nozzles arranged in the paper width direction (y direction) at intervals of 1/720 inch. Each nozzle is numbered sequentially from the top in the figure.

なお、搬送中の紙Sに対して各ノズルから断続的にインク滴が吐出されることによって、ノズル群は、紙に24個のラスタラインを形成する。例えば、ノズル♯1は第1ラスタラインを紙上に形成し、ノズル♯2は第2ラスタラインを紙上に形成する。各ラスタラインは、搬送方向(x方向)に沿って形成される。   Note that the nozzle group forms 24 raster lines on the paper by intermittently ejecting ink droplets from each nozzle to the paper S being transported. For example, nozzle # 1 forms a first raster line on the paper, and nozzle # 2 forms a second raster line on the paper. Each raster line is formed along the transport direction (x direction).

検出器群50には、上流側ローラ22Aの回転量を検出するロータリー式エンコーダ(不図示)などが含まれる。このロータリー式エンコーダの検出結果に基づいて、紙Sの搬送量を検出することができる。   The detector group 50 includes a rotary encoder (not shown) that detects the amount of rotation of the upstream roller 22A. Based on the detection result of the rotary encoder, the transport amount of the paper S can be detected.

コントローラ60は、プリンタ1の制御を行うための制御ユニット(制御部)である。コントローラ60は、インターフェース部61と、CPU62と、メモリ63と、ユニット制御回路64とを有する。CPU62は、プリンタ全体の制御を行うための演算処理装置である。メモリ63は、CPU62のプログラムを格納する領域や作業領域等を確保するためのものであり、RAM、EEPROM等の記憶素子を有する。CPU62は、メモリ63に格納されているプログラムに従って、ユニット制御回路64を介して各ユニットを制御する。濃度ムラを補正するための補正値(後述)は、メモリ63に記憶されている。   The controller 60 is a control unit (control unit) for controlling the printer 1. The controller 60 includes an interface unit 61, a CPU 62, a memory 63, and a unit control circuit 64. The CPU 62 is an arithmetic processing unit for controlling the entire printer. The memory 63 is for securing an area for storing a program of the CPU 62, a work area, and the like, and includes storage elements such as a RAM and an EEPROM. The CPU 62 controls each unit via the unit control circuit 64 in accordance with a program stored in the memory 63. A correction value (described later) for correcting density unevenness is stored in the memory 63.

===本実施形態の補正値取得処理===
<概要>
プリンタ製造工場の検査工程において、製造されたプリンタごとに、各プリンタの濃度ムラ特性を反映した補正値をそれぞれ算出し、その補正値を各プリンタのメモリに記憶させる。
=== Correction Value Acquisition Processing of this Embodiment ===
<Overview>
In the inspection process of the printer manufacturing factory, for each manufactured printer, a correction value reflecting the density unevenness characteristic of each printer is calculated, and the correction value is stored in the memory of each printer.

図6A〜図6Cは、テストパターンを印刷してからプリンタ1に補正値を記憶させるまでの間の様子の説明図である。検査者は、検査対象となるプリンタ1を工場内のコンピュータ110に接続し、プリンタ1は、テストシートTSにテストパターンを印刷する(図6A参照)。次に、検査者は、テストシートTSをスキャナ150にセットし、コンピュータ110は、テストパターンの画像データ(読取画像データ)を取得する(図6B参照)。次に、コンピュータ110は、テストパターンの画像データを解析して補正値を算出し、プリンタ1のメモリに補正値を記憶する(図6C)参照。   FIG. 6A to FIG. 6C are explanatory views of a state from when the test pattern is printed until the correction value is stored in the printer 1. The inspector connects the printer 1 to be inspected to the computer 110 in the factory, and the printer 1 prints a test pattern on the test sheet TS (see FIG. 6A). Next, the inspector sets the test sheet TS on the scanner 150, and the computer 110 acquires image data (read image data) of the test pattern (see FIG. 6B). Next, the computer 110 analyzes the test pattern image data to calculate a correction value, and stores the correction value in the memory of the printer 1 (see FIG. 6C).

図7は、画像データの解析の様子の説明図である。コンピュータ110がスキャナ150から取得した読取画像データは、スキャナの特性の影響を受けたデータである。そこで、コンピュータ110は、読取画像データからスキャナの特性を除去して原画像情報を求め、この原画像情報に対して視覚フィルタを適用して読取画像データを補正する。この処理によって、スキャナから取得した読取画像データを、テストパターンを人間が見たときに感じる画像を示す画像データに補正することができる。そして、コンピュータ110は、補正された読取画像データを用いて、濃度ムラを補正するための補正値を算出する。   FIG. 7 is an explanatory diagram of how image data is analyzed. The read image data acquired by the computer 110 from the scanner 150 is data affected by the characteristics of the scanner. Therefore, the computer 110 obtains original image information by removing the characteristics of the scanner from the read image data, and corrects the read image data by applying a visual filter to the original image information. By this processing, the read image data acquired from the scanner can be corrected to image data indicating an image that a person feels when viewing the test pattern. Then, the computer 110 calculates a correction value for correcting density unevenness using the corrected read image data.

なお、2次元の読取画像データに対して図7の処理を施しても良いが、以下に説明する本実施形態では、1次元のデータ(輝度分布データ)に対して図7の処理を施している。   7 may be applied to the two-dimensional read image data, but in the present embodiment described below, the processing of FIG. 7 is applied to the one-dimensional data (luminance distribution data). Yes.

<補正値取得処理の前段階>
最初に、検査者は、検査対象となるプリンタ1を工場内のコンピュータ110に接続する(図6A参照)。このコンピュータ110には、スキャナ150も接続されている。コンピュータ110には、テストパターンをプリンタ1に印刷させるためのプリンタドライバと、スキャナ150を制御するためのスキャナドライバと、スキャナ150から取得した画像データ(読取画像データ)に画像処理を施して補正値を算出するための補正値取得プログラムが予めインストールされている。
<Before the correction value acquisition process>
First, the inspector connects the printer 1 to be inspected to the computer 110 in the factory (see FIG. 6A). A scanner 150 is also connected to the computer 110. The computer 110 includes a printer driver for printing the test pattern on the printer 1, a scanner driver for controlling the scanner 150, and image data (read image data) acquired from the scanner 150 by performing image processing and correcting values. A correction value acquisition program for calculating is installed in advance.

プリンタドライバには、予めテストパターンの画像データ(印刷画像データ)が用意されている。このテストパターンの印刷画像データは、印刷解像度に合わせた解像度(720×720dpi)の画像データになっている。   Test printer image data (print image data) is prepared in advance in the printer driver. The print image data of this test pattern is image data having a resolution (720 × 720 dpi) that matches the print resolution.

図8Aは、テストパターンの印刷画像データの説明図である。テストパターンは、5個の補正用パターンから構成されている。5個の補正用パターンは、x方向に沿って並んでいる。なお、テストパターンが印刷されたとき、5個の補正用パターンがX方向(搬送方向)に沿って並ぶように、印刷画像データ上のx方向が定められている。
各補正用パターンは、基準となる階調値(基準階調値)が異なっている。各補正用パターンの基準階調値は、右にある第1補正用パターンから順に76、102、128、153、179であり、左にある補正用パターンほど濃度が濃い。なお、これらの5種類の基準階調値は、記号でSa(=76)、Sb(=102)、Sc(=128)、Sd(=153)、Se(=179)と表すことにする。
FIG. 8A is an explanatory diagram of print image data of a test pattern. The test pattern is composed of five correction patterns. The five correction patterns are arranged along the x direction. Note that when the test pattern is printed, the x direction on the print image data is determined so that five correction patterns are arranged along the X direction (conveyance direction).
Each correction pattern has a different reference gradation value (reference gradation value). The reference gradation values of the correction patterns are 76, 102, 128, 153, and 179 in order from the first correction pattern on the right, and the darker the correction pattern is on the left. These five types of reference gradation values are represented by symbols Sa (= 76), Sb (= 102), Sc (= 128), Sd (= 153), and Se (= 179).

図8Bは、第3補正用パターンの印刷画像データの説明図である。ここでは第3補正用パターンについて説明するが、他の補正用パターンもほぼ同様の構成である。
第3補正用パターンは、24個の画素列がy方向に並ぶことによって構成されている。各画素列は、x方向に並ぶ数10個の画素から構成されている。各画素データは、基準階調値(ここではSc)を示している。
FIG. 8B is an explanatory diagram of print image data of the third correction pattern. Although the third correction pattern will be described here, the other correction patterns have substantially the same configuration.
The third correction pattern is configured by arranging 24 pixel rows in the y direction. Each pixel column is composed of several tens of pixels arranged in the x direction. Each pixel data represents a reference gradation value (here, Sc).

<ハーフトーン処理(S101)>
図9は、プリンタ製造後の検査工程で行われる補正値取得処理のフロー図である。
まず、コンピュータ110のプリンタドライバは、テストパターンの印刷画像データをハーフトーン処理することにより、前述の256階調のテストパターンの印刷画像データ(図8A)を4階調の印刷画像データに変換する(S101)。4階調の印刷画像データ上では、各画素列データは、各ラスタラインのドットの形成状態を示すことになる。
<Halftone processing (S101)>
FIG. 9 is a flowchart of correction value acquisition processing performed in the inspection process after manufacturing the printer.
First, the printer driver of the computer 110 converts the above-described 256-tone test pattern print image data (FIG. 8A) into 4-tone print image data by performing halftone processing on the test pattern print image data. (S101). On the four-tone print image data, each pixel column data indicates a dot formation state of each raster line.

<テストパターンの印刷(S102)>
ハーフトーン処理後、プリンタドライバは、4階調の印刷画像データを含む印刷データをプリンタ1に送信し、プリンタ1は、印刷データ中の4階調の画素データに従って各ノズルからインク滴を吐出し、テストパターンを印刷する(S102、図6A参照)。本実施形態では、プリンタ1は、720×720dpiの印刷解像度でテストパターンを印刷する。
<Print test pattern (S102)>
After the halftone process, the printer driver transmits print data including print image data of 4 gradations to the printer 1, and the printer 1 ejects ink droplets from each nozzle according to the 4 gradation pixel data in the print data. The test pattern is printed (S102, see FIG. 6A). In the present embodiment, the printer 1 prints a test pattern with a print resolution of 720 × 720 dpi.

ヘッドの製造誤差のため、印刷画像を構成するドットは全て同じ大きさにはならず、また、ラスタラインが所定の列領域からズレて形成されることもある。テストパターンを巨視的に見れば、このテストパターンは、濃度ムラを含んでいるものの、およそ印刷画像データ(図8Aや図8B)の通りの印刷画像になる。   Due to head manufacturing errors, the dots constituting the print image do not all have the same size, and the raster line may be formed with a deviation from a predetermined row region. When the test pattern is viewed macroscopically, the test pattern includes a density unevenness, but becomes a print image as shown in print image data (FIG. 8A and FIG. 8B).

<テストパターンの読み取り(S103)>
次に、プリンタ1によって印刷されたテストパターンが検査者によってスキャナ150にセットされ、コンピュータ110のスキャナドライバがスキャナ150にテストパターンを読み取らせる(S103、図6B参照)。本実施形態では、スキャナ150は、主走査方向に沿ったラインセンサ(例えばCCDセンサ)を副走査方向に移動させて画像を読み取るものであり、検査者は、テストパターンのラスタラインの方向(x方向)と、スキャナ150の主走査方向(ラインセンサのライン方向)とを合わせるようにして、テストパターンをスキャナ150にセットする。また、本実施形態では、1440×1440dpiでスキャナ150がテストパターンを読み取る。つまり、テストパターンの印刷解像度である720×720dpiよりも高い読取解像度で、スキャナ150がテストパターンを読み取る。
<Reading test pattern (S103)>
Next, the test pattern printed by the printer 1 is set on the scanner 150 by the inspector, and the scanner driver of the computer 110 causes the scanner 150 to read the test pattern (see S103, FIG. 6B). In this embodiment, the scanner 150 moves an image sensor by moving a line sensor (for example, a CCD sensor) along the main scanning direction in the sub-scanning direction. Direction) and the main scanning direction of the scanner 150 (line direction of the line sensor) are set in the scanner 150 so as to match. In this embodiment, the scanner 150 reads the test pattern at 1440 × 1440 dpi. That is, the scanner 150 reads the test pattern at a reading resolution higher than the print resolution of the test pattern, which is 720 × 720 dpi.

なお、コンピュータ110の補正値取得プログラムは、スキャナ150から取得した画像データ(読取画像データ)の中からテストパターンの部分を抽出するため、必要に応じて、読取画像データに対して回転処理やトリミングなどを施しても良い。   The correction value acquisition program of the computer 110 extracts a test pattern portion from the image data (read image data) acquired from the scanner 150. Therefore, the read image data is rotated or trimmed as necessary. Etc. may be given.

本実施形態では、720dpiの24個のラスタラインから構成されたテストパターンを1440×1440dpiで読み取っているので、読取画像データは、約48個の画素列から構成されている。ヘッドの製造誤差のためラスタラインの間隔は正確ではなく、また、スキャナ150のラインセンサの副走査方向の移動も必ずしも正確ではないため、y2方向に並ぶ画素列の数が正確に48個になるとは限らない。   In the present embodiment, since the test pattern composed of 24 raster lines of 720 dpi is read at 1440 × 1440 dpi, the read image data is composed of about 48 pixel columns. The raster line interval is not accurate due to head manufacturing errors, and the movement of the line sensor of the scanner 150 in the sub-scanning direction is not always accurate. Therefore, when the number of pixel columns arranged in the y2 direction is exactly 48. Is not limited.

読取画像データ上の各画素列データ(x方向に並ぶ画素の列)は、テストパターンが印刷された紙上の約1/1440インチ幅の列領域の画像片を示していることになる。言い換えると、読取画像データの各画素列データは、約1/1440インチ間隔の測定位置での画像片を示していることになる。   Each pixel column data (a column of pixels arranged in the x direction) on the read image data indicates an image piece of a column region having a width of about 1/1440 inch on the paper on which the test pattern is printed. In other words, each pixel column data of the read image data indicates an image piece at a measurement position with an interval of about 1/1440 inch.

<輝度分布データの算出(S104)>
次に、コンピュータ110の補正値取得プログラムは、読取画像データ上の各補正用パターンの各画素列の輝度の分布を算出する(S104)。各画素列の輝度は、印刷されたテストパターン上の各列領域の濃度を示していると考えられる。
<Calculation of luminance distribution data (S104)>
Next, the correction value acquisition program of the computer 110 calculates the luminance distribution of each pixel column of each correction pattern on the read image data (S104). The luminance of each pixel column is considered to indicate the density of each column region on the printed test pattern.

図10は、各画素列の輝度の算出の様子の説明図である。図中の左側には、第3補正用パターンの画像データが示されている。第3補正用パターンの画像データには、所定数の画素からなる画素列が、y方向に並んでいる。補正値取得プログラムは、各画素列ごとに、x方向に並ぶ複数の画素の画素データに基づいて平均輝度を算出し、この平均輝度をその画素列の輝度(その画素列の代表値)とする。例えば、第1画素列の輝度は、図中の左側の太線内の画素データに基づいて算出される。図10の右側には、各画素列の輝度のグラフが示されている。本実施形態では、補正用パターンごとに、図10の右側のグラフのような輝度分布データが得られることになる。   FIG. 10 is an explanatory diagram of how the luminance of each pixel column is calculated. On the left side of the figure, image data of the third correction pattern is shown. In the image data of the third correction pattern, pixel rows made up of a predetermined number of pixels are arranged in the y direction. The correction value acquisition program calculates an average luminance for each pixel column based on pixel data of a plurality of pixels arranged in the x direction, and uses the average luminance as a luminance of the pixel column (a representative value of the pixel column). . For example, the luminance of the first pixel column is calculated based on the pixel data in the thick line on the left side in the drawing. On the right side of FIG. 10, a graph of the luminance of each pixel column is shown. In the present embodiment, luminance distribution data like the graph on the right side of FIG. 10 is obtained for each correction pattern.

以下の説明では、読取画像データ上の補正用パターンのy方向の輝度分布データをY(y)と表す。なお、補正値取得プログラムは、5個の補正用パターンのそれぞれの輝度分布データを取得する。これらの輝度分布データは、スキャナ150によってパターンを読み取って取得した読取データに相当する。   In the following description, the luminance distribution data in the y direction of the correction pattern on the read image data is represented as Y (y). The correction value acquisition program acquires the luminance distribution data of each of the five correction patterns. The luminance distribution data corresponds to read data obtained by reading a pattern with the scanner 150.

<スキャナ特性の除去(S105)>
コンピュータ110がスキャナ150から取得した読取画像データは、スキャナの特性の影響を受けているため、原画像から劣化したデータである。このため、S104で算出された輝度分布データY(y)も、スキャナの特性の影響を受けているため、原画像の輝度分布から劣化したデータである。そこで、コンピュータ110の補正値算出プログラムは、図7に示す手順によって、輝度分布データY(y)からスキャナの特性を除去し、原画像上での輝度分布データS(y)を復元する(S105)。
<Removal of Scanner Characteristic (S105)>
The read image data acquired by the computer 110 from the scanner 150 is data deteriorated from the original image because it is affected by the characteristics of the scanner. For this reason, the luminance distribution data Y (y) calculated in S104 is also data deteriorated from the luminance distribution of the original image because it is affected by the characteristics of the scanner. Therefore, the correction value calculation program of the computer 110 removes the characteristics of the scanner from the luminance distribution data Y (y) according to the procedure shown in FIG. 7, and restores the luminance distribution data S (y) on the original image (S105). ).

まず、補正値算出プログラムは、輝度分布データY(y)をフーリエ変換し、フーリエ変換領域(周波数領域)上の輝度分布データG(f)を算出する。ここで、fは、空間周波数を表す。
次に、補正値算出プログラムは、スキャナ150のMTFから求めた逆フィルタをG(f)に乗算し、F(f)を算出する。スキャナ150のMTFがH(f)であるとすると、F(f)は、次式にて求められる。
F(f)=G(f)×H(f)/|H(f)|
次に、補正値算出プログラムは、F(f)をフーリエ逆変換することによって、S(y)を算出する。算出されたS(y)は、原画像上での輝度分布データであると推定される。言い換えると、S(y)は、読取画像データの輝度分布データY(y)からスキャナのMTFの影響を除去したデータであると推定できる。
なお、補正値取得プログラムは、5個の補正用パターンの各輝度分布データから、それぞれS(y)を算出する。
First, the correction value calculation program Fourier transforms the luminance distribution data Y (y) to calculate luminance distribution data G (f) on the Fourier transform region (frequency region). Here, f represents a spatial frequency.
Next, the correction value calculation program multiplies G (f) by an inverse filter obtained from the MTF of the scanner 150 to calculate F (f). Assuming that the MTF of the scanner 150 is H (f), F (f) is obtained by the following equation.
F (f) = G (f) × H (f) / | H (f) | 2
Next, the correction value calculation program calculates S (y) by performing Fourier inverse transform on F (f). The calculated S (y) is estimated to be luminance distribution data on the original image. In other words, it can be estimated that S (y) is data obtained by removing the influence of the MTF of the scanner from the luminance distribution data Y (y) of the read image data.
The correction value acquisition program calculates S (y) from each luminance distribution data of the five correction patterns.

<視覚フィルタの適用(S106)>
次に、補正値算出プログラムは、原画像上の輝度分布データS(y)に対し、視覚フィルタを適用する(S106)。
<Application of visual filter (S106)>
Next, the correction value calculation program applies a visual filter to the luminance distribution data S (y) on the original image (S106).

視覚フィルタとして、DooleyのVTFフィルタを採用する。x方向の空間周波数をfx(cycle/degree)とし、y方向の空間周波数をfyとすると、VTFフィルタは次式で表される。
The Dooley VTF filter is adopted as the visual filter. When the spatial frequency in the x direction is fx (cycle / degree) and the spatial frequency in the y direction is fy, the VTF filter is expressed by the following equation.

図11は、DooleyのVTFフィルタのグラフである。図に示すとおり、VTFフィルタは、高い周波数帯域の成分を除去するローパスフィルタの機能を有する。
図12は、図11の周波数特性を持つフィルタのインパルス応答h(y)のグラフである。インパルス応答h(y)は、上式のフーリエ逆変換で求めることができる広がり関数である。後述するように、h(y)は、畳込み積分を行うときの重み関数として用いられる。
FIG. 11 is a graph of Dooley's VTF filter. As shown in the figure, the VTF filter has a function of a low-pass filter that removes components in a high frequency band.
FIG. 12 is a graph of the impulse response h (y) of the filter having the frequency characteristics of FIG. The impulse response h (y) is a spread function that can be obtained by the inverse Fourier transform of the above equation. As will be described later, h (y) is used as a weighting function when performing convolution integration.

ここでは、h(y)が正となる範囲(h(t)=0となる2点の間)についてフィルタ処理を行うことにする。h(y)=0となる位置は約±37.5μmであり、h(y)が正となる範囲は約75μmの幅である。前述の読取画像データ上の画素列の間隔は1/1440インチ(17.64μm)であるため、読取画像データ上の例えば第i画素列を中心とした場合、図12に示すように、第i−2画素列〜第i+2画素列の範囲が、h(y)の正の範囲内になる。つまり、フィルタ処理を行うと、両側に隣接する2個ずつの画素列の影響を受けることになる。   Here, the filtering process is performed for a range in which h (y) is positive (between two points where h (t) = 0). The position where h (y) = 0 is approximately ± 37.5 μm, and the range where h (y) is positive is a width of approximately 75 μm. Since the interval between the pixel columns on the read image data is 1/1440 inch (17.64 μm), for example, when the i-th pixel column on the read image data is centered, as shown in FIG. The range from the −2 pixel column to the (i + 2) th pixel column is within the positive range of h (y). In other words, when the filter process is performed, it is affected by two adjacent pixel columns on both sides.

ここで、第i画素列の位置でのh(y)の値をh0(=h(0))とし、第i−1画素列及び第i+1画素列の位置でのh(y)の値をh1とし、第i−2画素列及び第i+2画素列の位置でのh(y)の値をh2とする。   Here, the value of h (y) at the position of the i-th pixel column is set to h0 (= h (0)), and the value of h (y) at the position of the i−1th pixel column and the i + 1th pixel column is It is assumed that h1 is the value of h (y) at the positions of the (i-2) th pixel column and the (i + 2) th pixel column.

まず、補正値取得プログラムは、原画像上の輝度分布データS(y)に対してh(y)を畳込み積分することによって視覚フィルタ処理を行い、Y´(y)を算出する。例えば第i画素列のフィルタ処理後の輝度値Y´(i)は、以下のように算出される。
Y´(i)=Y´(i-2)×h2+Y´(i-1)×h1+Y´(i)×h0+Y´(i+1)×h1+Y´(i-2)×h2
算出されたY´(y)は、補正用パターンを人間が見たときに感じる輝度分布を示すと想定できる。このため、以下の説明では、Y´(y)のことを「視認輝度分布データ」と呼ぶことにする。
First, the correction value acquisition program performs visual filter processing by convolving h (y) with luminance distribution data S (y) on the original image, and calculates Y ′ (y). For example, the luminance value Y ′ (i) after the filter processing of the i-th pixel column is calculated as follows.
Y ′ (i) = Y ′ (i−2) × h2 + Y ′ (i−1) × h1 + Y ′ (i) × h0 + Y ′ (i + 1) × h1 + Y ′ (i−2) × h2
It can be assumed that the calculated Y ′ (y) indicates a luminance distribution that is felt when a correction pattern is viewed by a human. For this reason, in the following description, Y ′ (y) is referred to as “visual luminance distribution data”.

ところで、視認輝度分布データは、別の方法でも算出できる。以下、図7を参照しながら説明する。
輝度分布データY(y)をフーリエ変換することによってG(f)を算出し、このG(f)に対して逆フィルタを乗算してF(f)を算出するまでは、上記と同様である。このF(f)に対し、フーリエ変換領域(周波数領域)上で図11のVTFフィルタを適用することによって、G´(f)を算出できる。なお、このG´(f)は、復元された原画像上の輝度分布データS(y)をフーリエ変換したF(f)に対してVTFフィルタを適用することによっても算出できる。そして、G´(f)をフーリエ逆変換すれば、視認輝度分布データY´(y)を算出することができる。
By the way, the visual luminance distribution data can be calculated by another method. Hereinafter, a description will be given with reference to FIG.
It is the same as the above until G (f) is calculated by Fourier transforming the luminance distribution data Y (y), and F (f) is calculated by multiplying this G (f) by an inverse filter. . G ′ (f) can be calculated by applying the VTF filter of FIG. 11 to the F (f) in the Fourier transform domain (frequency domain). This G ′ (f) can also be calculated by applying a VTF filter to F (f) obtained by Fourier transforming the luminance distribution data S (y) on the restored original image. If G ′ (f) is subjected to inverse Fourier transform, visual luminance distribution data Y ′ (y) can be calculated.

また、補正値算出プログラムは、2次元の読取画像データから2次元の輝度画像データY(x,y)を算出し、Y(x,y)をフーリエ変換することによって、フーリエ変換領域上の2次元の画像データG(u,v)を算出できる。この画像データG(u,v)に対して逆フィルタを乗算すればF(u,v)を算出でき、F(u,v)をフーリエ逆変換すれば2次元の原画像と推定される原画像データS(x,y)を算出できる。この2次元の原画像データS(x,y)に対して視覚フィルタ処理を行えば、2次元の視認輝度データY´(x,y)を算出できる。この2次元の視認輝度データY´(x,y)から、図10のようにy方向の輝度分布データを抽出すれば、同様の視認輝度分布データY´(y)が得られる。但し、2次元のデータをフーリエ変換・フーリエ逆変換を行う必要があるため、本実施形態のS104〜S106のような1次元のデータに対する演算処理と比べると、演算処理に時間がかかる。
なお、補正値取得プログラムは、5個の補正用パターンごとに、それぞれの視認輝度分布データY´(y)を算出する。
Further, the correction value calculation program calculates two-dimensional luminance image data Y (x, y) from the two-dimensional read image data, and Fourier transforms Y (x, y), thereby obtaining 2 on the Fourier transform region. Dimensional image data G (u, v) can be calculated. If this image data G (u, v) is multiplied by an inverse filter, F (u, v) can be calculated, and if F (u, v) is inversely Fourier transformed, an original that is estimated as a two-dimensional original image is obtained. Image data S (x, y) can be calculated. If visual filter processing is performed on the two-dimensional original image data S (x, y), two-dimensional visual luminance data Y ′ (x, y) can be calculated. If the y-direction luminance distribution data is extracted from the two-dimensional visual luminance data Y ′ (x, y) as shown in FIG. 10, similar visual luminance distribution data Y ′ (y) is obtained. However, since it is necessary to perform Fourier transform and inverse Fourier transform on the two-dimensional data, the calculation process takes time compared to the calculation process for the one-dimensional data such as S104 to S106 of the present embodiment.
The correction value acquisition program calculates the respective visual luminance distribution data Y ′ (y) for each of the five correction patterns.

<解像度変換処理(S107)>
視認輝度分布データY´(y)は、解像度が1440dpiの輝度分布を示していると考えられる。そこで、補正値取得プログラムは、視認輝度分布データY´(y)の解像度を変換し、24個の輝度データから構成された720dpiの輝度分布データを算出する(S107)。これにより、輝度分布データの24個の輝度データは、それぞれ印刷解像度に相当する幅(1/720インチ)の列領域の輝度を示すことになる。例えば、解像度変換後の1番目の輝度データは第1列領域の輝度を示し、2番目の輝度データは第2列領域の輝度を示し、i番目の輝度データは第i列領域の輝度を示していると考えることができる。
<Resolution conversion process (S107)>
The viewing luminance distribution data Y ′ (y) is considered to indicate a luminance distribution with a resolution of 1440 dpi. Therefore, the correction value acquisition program converts the resolution of the visible luminance distribution data Y ′ (y), and calculates 720 dpi luminance distribution data composed of 24 luminance data (S107). As a result, the 24 pieces of luminance data of the luminance distribution data indicate the luminance of the row region having a width (1/720 inch) corresponding to the print resolution. For example, the first luminance data after resolution conversion indicates the luminance of the first column region, the second luminance data indicates the luminance of the second column region, and the i-th luminance data indicates the luminance of the i-th column region. Can be considered.

本実施形態では、1440dpiの解像度の輝度分布データS(y)に対して視覚フィルタを適用して視認輝度分布データY´(y)を算出した後に、720dpiの解像度の輝度分布データに解像度変換している。つまり、高い解像度のデータに対して視覚フィルタを適用した後に、低い解像度に解像度変換をしている。もし仮に、1440dpiの解像度の輝度分布データS(y)を720dpiの解像度に解像度変換した後に視覚フィルタを適用してしまうと、解像度変換によって劣化したデータに対して視覚フィルタが適用されるので、補正値の補正精度が劣ってしまう。   In the present embodiment, the visual luminance distribution data Y ′ (y) is calculated by applying a visual filter to the luminance distribution data S (y) having a resolution of 1440 dpi, and then the resolution is converted into luminance distribution data having a resolution of 720 dpi. ing. That is, after applying a visual filter to high resolution data, resolution conversion is performed to a low resolution. If the visual filter is applied after the luminance conversion data S (y) having the resolution of 1440 dpi is converted to the resolution of 720 dpi, the visual filter is applied to the data deteriorated by the resolution conversion. The value correction accuracy is poor.

以下の説明では、解像度変換後の輝度分布データの第i番目の輝度データをYiと表す。さらに、輝度データは5個の補正用パターンごとにあるので、基準階調値に応じてa〜bの添字を付して輝度データを表すことにする。例えば、基準階調値Scの第3補正用パターンに対する輝度分布データ(解像度変換後の輝度分布データ)の第i番目の輝度データは、Yi_cである。   In the following description, the i-th luminance data of the luminance distribution data after resolution conversion is represented as Yi. Further, since the luminance data is provided for every five correction patterns, the subscripts a to b are added according to the reference gradation value to represent the luminance data. For example, the i-th luminance data of the luminance distribution data (luminance distribution data after resolution conversion) for the third correction pattern having the reference gradation value Sc is Yi_c.

<補正値の算出(S108)>
次に、補正値取得プログラムは、輝度データと目標輝度との差に基づいて、各画素列の補正値ΔCをそれぞれ算出する。ここでは、第i画素列の補正値の算出方法について説明する。
<Calculation of Correction Value (S108)>
Next, the correction value acquisition program calculates a correction value ΔC for each pixel column based on the difference between the luminance data and the target luminance. Here, a method for calculating the correction value of the i-th pixel column will be described.

図13A及び図13Bは、第i画素列の基準階調値Sbの補正値ΔCi_bの説明図である。図中の横軸は画素データの示す階調値を示し、縦軸は輝度値を示している。図中には基準階調値Sbでの目標輝度Yt_bが示されている。ここでは、目標輝度Yt_bは、S107において求められた24個の輝度データY1_b〜Y24_cの平均値とする。   13A and 13B are explanatory diagrams of the correction value ΔCi_b of the reference gradation value Sb of the i-th pixel column. In the figure, the horizontal axis indicates the gradation value indicated by the pixel data, and the vertical axis indicates the luminance value. In the drawing, the target luminance Yt_b at the reference gradation value Sb is shown. Here, the target luminance Yt_b is an average value of the 24 luminance data Y1_b to Y24_c obtained in S107.

図13Aのように、基準階調値Sbの第i画素列の輝度Yi_bが目標輝度Yt_bよりも小さい場合、補正値取得プログラムは、直線BCに基づく直線補間を利用して、目標輝度Yt_bに対応する階調値Sbtを算出する。そして、階調値Sbtと基準階調値Sbとの差を補正値ΔCi_bとして算出する。この場合の補正値は、プラスの値である。   As shown in FIG. 13A, when the luminance Yi_b of the i-th pixel column of the reference gradation value Sb is smaller than the target luminance Yt_b, the correction value acquisition program uses linear interpolation based on the straight line BC to correspond to the target luminance Yt_b. The gradation value Sbt to be calculated is calculated. Then, the difference between the gradation value Sbt and the reference gradation value Sb is calculated as a correction value ΔCi_b. The correction value in this case is a positive value.

図13Bのように、基準階調値Sbの第i画素列の輝度Yi_bが目標輝度Yt_bよりも大きい場合、補正値取得プログラムは、直線ABに基づく直線補間を利用して、目標輝度Yt_bに対応する階調値Sbtを算出する。そして、階調値Sbtと基準階調値Sbとの差を補正値ΔCi_bとして算出する。この場合の補正値は、マイナスの値である。   As shown in FIG. 13B, when the luminance Yi_b of the i-th pixel column of the reference gradation value Sb is larger than the target luminance Yt_b, the correction value acquisition program uses the linear interpolation based on the straight line AB to correspond to the target luminance Yt_b. The gradation value Sbt to be calculated is calculated. Then, the difference between the gradation value Sbt and the reference gradation value Sb is calculated as a correction value ΔCi_b. The correction value in this case is a negative value.

このようにして、補正値取得プログラムは、5種類の基準階調値ごとに、それぞれの画素列ごとの補正値を算出する。なお、基準階調値Saの補正値を算出する場合、2点(0,0)、(Sa,Yi_a)の直線に基づいて直線補間を行うと良い。また、基準階調値Seの補正値を算出する場合、2点(Se,Yi_e)、(255,255)の直線に基づいて直線補間を行うと良い。   In this way, the correction value acquisition program calculates a correction value for each pixel column for each of the five types of reference gradation values. When calculating the correction value of the reference gradation value Sa, linear interpolation may be performed based on two points (0, 0) and (Sa, Yi_a). Further, when calculating the correction value of the reference gradation value Se, linear interpolation may be performed based on two points (Se, Yi_e) and (255, 255).

本実施形態では、1個の画素列について、5個の基準階調値にそれぞれ対応する5個の補正値が算出される。さらに、このような補正値が、24個の画素列ごとに算出される。   In the present embodiment, five correction values respectively corresponding to five reference gradation values are calculated for one pixel column. Further, such a correction value is calculated for every 24 pixel columns.

ところで、ドットの直径が1/720インチよりも大きい場合(ドットの直径が画素領域よりも大きい場合)、720×720dpiの印刷画像データの画素列データが補正値によって補正されたとしても(後述)、その補正の影響は、1/720インチの幅の列領域よりも広い範囲に及ぶことになる。このため、ドットの直径が1/720インチよりも大きい場合には、ある画素列に対応する補正値を算出する際に、その画素列に対応する列領域の輝度の情報(1/720インチの幅の領域の輝度の情報)だけでなく、その画素列よりも広い範囲の輝度の情報が反映されることが望ましいと考えられる。一方、本実施形態では、S106の重み関数h(y)の正の範囲がドットの直径(若しくはラスタラインの幅)である約70μmよりも広くなっている。この結果、フィルタ処理後の輝度の値は、ドットの直径よりも広い範囲の輝度の情報を反映した情報になっている。このため、算出された補正値は、720×720dpiの印刷画像データの画素列データを補正するためのものではあるが(後述)、1/720インチの幅よりも広い範囲の濃度を補正するのに適した値になっている。   By the way, when the dot diameter is larger than 1/720 inch (when the dot diameter is larger than the pixel area), even if the pixel column data of 720 × 720 dpi print image data is corrected by the correction value (described later). The effect of the correction will extend over a wider area than the 1/720 inch wide row area. For this reason, when the dot diameter is larger than 1/720 inch, when calculating the correction value corresponding to a certain pixel column, the luminance information (1/720 inch) of the column region corresponding to the pixel column is calculated. It is considered desirable to reflect not only the luminance information of the width area) but also the luminance information in a wider range than the pixel column. On the other hand, in this embodiment, the positive range of the weighting function h (y) in S106 is wider than about 70 μm, which is the dot diameter (or raster line width). As a result, the luminance value after filtering is information reflecting luminance information in a wider range than the dot diameter. For this reason, the calculated correction value is for correcting the pixel column data of the print image data of 720 × 720 dpi (described later), but corrects the density in a range wider than the width of 1/720 inch. The value is suitable for.

図14は、算出された補正値のテーブルの説明図である。算出された各補正値は、基準階調値及び画素列にそれぞれ対応付けられて、補正値テーブルに格納される。図中では、第i画素列に対応する補正値ΔCiに対して、基準階調値ごとにa〜eの添字を付している。   FIG. 14 is an explanatory diagram of a table of calculated correction values. Each of the calculated correction values is stored in the correction value table in association with the reference gradation value and the pixel column. In the figure, subscripts a to e are attached to the correction value ΔCi corresponding to the i-th pixel column for each reference gradation value.

<補正値の記憶>
コンピュータ110の補正値取得プログラムは、プリンタ1のメモリ63に補正値テーブルを記憶する(S109、図6C参照)。
なお、上記の説明では、ブラック(ブラックインクノズル列)についてのみ説明をしているが、他の色(シアン、マゼンタ、イエロー)に対しても同様に補正値が算出され、プリンタ1のメモリに補正値テーブルが記憶される。
このようにメモリに補正値テーブルが記憶された後、プリンタ1が梱包されて、工場から出荷されることになる。
<Storing correction values>
The correction value acquisition program of the computer 110 stores the correction value table in the memory 63 of the printer 1 (S109, see FIG. 6C).
In the above description, only black (black ink nozzle row) has been described, but correction values are similarly calculated for other colors (cyan, magenta, yellow) and stored in the memory of the printer 1. A correction value table is stored.
After the correction value table is stored in the memory in this way, the printer 1 is packed and shipped from the factory.

===印刷処理===
<濃度ムラ補正前の処理(S201〜S203)>
図15は、ユーザ下でプリンタドライバが行う印刷処理のフロー図である。プリンタ1を購入したユーザは、プリンタ1に同梱されているCD−ROMに記憶されたプリンタドライバ(若しくは、プリンタ製造会社のホームページからダウンロードしたプリンタドライバ)を、コンピュータにインストールする。このプリンタドライバには、図中の各処理をコンピュータに実行させるためのコードを備えている。また、ユーザは、コンピュータにプリンタ1を接続する。
=== Print processing ===
<Processing before Density Unevenness Correction (S201 to S203)>
FIG. 15 is a flowchart of print processing performed by the printer driver under the user. A user who has purchased the printer 1 installs a printer driver (or a printer driver downloaded from the homepage of a printer manufacturer) stored in a CD-ROM included with the printer 1 in a computer. This printer driver is provided with code for causing a computer to execute each process in the drawing. The user connects the printer 1 to the computer.

まず、プリンタドライバは、プリンタ1のメモリに記憶されている補正値テーブル(図14参照)を、プリンタ1から取得する(S201)。
ユーザがアプリケーションプログラム上から印刷を指示したとき、プリンタドライバが呼び出され、印刷対象となる画像データ(印刷画像データ)をアプリケーションプログラムから受け取り、その印刷画像データに対して解像度変換処理を行う(S202)。解像度変換処理とは、画像データ(テキストデータ、イメージデータなど)を、紙に印刷する際の解像度(印刷解像度)に変換する処理である。ここでは、印刷解像度は720×720dpiであり、解像度変換処理後の各画素データは、RGB色空間により表される256階調のデータである。
First, the printer driver acquires a correction value table (see FIG. 14) stored in the memory of the printer 1 from the printer 1 (S201).
When the user instructs printing from the application program, the printer driver is called, receives image data (print image data) to be printed from the application program, and performs resolution conversion processing on the print image data (S202). . The resolution conversion process is a process for converting image data (text data, image data, etc.) to a resolution (printing resolution) for printing on paper. Here, the print resolution is 720 × 720 dpi, and each pixel data after the resolution conversion processing is data of 256 gradations represented by the RGB color space.

次に、プリンタドライバは、色変換処理を行う(S203)。色変換処理とは、プリンタ1のインク色の色空間に合わせて画像データを変換する処理である。ここでは、RGB色空間の画像データ(256階調)が、CMYK色空間の画像データ(256階調)に変換される。   Next, the printer driver performs color conversion processing (S203). The color conversion process is a process of converting image data in accordance with the color space of the ink color of the printer 1. Here, image data (256 gradations) in the RGB color space is converted into image data (256 gradations) in the CMYK color space.

これにより、256階調のCMYK色空間の画像データが得られる。なお、以下の説明では、説明の簡略化のため、CMYK色空間の画像データのうちの、ブラック平面の画像データについて説明する。   As a result, image data of 256-tone CMYK color space is obtained. In the following description, for simplification of description, the image data of the black plane among the image data of the CMYK color space will be described.

<濃度ムラ補正処理(S204))>
次に、プリンタドライバは、濃度ムラ補正処理を行う(S204)。濃度ムラ補正処理は、画素列ごとの補正値に基づいて、各画素列に属する画素データの階調値をそれぞれ補正する処理である。ここでは、第i画素列に属する画素データの階調値の補正について説明する。
<Density unevenness correction process (S204)>
Next, the printer driver performs density unevenness correction processing (S204). The density unevenness correction process is a process of correcting the gradation values of the pixel data belonging to each pixel column based on the correction value for each pixel column. Here, correction of gradation values of pixel data belonging to the i-th pixel column will be described.

図16は、画素データの階調値の補正の説明図である。図中の横軸は補正前の階調値を示し、図中の縦軸は補正後の階調値を示している。
仮に補正前の印刷画像データの画素データが全て基準階調値Sbであれば、プリンタドライバは、基準階調値Sbに対応する補正値ΔCi_bを用いて、画素データの階調値SbをSb+ΔCi_bに補正するのが良いと考えられる(これにより、補正後の階調値Sb+ΔCi_bに従って印刷画像を形成すれば、元の印刷画像データ通りの濃度ムラのない印刷画像が得られると考えられる)。同様に、補正前の印刷画像データの画素データが全て基準階調値Scであれば、プリンタドライバは、基準階調値Scに対応する補正値ΔCi_cを用いて、画素データの階調値ScをSc+ΔCi_cに補正するのが良いと考えられる。
FIG. 16 is an explanatory diagram of correction of gradation values of pixel data. The horizontal axis in the figure indicates the gradation value before correction, and the vertical axis in the figure indicates the gradation value after correction.
If all the pixel data of the print image data before correction is the reference gradation value Sb, the printer driver uses the correction value ΔCi_b corresponding to the reference gradation value Sb to change the gradation value Sb of the pixel data to Sb + ΔCi_b. It is considered that it is preferable to correct it (thus, if a print image is formed according to the corrected gradation value Sb + ΔCi_b, it is considered that a print image without density unevenness as in the original print image data is obtained). Similarly, if all the pixel data of the print image data before correction is the reference gradation value Sc, the printer driver uses the correction value ΔCi_c corresponding to the reference gradation value Sc to set the gradation value Sc of the pixel data. It is considered good to correct to Sc + ΔCi_c.

一方、補正前の階調値S_inが基準階調値と異なる場合、例えば図に示すように補正前の階調値S_inがSbとScの間である場合、プリンタドライバは、補正値ΔCi_b及び補正値ΔCi_cを用いて直線補完を行い、階調値S_outを算出する。   On the other hand, when the gradation value S_in before correction is different from the reference gradation value, for example, when the gradation value S_in before correction is between Sb and Sc as shown in the figure, the printer driver performs the correction value ΔCi_b and the correction value. Straight line interpolation is performed using the value ΔCi_c, and the gradation value S_out is calculated.

図中のグラフによれば、補正値ΔCi_aは、マイナスの値になっている。このため、補正前の階調値S_inが基準階調値Saに近い値であれば、プリンタドライバは、階調値を低くするように画素データの階調値を補正する。また、図中のグラフによれば、補正値ΔCi_b、補正値ΔCi_c、補正値ΔCi_d及び補正値ΔCi_b、は、プラスの値になっている。このため、補正前の階調値S_inが基準階調値Sb〜Seに近い値であれば、プリンタドライバは、階調値を高くするように画素データの階調値を補正する。   According to the graph in the figure, the correction value ΔCi_a is a negative value. Therefore, if the gradation value S_in before correction is a value close to the reference gradation value Sa, the printer driver corrects the gradation value of the pixel data so that the gradation value is lowered. Further, according to the graph in the figure, the correction value ΔCi_b, the correction value ΔCi_c, the correction value ΔCi_d, and the correction value ΔCi_b are positive values. Therefore, if the gradation value S_in before correction is a value close to the reference gradation values Sb to Se, the printer driver corrects the gradation value of the pixel data so as to increase the gradation value.

ここでは、第i画素列に属する画素データの階調値の補正について説明したが、他の画素列に属する画素データに対しても、同様に階調値を補正する。これにより、プリンタドライバは、濃く印刷される部分の画素を淡く補正し、淡く印刷される部分の画素を濃く補正するように、印刷前に印刷画像データを予め補正することができる。
なお、濃度ムラ補正後の印刷画像データは、256階調のCMYK色空間の画像データである。
Although the correction of the gradation value of the pixel data belonging to the i-th pixel column has been described here, the gradation value is similarly corrected for the pixel data belonging to the other pixel columns. As a result, the printer driver can correct the print image data in advance before printing so as to lightly correct the pixels in the darkly printed portion and to darken the pixels in the lightly printed portion.
The print image data after density unevenness correction is image data in a 256-tone CMYK color space.

<濃度ムラ補正後の処理(S205〜S208)>
濃度ムラ補正処理の後、プリンタドライバは、ハーフトーン処理を行う。ハーフトーン処理とは、高階調数のデータを、低階調数のデータに変換する処理である。ここでは、256階調の印刷画像データが、プリンタ1の表現可能な4階調の印刷画像データに変換される。ハーフトーン処理方法としてディザ法・誤差拡散法などが知られており、本実施形態もこのようなハーフトーン処理を行う。なお、前述のS101(図9)で行われるハーフトーン処理と、ここでのハーフトーン処理は、同種のものである。
<Processing after Density Unevenness Correction (S205 to S208)>
After the density unevenness correction processing, the printer driver performs halftone processing. Halftone processing is processing for converting high gradation number data into low gradation number data. Here, the 256 gradation print image data is converted into the four gradation print image data that can be expressed by the printer 1. As a halftone processing method, a dither method, an error diffusion method, and the like are known, and this embodiment also performs such a halftone processing. The halftone process performed in S101 (FIG. 9) and the halftone process here are the same type.

本実施形態では、プリンタドライバは、濃度ムラ補正処理された画素データに対して、ハーフトーン処理が行われることになる。この結果、濃く視認されやすい部分の画素データの階調値は低くなるように補正されているので、その部分のドット生成率は低くなる。逆に、淡く視認されやすい部分ではドット生成率が高くなる。   In the present embodiment, the printer driver performs halftone processing on pixel data that has been subjected to density unevenness correction processing. As a result, the tone value of the pixel data in the dark and easily visible portion is corrected to be low, so the dot generation rate in that portion is low. On the contrary, the dot generation rate is high in a portion that is faint and easily visible.

次に、プリンタドライバは、ラスタライズ処理を行う(S206)。ラスタライズ処理は、印刷画像データ上の画素データの並び順を、プリンタ1に転送すべきデータ順に変更する処理である。その後、プリンタドライバは、プリンタ1を制御するための制御データを画素データに付加することによって印刷データを生成し(S207)、その印刷データをプリンタ1に送信する。   Next, the printer driver performs rasterization processing (S206). The rasterization process is a process of changing the order of arrangement of pixel data on the print image data to the order of data to be transferred to the printer 1. Thereafter, the printer driver generates print data by adding control data for controlling the printer 1 to the pixel data (S207), and transmits the print data to the printer 1.

プリンタ1は、受信した印刷データに従って、印刷動作を行う。具体的には、プリンタ1のコントローラ60は、受信した印刷データの制御データに従って搬送ユニット20などを制御し、印刷データの画素データに従ってヘッドユニット40を制御して各ノズルからインクを吐出する。このようにして生成された印刷データに基づいてプリンタ1が印刷処理を行えば、各ラスタラインのドット生成率が変更され、紙上の列領域の画像片の濃度が補正されて、印刷画像の濃度ムラが抑制される。   The printer 1 performs a printing operation according to the received print data. Specifically, the controller 60 of the printer 1 controls the transport unit 20 and the like according to the received print data control data, and controls the head unit 40 according to the pixel data of the print data to eject ink from each nozzle. When the printer 1 performs printing processing based on the print data generated in this way, the dot generation rate of each raster line is changed, the density of the image pieces in the row area on the paper is corrected, and the density of the print image Unevenness is suppressed.

===その他の実施の形態===
上記の実施形態は、主としてプリンタについて記載されているが、その中には、印刷装置、記録装置、液体の吐出装置、印刷方法、記録方法、液体の吐出方法、印刷システム、記録システム、コンピュータシステム、プログラム、プログラムを記憶した記憶媒体、表示画面、画面表示方法、印刷物の製造方法、等の開示が含まれていることは言うまでもない。
=== Other Embodiments ===
The above-described embodiment is mainly described for a printer. Among them, a printing apparatus, a recording apparatus, a liquid ejection apparatus, a printing method, a recording method, a liquid ejection method, a printing system, a recording system, and a computer system are included. Needless to say, the disclosure includes a program, a storage medium storing the program, a display screen, a screen display method, a printed material manufacturing method, and the like.

また、一実施形態としてのプリンタ等を説明したが、上記の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは言うまでもない。特に、以下に述べる実施形態であっても、本発明に含まれるものである。   Moreover, although the printer etc. as one embodiment were demonstrated, said embodiment is for making an understanding of this invention easy, and is not for limiting and interpreting this invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof. In particular, the embodiments described below are also included in the present invention.

<プリンタについて1>
前述の実施形態では、プリンタが説明されていたが、これに限られるものではない。例えば、カラーフィルタ製造装置、染色装置、微細加工装置、半導体製造装置、表面加工装置、三次元造形機、液体気化装置、有機EL製造装置(特に高分子EL製造装置)、ディスプレイ製造装置、成膜装置、DNAチップ製造装置などのインクジェット技術を応用した各種の記録装置に、本実施形態と同様の技術を適用しても良い。また、これらの方法や製造方法も応用範囲の範疇である。
<About the printer 1>
In the above-described embodiment, the printer has been described. However, the present invention is not limited to this. For example, color filter manufacturing apparatus, dyeing apparatus, fine processing apparatus, semiconductor manufacturing apparatus, surface processing apparatus, three-dimensional modeling machine, liquid vaporizer, organic EL manufacturing apparatus (particularly polymer EL manufacturing apparatus), display manufacturing apparatus, film formation The same technique as that of the present embodiment may be applied to various recording apparatuses to which an ink jet technique is applied such as an apparatus and a DNA chip manufacturing apparatus. These methods and manufacturing methods are also within the scope of application.

<プリンタについて2>
前述のプリンタ1は、ヘッドに対して紙が移動するプリンタである。但し、他の種類のプリンタであっても良い。例えば、移動方向に移動するキャリッジにヘッドが搭載されており、移動方向に移動するヘッドからインクを吐出する吐出動作と、搬送方向に紙を搬送する搬送動作とを交互に繰り返すシリアルプリンタであっても良い。また、ヘッドを紙面と平行な平面上で2方向に移動させて、紙に画像を印刷するようなプリンタであっても良い。
<About the printer 2>
The printer 1 described above is a printer in which paper moves relative to the head. However, other types of printers may be used. For example, there is a serial printer in which a head is mounted on a carriage that moves in a moving direction, and an ejection operation that ejects ink from the head that moves in the moving direction and a transport operation that transports paper in the transport direction are repeated alternately. Also good. Further, the printer may print an image on paper by moving the head in two directions on a plane parallel to the paper surface.

<ラスタラインについて>
前述の各ラスタラインは、それぞれ1個のノズルから形成されている。但し、ラスタラインの形成方法は、これに限られるものではない。ラスタラインを複数個のノズルで形成しても良い。
<About raster lines>
Each of the aforementioned raster lines is formed from one nozzle. However, the raster line forming method is not limited to this. A raster line may be formed by a plurality of nozzles.

<輝度について>
前述の実施形態では、読取画像データ上の各画素列の代表値として輝度Yiを求め、輝度の分布データを用いて補正値を算出している。但し、各画素列の代表値は輝度ではなく、他のデータを代表値としてもよい。例えば、RGB色空間の階調値やLab色空間の階調値などを各画素列の代表値として求め、その代表値によって分布データが構成されても良い。
<About brightness>
In the above-described embodiment, the luminance Yi is obtained as the representative value of each pixel column on the read image data, and the correction value is calculated using the luminance distribution data. However, the representative value of each pixel column is not the luminance, and other data may be used as the representative value. For example, gradation values in the RGB color space, gradation values in the Lab color space, and the like may be obtained as representative values of each pixel column, and the distribution data may be configured by the representative values.

<フィルタについて>
前述の実施形態では、Dooleyの視覚フィルタVTFを用いてフィルタ処理を行っている。但し、フィルタ処理に用いるフィルタは、他の視覚フィルタでも良い。また、視覚フィルタではなく、例えば平均値フィルタ(同じ値で重み付けを行うフィルタ)を用いても良い(この場合、復元された原画像上での輝度分布データS(y)に対して移動平均処理が施されて視認輝度分布データY´(y)が算出される)。
要するに、視覚フィルタVTFや平均値フィルタのようなローパスフィルタを輝度分布データに適用し、ローパスフィルタ適用後の輝度分布データに基づいて各画素列の補正値をそれぞれ算出すれば、人間に視認されるような濃度ムラを補正対象にすることができる。
<About filters>
In the above-described embodiment, filtering is performed using the Dooley visual filter VTF. However, the filter used for the filter process may be another visual filter. Further, instead of the visual filter, for example, an average value filter (a filter that performs weighting with the same value) may be used (in this case, moving average processing is performed on the luminance distribution data S (y) on the restored original image. The visual luminance distribution data Y ′ (y) is calculated.
In short, if a low-pass filter such as a visual filter VTF or an average value filter is applied to the luminance distribution data, and the correction value of each pixel column is calculated based on the luminance distribution data after applying the low-pass filter, it is visible to humans. Such density unevenness can be corrected.

用語の説明図である。It is explanatory drawing of a term. プリンタ1の全体構成のブロック図である。1 is a block diagram of an overall configuration of a printer 1. FIG. プリンタ1の搬送処理とドット形成処理を説明するための斜視図である。FIG. 6 is a perspective view for explaining a conveyance process and a dot formation process of the printer. ヘッドユニット40の下面における複数のヘッドの配列の説明図である。4 is an explanatory diagram of an arrangement of a plurality of heads on the lower surface of the head unit 40. FIG. 簡略説明用のノズル配置とドット形成の様子の説明図である。It is explanatory drawing of the mode of the nozzle arrangement | positioning for simple description, and dot formation. 図6A〜図6Cは、テストパターンを印刷してからプリンタ1に補正値を記憶させるまでの間の様子の説明図である。FIG. 6A to FIG. 6C are explanatory views of a state from when the test pattern is printed until the correction value is stored in the printer 1. 画像データの解析の様子の説明図である。It is explanatory drawing of the mode of an analysis of image data. 図8Aは、テストパターンの印刷画像データの説明図である。図8Bは、第3補正用パターンの印刷画像データの説明図である。FIG. 8A is an explanatory diagram of print image data of a test pattern. FIG. 8B is an explanatory diagram of print image data of the third correction pattern. 補正値取得処理のフロー図である。It is a flowchart of a correction value acquisition process. 各画素列の輝度の算出の様子の説明図である。It is explanatory drawing of the mode of the calculation of the brightness | luminance of each pixel column. DooleyのVTFフィルタのグラフである。It is a graph of Dooley's VTF filter. 図11の周波数特性を持つフィルタのインパルス応答h(t)のグラフである。12 is a graph of an impulse response h (t) of a filter having the frequency characteristic of FIG. 図13A及び図13Bは、第i画素列の基準階調値Sbの補正値ΔCj_bの説明図である。13A and 13B are explanatory diagrams of the correction value ΔCj_b of the reference gradation value Sb of the i-th pixel column. 補正値テーブルの説明図である。It is explanatory drawing of a correction value table. プリンタドライバが行う印刷処理のフロー図である。FIG. 10 is a flowchart of print processing performed by a printer driver. 画素データの階調値の補正の説明図である。It is explanatory drawing of correction | amendment of the gradation value of pixel data.

符号の説明Explanation of symbols

1 プリンタ、20 搬送ユニット、
22A 上流側ローラ、22B 下流側ローラ、24 ベルト、
40 ヘッドユニット、41 ヘッド、41A 第1ヘッド、41B 第2ヘッド、
411 第1ノズル群、412 第2ノズル群、50 検出器群、
60 コントローラ、61 インターフェース部、62 CPU、63 メモリ、
64 ユニット制御回路、110 コンピュータ、150 スキャナ
1 printer, 20 transport unit,
22A upstream roller, 22B downstream roller, 24 belt,
40 head units, 41 heads, 41A first head, 41B second head,
411 first nozzle group, 412 second nozzle group, 50 detector group,
60 controller, 61 interface unit, 62 CPU, 63 memory,
64 unit control circuit, 110 computer, 150 scanner

Claims (8)

印刷解像度に合わせた解像度の印刷画像データの画素列のデータに応じてドット列を媒体に形成することによって、複数の前記ドット列から構成されるパターンを形成するパターン形成ステップと、
スキャナによって前記パターンの画像を読み取って、読取データを取得する読取ステップと、
前記読取データに対してローパスフィルタを適用するフィルタ適用ステップと、
前記ローパスフィルタの適用後の前記読取データに応じて、印刷画像データの各画素列のデータを補正するための補正値を、画素列ごとにそれぞれ算出する補正値算出ステップと、
を有する補正値取得方法。
A pattern forming step of forming a pattern composed of a plurality of the dot rows by forming a dot row on a medium according to the pixel row data of the print image data having a resolution matched to the print resolution;
A reading step of reading an image of the pattern by a scanner to obtain read data;
Applying a low-pass filter to the read data;
A correction value calculating step for calculating, for each pixel column, a correction value for correcting the data of each pixel column of the print image data in accordance with the read data after application of the low-pass filter;
A correction value acquisition method.
請求項1に記載の補正値取得方法であって、
前記読取ステップの後に、前記スキャナの影響を前記読取データから除去するための逆フィルタ処理が行われ、
前記フィルタ適用ステップでは、逆フィルタ処理後の前記読取データに対して前記ローパスフィルタが適用される
ことを特徴とする補正値取得方法。
The correction value acquisition method according to claim 1,
After the reading step, an inverse filter process for removing the influence of the scanner from the read data is performed,
In the filter application step, the low-pass filter is applied to the read data after the inverse filter process.
請求項1又は2に記載の補正値取得方法であって、
前記フィルタ適用ステップでは、前記読取データに対して重み関数が畳込み積分され、
前記重み関数は、所定の周波数特性を持つ視覚フィルタのインパルス応答に相当する
ことを特徴とする補正値取得方法。
The correction value acquisition method according to claim 1 or 2,
In the filter applying step, a weight function is convolved with the read data,
The correction value acquisition method, wherein the weight function corresponds to an impulse response of a visual filter having a predetermined frequency characteristic.
請求項1又は2に記載の補正値取得方法であって、
前記フィルタ適用ステップでは、前記読取データに対して重み関数が畳込み積分され、
前記重み関数は、正の範囲が前記ドット列の幅に相当する範囲よりも広く設定された広がり関数である
ことを特徴とする補正値取得方法。
The correction value acquisition method according to claim 1 or 2,
In the filter applying step, a weight function is convolved with the read data,
The correction value acquisition method, wherein the weighting function is a spread function in which a positive range is set wider than a range corresponding to the width of the dot row.
請求項1〜4のいずれかに記載の補正値取得方法であって、
前記フィルタ適用ステップでは、前記印刷解像度よりも高い解像度の前記読取データに対してローパスフィルタが適用され、
前記補正値算出ステップでは、前記ローパスフィルタの適用後の前記読取データが前記印刷解像度に解像度変換され、解像度変換後の前記読取データに応じて前記補正値が算出される
ことを特徴とする補正値取得方法。
A correction value acquisition method according to any one of claims 1 to 4,
In the filter applying step, a low pass filter is applied to the read data having a resolution higher than the print resolution,
In the correction value calculating step, the read data after application of the low-pass filter is subjected to resolution conversion to the print resolution, and the correction value is calculated according to the read data after resolution conversion. Acquisition method.
請求項1〜5のいずれかに記載の補正値取得方法であって、
前記読取ステップでは、前記パターンの2次元の画像データから各画素列の代表値が算出されて、各画素列の代表値によって1次元の前記読取データが構成され、
前記フィルタ適用ステップでは、1次元の前記読取データに対してローパスフィルタが適用される
ことを特徴とする補正値取得方法。
A correction value acquisition method according to any one of claims 1 to 5,
In the reading step, a representative value of each pixel column is calculated from the two-dimensional image data of the pattern, and the one-dimensional read data is configured by the representative value of each pixel column,
In the filter application step, a low-pass filter is applied to the one-dimensional read data.
請求項1〜5のいずれかに記載の補正値取得方法であって、
前記フィルタ適用ステップでは、2次元の画像データである前記読取データに対してローパスフィルタが適用され、
前記補正値算出ステップでは、ローパスフィルタの適用後の前記読取データから各画素列の代表値が算出され、各画素列の代表値に応じて前記補正値が算出される
ことを特徴とする補正値取得方法。
A correction value acquisition method according to any one of claims 1 to 5,
In the filter applying step, a low-pass filter is applied to the read data that is two-dimensional image data,
In the correction value calculation step, a representative value of each pixel column is calculated from the read data after application of a low-pass filter, and the correction value is calculated according to the representative value of each pixel column. Acquisition method.
印刷解像度に合わせた解像度の印刷画像データの画素列のデータに応じてドット列を媒体に形成することによって、複数の前記ドット列から構成されるパターンを形成するパターン形成ステップと、
スキャナによって前記パターンの画像を読み取って、読取データを取得する読取ステップと、
前記読取データに対してローパスフィルタを適用するフィルタ適用ステップと、
前記ローパスフィルタの適用後の前記読取データに応じて、印刷画像データの各画素列のデータを補正するための補正値を、画素列ごとにそれぞれ算出する補正値算出ステップと、
印刷解像度に合わせた解像度の印刷画像データの各画素データを、その画素データの画素列に対応する前記補正値に従って補正し、補正後の画素データに従って画像を形成する画像形成ステップと
を有する画像形成方法。
A pattern forming step of forming a pattern composed of a plurality of the dot rows by forming a dot row on a medium according to the pixel row data of the print image data having a resolution matched to the print resolution;
A reading step of reading an image of the pattern by a scanner to obtain read data;
Applying a low-pass filter to the read data;
A correction value calculating step for calculating, for each pixel column, a correction value for correcting the data of each pixel column of the print image data in accordance with the read data after application of the low-pass filter;
An image forming step of correcting each pixel data of the print image data having a resolution matched to the print resolution according to the correction value corresponding to the pixel column of the pixel data and forming an image according to the corrected pixel data; Method.
JP2008081749A 2008-03-26 2008-03-26 Correction value calculating method and printing method Withdrawn JP2009239530A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008081749A JP2009239530A (en) 2008-03-26 2008-03-26 Correction value calculating method and printing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008081749A JP2009239530A (en) 2008-03-26 2008-03-26 Correction value calculating method and printing method

Publications (1)

Publication Number Publication Date
JP2009239530A true JP2009239530A (en) 2009-10-15

Family

ID=41252974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008081749A Withdrawn JP2009239530A (en) 2008-03-26 2008-03-26 Correction value calculating method and printing method

Country Status (1)

Country Link
JP (1) JP2009239530A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147126A (en) * 2011-01-07 2012-08-02 Fujifilm Corp Density unevenness correction value calculation method and image processing method and image processing apparatus
JP2012156774A (en) * 2011-01-26 2012-08-16 Canon Inc Image processing apparatus and image processing method
JP2013147003A (en) * 2012-01-23 2013-08-01 Fujifilm Corp Method and apparatus for detecting discharge defect, image processing apparatus, program, and printing system
JP2020188296A (en) * 2019-05-09 2020-11-19 キヤノン株式会社 Image processing apparatus, image processing method, and program
US11652951B2 (en) 2020-03-13 2023-05-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for correcting a measurement value using a recording element that ejects ink

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150572A (en) * 1996-09-18 1998-06-02 Fuji Xerox Co Ltd Image-processing unit, image-processing method, and medium recording image-processing program
JP2000123168A (en) * 1998-10-19 2000-04-28 Risou Kagaku Kenkyusho:Kk Device and method for determining inverse filter for blur correction, image device with blur correcting function and recording medium
JP2000307865A (en) * 1999-04-19 2000-11-02 Canon Inc Information processor, recorded device, information processing method and recording method
JP2003219158A (en) * 2002-01-17 2003-07-31 Ricoh Co Ltd Image forming apparatus
JP2006026942A (en) * 2004-07-12 2006-02-02 Seiko Epson Corp Noise detector, noise detection program, noise detection method, calibration device, calibration program and calibration method
JP2006264069A (en) * 2005-03-23 2006-10-05 Fuji Photo Film Co Ltd Image recording method and apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150572A (en) * 1996-09-18 1998-06-02 Fuji Xerox Co Ltd Image-processing unit, image-processing method, and medium recording image-processing program
JP2000123168A (en) * 1998-10-19 2000-04-28 Risou Kagaku Kenkyusho:Kk Device and method for determining inverse filter for blur correction, image device with blur correcting function and recording medium
JP2000307865A (en) * 1999-04-19 2000-11-02 Canon Inc Information processor, recorded device, information processing method and recording method
JP2003219158A (en) * 2002-01-17 2003-07-31 Ricoh Co Ltd Image forming apparatus
JP2006026942A (en) * 2004-07-12 2006-02-02 Seiko Epson Corp Noise detector, noise detection program, noise detection method, calibration device, calibration program and calibration method
JP2006264069A (en) * 2005-03-23 2006-10-05 Fuji Photo Film Co Ltd Image recording method and apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147126A (en) * 2011-01-07 2012-08-02 Fujifilm Corp Density unevenness correction value calculation method and image processing method and image processing apparatus
JP2012156774A (en) * 2011-01-26 2012-08-16 Canon Inc Image processing apparatus and image processing method
JP2013147003A (en) * 2012-01-23 2013-08-01 Fujifilm Corp Method and apparatus for detecting discharge defect, image processing apparatus, program, and printing system
US8733877B2 (en) 2012-01-23 2014-05-27 Fujifilm Corporation Method and apparatus for detecting discharge defect, image processing apparatus, computer-readable recording medium, and printing system
JP2020188296A (en) * 2019-05-09 2020-11-19 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7362292B2 (en) 2019-05-09 2023-10-17 キヤノン株式会社 Image processing device, image processing method, and program
US11652951B2 (en) 2020-03-13 2023-05-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for correcting a measurement value using a recording element that ejects ink

Similar Documents

Publication Publication Date Title
JP5619041B2 (en) Discharge failure detection method and apparatus, image processing apparatus, program, and printing system
JP5760478B2 (en) Fluid ejecting apparatus and fluid ejecting method
JP5782739B2 (en) Fluid ejecting apparatus and fluid ejecting method
JP5293245B2 (en) Driving pulse setting method for head of fluid ejecting apparatus
JP4770258B2 (en) Correction value setting method and correction value setting device
JP2007144885A (en) Method for judgment of presence or absence of reading of density of foreign object and method for calculation of representative value of density of test pattern
JP2009220357A (en) Method for setting correction value, liquid ejection device, printing system, and program
JP2009234014A (en) Table setting method, liquid ejection device and print system
JP2009239530A (en) Correction value calculating method and printing method
JP2010069636A (en) Method for correction
JP2010274485A (en) Correction value setting method, fluid jetting apparatus, and manufacturing method of fluid jetting apparatus
US20110085184A1 (en) Dot position measurement method and dot position measurement apparatus
JP2009260664A (en) Correction value calculation apparatus and correction value calculation method
JP2010094875A (en) Correction method
JP5644048B2 (en) Method for manufacturing fluid ejecting apparatus, correction value setting method for fluid ejecting apparatus, and fluid ejecting apparatus
JP2006305957A (en) Method of judging presence or absence of reading of foreign substance density, and its judgment apparatus
US8398195B2 (en) Method for detecting adjustment value of fluid ejection device, and fluid ejection device
JP2009302608A (en) Method of calculating correction value and printing method
JP2010099893A (en) Method for manufacturing fluid ejection device
JP2011245666A (en) Method for adjusting fluid ejection apparatus and method for manufacturing fluid ejection apparatus
JP2010194755A (en) Manufacturing method of fluid jetting apparatus
JP2011240526A (en) Method for adjusting fluid jet device and method for producing the fluid jet device
JP2009220356A (en) Method for setting conversion table, liquid ejecting device, print system, and program
JP2010184378A (en) Calculating method of density correction value
JP2012218219A (en) Method of computing correction value and printer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20120515