JP7335545B2 - Training image data generation method, prediction model - Google Patents

Training image data generation method, prediction model Download PDF

Info

Publication number
JP7335545B2
JP7335545B2 JP2019180576A JP2019180576A JP7335545B2 JP 7335545 B2 JP7335545 B2 JP 7335545B2 JP 2019180576 A JP2019180576 A JP 2019180576A JP 2019180576 A JP2019180576 A JP 2019180576A JP 7335545 B2 JP7335545 B2 JP 7335545B2
Authority
JP
Japan
Prior art keywords
image
type
pixel
learning
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019180576A
Other languages
Japanese (ja)
Other versions
JP2021057820A (en
Inventor
真樹 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2019180576A priority Critical patent/JP7335545B2/en
Priority to US17/034,732 priority patent/US11227370B2/en
Publication of JP2021057820A publication Critical patent/JP2021057820A/en
Application granted granted Critical
Publication of JP7335545B2 publication Critical patent/JP7335545B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本明細書は、画像データを処理する予測モデルに関する。 The present specification relates to predictive models for processing image data.

従来から種々の画像処理が行われている。例えば、スキャナ等の画像読取り装置によって取得した画像データの地肌色の色情報を判定し、判定結果に応じて地肌除去を行う技術が提案されている(特許文献1)。この技術では、さらに、彩度が所定の値以下となる領域に対し彩度をより低下させる補正を行うことにより、読取り時の色ずれに起因する画像の色付きを抑制している。 Various types of image processing have been conventionally performed. For example, there has been proposed a technique of determining the color information of the background color of image data acquired by an image reading device such as a scanner and removing the background according to the determination result (Patent Document 1). In this technique, furthermore, by performing a correction to lower the saturation of an area where the saturation is equal to or less than a predetermined value, coloring of the image due to color deviation during reading is suppressed.

特開2018-152670号公報JP 2018-152670 A

近年、ニューラルネットワークやサポートベクタマシンなどの予測モデルを用いて画像データを処理する技術が開発されている。適切な処理を行うために、予測モデルは、学習画像データを用いてトレーニングされる。ところが、適切なトレーニングのための学習画像データを準備することは容易ではなかった。 In recent years, techniques for processing image data using predictive models such as neural networks and support vector machines have been developed. For proper processing, a prediction model is trained using training image data. However, it was not easy to prepare learning image data for proper training.

本明細書は、光学的な読取りによって得られる画像データを処理する予測モデルのトレーニングのための学習画像データを、適切に、生成する技術を開示する。 This specification discloses techniques for generating training image data for training a predictive model that processes image data obtained by optical reading, as appropriate.

本明細書に開示された技術は、以下の適用例として実現することが可能である。 The technology disclosed in this specification can be implemented as the following application examples.

[適用例1]予測モデルのトレーニングのための学習画像データの生成方法であって、印刷用のシートを光学的に読み取って得られるシート画像の少なくとも一部である第1種背景画像と、オブジェクトの画像であるオブジェクト画像と、を用いて、前記第1種背景画像上に前記オブジェクトが配置された画像である第1種学習画像の第1種学習画像データを生成する第1生成工程と、生成された第1種学習画像データを記憶装置に格納する第1格納工程と、を備え、前記第1生成工程は、前記第1種学習画像上の前記オブジェクトを示す第1オブジェクト画素の色値を決定する工程であって、前記第1オブジェクト画素の色値を、前記オブジェクト画像上の前記第1オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第1種オブジェクト係数を乗じて得られる値と、前記第1種背景画像上の前記第1オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第1種背景係数を乗じて得られる値と、の合計値を用いて決定する工程と、前記第1種学習画像上の前記オブジェクトが配置されない部分を示す第1背景画素の色値を決定する工程であって、前記第1背景画素の色値を、前記第1種背景画像上の前記第1背景画素の位置に対応付けられた画素の色値に前記第1種背景係数よりも大きい係数を乗じて得られる値を用いて決定する工程と、を含む、生成方法。 [Application Example 1] A method of generating learning image data for training a prediction model, comprising a type 1 background image which is at least a part of a sheet image obtained by optically reading a printing sheet; a first generation step of generating type 1 learning image data of a type 1 learning image that is an image in which the object is arranged on the type 1 background image, using an object image that is an image of a first storing step of storing the generated type 1 learning image data in a storage device, wherein the first generating step stores the color value of a first object pixel representing the object on the type 1 learning image; wherein the color value of the first object pixel is the color value of the pixel associated with the position of the first object pixel on the object image with a first type object coefficient greater than zero. and a value obtained by multiplying the color value of the pixel associated with the position of the first object pixel on the first background image by a first background coefficient greater than zero. and a step of determining a color value of a first background pixel indicating a portion of the type 1 learning image where the object is not arranged, wherein the color value of the first background pixel is , determining using a value obtained by multiplying a color value of a pixel associated with the position of the first background pixel on the first background image by a coefficient larger than the first background coefficient; generation method, including

この構成によれば、第1種学習画像は、オブジェクトが印刷されたシートを光学的に読み取って得られる画像を適切に表現できるので、オブジェクトが印刷されたシートを実際に光学的に読み取って得られる画像データを処理する予測モデルのトレーニングのための学習画像データを、適切に、生成できる。 According to this configuration, the type 1 learning image can appropriately represent an image obtained by optically reading the sheet on which the object is printed. Training image data for training a predictive model that processes the image data obtained can suitably be generated.

[適用例2]適用例1に記載の生成方法であって、前記第1種背景画像上の複数の位置に対応付けられた複数の色値を代表する代表色値を特定する代表色値特定工程と、前記代表色値によって表される第2種背景画像と、前記オブジェクト画像と、を用いて、前記第2種背景画像上に前記オブジェクトが配置された画像である第2種学習画像の第2種学習画像データを生成する第2生成工程と、生成された第2種学習画像データを前記記憶装置に格納する第2格納工程と、を備え、前記第2生成工程は、前記第2種学習画像上の前記オブジェクトを示す第2オブジェクト画素の色値を決定する工程であって、前記第2オブジェクト画素の色値を、前記オブジェクト画像上の前記第2オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第2種オブジェクト係数を乗じて得られる値と、前記第2種背景画像上の前記第2オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第2種背景係数を乗じて得られる値と、の合計値を用いて決定する工程と、前記第2種学習画像上の前記オブジェクトが配置されない部分を示す第2背景画素の色値を決定する工程であって、前記第2背景画素の色値を、前記第2種背景画像上の前記第2背景画素の位置に対応付けられた画素の色値に前記第2種背景係数よりも大きい係数を乗じて得られる値を用いて決定する工程と、を含む、生成方法。 [Application Example 2] The generation method according to Application Example 1, wherein the representative color value identification identifies a representative color value representing a plurality of color values associated with a plurality of positions on the type 1 background image. a type 2 background image represented by the representative color value; a second generating step of generating type 2 learning image data; and a second storing step of storing the generated type 2 learning image data in the storage device. determining a color value of a second object pixel representing the object on the seed learning image, wherein the color value of the second object pixel is associated with the position of the second object pixel on the object image; a value obtained by multiplying the color value of the pixel obtained by multiplying the color value of the second type object pixel by a second type object coefficient larger than zero, and the color value of the pixel associated with the position of the second object pixel on the second type background image and a value obtained by multiplying a large second type background coefficient, and determining the color value of the second background pixel indicating the part where the object is not arranged on the second type learning image. determining the color value of the second background pixel relative to the color value of the pixel associated with the position of the second background pixel on the background image of the second type relative to the second background coefficient; and determining using a value obtained by multiplying by a large factor.

この構成によれば、第2種学習画像は、第1種学習画像のノイズを低減して得られる画像を適切に表現できるので、ノイズを含む第1種学習画像とノイズが低減された第2種学習画像とを用いるトレーニングのための学習画像データを、適切に、生成できる。 According to this configuration, the type 2 learning image can appropriately represent the image obtained by reducing the noise of the type 1 learning image. Training image data for training using seed training images can be suitably generated.

[適用例3]適用例2に記載の生成方法であって、前記代表色値は、前記第1種背景画像上の前記複数の位置に対応付けられた前記複数の色値の平均値である、生成方法。 [Application Example 3] In the generation method according to Application Example 2, the representative color value is an average value of the plurality of color values associated with the plurality of positions on the type 1 background image. , how to generate.

この構成によれば、第2種背景画像は、第1種背景画像と比べてノイズが低減された背景画像を適切に表すことができるので、適切な第2種学習画像データを生成できる。 According to this configuration, the type 2 background image can appropriately represent a background image with reduced noise compared to the type 1 background image, so that suitable type 2 learning image data can be generated.

[適用例4]適用例1から3のいずれかに記載の生成方法であって、前記オブジェクトは、第1方向に平行なM本(Mは2以上の整数)の線であって、前記第1方向に垂直な第2方向に並ぶM本の線を含む、生成方法。 [Application Example 4] In the generation method according to any one of Application Examples 1 to 3, the object is M lines (M is an integer equal to or greater than 2) parallel to the first direction, A method of generation comprising M lines aligned in a second direction perpendicular to the one direction.

この構成によれば、平行なM本の線を含むオブジェクトの画像を処理する予測モデルのトレーニングのための学習画像データを、適切に、生成できる。 According to this configuration, it is possible to appropriately generate learning image data for training a prediction model that processes an image of an object including M parallel lines.

[適用例5]適用例4に記載の生成方法であって、前記第1生成工程をQ回(Qは2以上の整数)行うことによって、Q個の第1種学習画像のQ個の第1種学習画像データを生成する工程を備え、前記Q個の第1種学習画像のそれぞれは、前記第1種学習画像に対応付けられた基準輝度とは異なる輝度と、前記第1種学習画像と前記線の前記第2方向の順番とに対応付けられた前記第2方向の基準位置とは異なる前記第2方向の位置と、前記第1種学習画像に対応付けられた基準幅とは異なる幅と、の3個のパラメータ値のうちの1個以上のパラメータ値を有する線である1以上の非基準線を含む、生成方法。 [Application Example 5] In the generation method according to Application Example 4, the first generation step is performed Q times (where Q is an integer equal to or greater than 2) to generate Q first learning images of Q first type learning images. generating type 1 learning image data, wherein each of the Q type 1 learning images has a brightness different from the reference brightness associated with the type 1 learning image and the type 1 learning image; and the order of the line in the second direction is different from the reference position in the second direction and the reference width is different from the reference width associated with the type 1 learning image. and one or more non-reference lines that are lines having one or more of three parameter values of width and width.

この構成によれば、1以上の非基準線を含むオブジェクトの画像を処理する予測モデルのトレーニングのための学習画像データを、適切に、生成できる。 According to this configuration, it is possible to appropriately generate learning image data for training a prediction model that processes images of objects that include one or more non-reference lines.

[適用例6]適用例5に記載の生成方法であって、前記Q個の第1種学習画像は、前記基準輝度とは異なる前記輝度を有する1以上の非基準線を含む1以上の第1種学習画像と、前記第2方向の前記基準位置とは異なる前記第2方向の前記位置に配置された1以上の非基準線を含む1以上の第1種学習画像と、前記基準幅とは異なる前記幅を有する1以上の非基準線を含む1以上の第1種学習画像と、を含む、生成方法。 [Application Example 6] In the generation method according to Application Example 5, the Q type 1 learning images include one or more non-reference lines having the luminance different from the reference luminance. a type 1 learning image, at least one type 1 learning image including at least one non-reference line arranged at the position in the second direction different from the reference position in the second direction, and the reference width; and one or more Type 1 training images including one or more non-reference lines having different said widths.

この構成によれば、輝度と第2方向の位置と幅とのそれぞれが変化し得る場合に、オブジェクトの画像を処理する予測モデルのトレーニングのための学習画像データを、適切に、生成できる。 According to this configuration, it is possible to appropriately generate learning image data for training a prediction model that processes an image of an object when each of the brightness, the position in the second direction, and the width can change.

[適用例7]適用例5または6に記載の生成方法であって、前記Q個の第1種学習画像は、前記第1種学習画像に含まれる前記非基準線の総数が互いに異なる複数の第1種学習画像を含む、生成方法。 [Application Example 7] In the generation method according to Application Example 5 or 6, the Q type 1 learning images include a plurality of different total numbers of the non-reference lines included in the type 1 learning images. A generation method, including a type 1 training image.

この構成によれば、非基準線の総数が変化し得る場合に、オブジェクトの画像を処理する予測モデルのトレーニングのための学習画像データを、適切に、生成できる。 According to this configuration, it is possible to appropriately generate learning image data for training a predictive model that processes an image of an object when the total number of non-reference lines can change.

[適用例8]適用例1から7のいずれかに記載の生成方法であって、前記オブジェクトは、文字を含む、生成方法。 [Application Example 8] The generation method according to any one of Application Examples 1 to 7, wherein the object includes a character.

この構成によれば、文字を含むオブジェクトの画像を処理する予測モデルのトレーニングのための学習画像データを、適切に、生成できる。 According to this configuration, it is possible to appropriately generate learning image data for training a prediction model that processes images of objects including characters.

[適用例9]オブジェクトが印刷されたシートを光学的に読み取って得られる画像である印刷シート画像の画像データに基づいて、前記シートに印刷された前記オブジェクトに関連する情報である関連情報を生成するようにコンピュータを機能させるための予測モデルであって、印刷用のシートを光学的に読み取って得られるシート画像の少なくとも一部である第1種背景画像と、オブジェクトの画像であるオブジェクト画像と、を用いて生成される画像データであって、前記第1種背景画像上に前記オブジェクトが配置された画像である第1種学習画像の第1種学習画像データを用いてトレーニングされており、前記第1種学習画像データは、前記第1種学習画像上の前記オブジェクトを示す第1オブジェクト画素の色値を決定する工程であって、前記第1オブジェクト画素の色値を、前記オブジェクト画像上の前記第1オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第1種オブジェクト係数を乗じて得られる値と、前記第1種背景画像上の前記第1オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第1種背景係数を乗じて得られる値と、の合計値を用いて決定する工程と、前記第1種学習画像上の前記オブジェクトが配置されない部分を示す第1背景画素の色値を決定する工程であって、前記第1背景画素の色値を、前記第1種背景画像上の前記第1背景画素の位置に対応付けられた画素の色値に前記第1種背景係数よりも大きい係数を乗じて得られる値を用いて決定する工程と、を含む生成方法によって生成されている、予測モデル。 [Application Example 9] Based on image data of a print sheet image, which is an image obtained by optically reading a sheet on which an object is printed, related information that is information related to the object printed on the sheet is generated. A predictive model for causing a computer to function so as to perform a first type background image that is at least a part of a sheet image obtained by optically reading a sheet for printing, and an object image that is an image of an object , which is trained using the first type learning image data of a first type learning image which is an image in which the object is arranged on the first type background image, The first type learning image data is a step of determining a color value of a first object pixel representing the object on the first type learning image, wherein the color value of the first object pixel is determined on the object image. a value obtained by multiplying the color value of the pixel associated with the position of the first object pixel in by a first-type object coefficient larger than zero, and the position of the first object pixel on the first-type background image and a value obtained by multiplying the color value of the pixel associated with by a type 1 background coefficient greater than zero; determining a color value of a first background pixel indicating a portion not to be colored, wherein the color value of the first background pixel is a pixel associated with the position of the first background pixel on the first background image; and determining using a value obtained by multiplying the color value of by a coefficient larger than the first type background coefficient.

なお、本明細書に開示の技術は、種々の態様で実現することが可能であり、例えば、予測モデルのトレーニング方法およびトレーニングを実行するトレーニング装置、学習済の予測モデルを用いる画像データの処理方法および処理装置、画像データを用いる判断方法および判断装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体(例えば、一時的ではない記録媒体)、等の形態で実現することができる。 It should be noted that the technology disclosed in the present specification can be implemented in various aspects. and processing device, determination method and determination device using image data, computer programs for realizing the functions of those methods or devices, recording media recording the computer programs (for example, non-temporary recording media), etc. can be realized in the form

実施例のデータ処理装置を示す説明図である。It is an explanatory view showing a data processor of an example. (A)、(B)は、ノズルパターンNPの例を示す説明図である。(A) and (B) are explanatory diagrams showing examples of nozzle patterns NP. 学習モデル235の説明図である。FIG. 4 is an explanatory diagram of a learning model 235; 学習データの生成処理の例を示すフローチャートである。6 is a flowchart illustrating an example of learning data generation processing; (A)は、基準ベースパターン画像生成処理の例を示すフローチャートである。(B)は、基準ベースパターン画像の例を示す説明図である。4A is a flowchart showing an example of reference base pattern image generation processing; (B) is an explanatory diagram showing an example of a reference base pattern image; (A)は、非基準ベースパターン画像生成処理の例を示すフローチャートである。(B)は、非基準ベースパターン画像の例を示す説明図である。8A is a flowchart showing an example of non-reference base pattern image generation processing; (B) is an explanatory diagram showing an example of a non-reference base pattern image; (A)は、背景画像生成処理の例を示すフローチャートである。(B)は、第1種背景画像の例を示す説明図である。(A) is a flowchart showing an example of background image generation processing. (B) is an explanatory diagram showing an example of a type 1 background image. (A)-(D)は、ノイズ含有パターン画像の説明図である。(A)-(D) are explanatory diagrams of noise-containing pattern images. (A)-(D)は、ノイズ低減パターン画像の説明図である。(E)は、コントラスト強調処理の例を示すグラフである。(A) to (D) are explanatory diagrams of noise reduction pattern images. (E) is a graph showing an example of contrast enhancement processing. (A)-(C)は、トレーニング処理の説明図である。(A)-(C) are explanatory diagrams of the training process. (A)-(D)は、線PLの位置の説明図である。(A)-(D) are explanatory diagrams of the position of the line PL. 画像処理の例を示すフローチャートである。4 is a flowchart showing an example of image processing; 学習モデルの別の実施例の説明図である。FIG. 10 is an explanatory diagram of another example of a learning model; 学習データの生成処理の別の実施例を示すフローチャートである。9 is a flow chart showing another example of learning data generation processing. (A)-(D)は、学習データの説明図である。(A) to (D) are explanatory diagrams of learning data. 学習モデルの別の実施例の説明図である。FIG. 10 is an explanatory diagram of another example of a learning model;

A.第1実施例:
A1.装置構成:
図1は、実施例のデータ処理装置を示す説明図である。本実施例では、複合機200が、データ処理に利用される。複合機200は、制御部205と、印刷部260と、読取部300と、を有している。制御部205は、プロセッサ210と、記憶装置215と、表示部240と、操作部250と、通信インタフェース270と、を有している。これらの要素は、バスを介して互いに接続されている。記憶装置215は、揮発性記憶装置220と、不揮発性記憶装置230と、を含んでいる。
A. First example:
A1. Device configuration:
FIG. 1 is an explanatory diagram showing the data processing apparatus of the embodiment. In this embodiment, the MFP 200 is used for data processing. The MFP 200 has a control section 205 , a printing section 260 and a reading section 300 . The control unit 205 has a processor 210 , a storage device 215 , a display unit 240 , an operation unit 250 and a communication interface 270 . These elements are connected to each other via buses. Storage 215 includes volatile storage 220 and nonvolatile storage 230 .

プロセッサ210は、データ処理を行う装置であり、例えば、CPUである。揮発性記憶装置220は、例えば、DRAMであり、不揮発性記憶装置230は、例えば、フラッシュメモリである。 The processor 210 is a device that performs data processing, such as a CPU. The volatile memory device 220 is, for example, a DRAM, and the non-volatile memory device 230 is, for example, a flash memory.

不揮発性記憶装置230は、第1プログラム231と、第2プログラム232と、第3プログラム233と、学習モデル235と、フィルタデータFLDと、を格納している。本実施例では、学習モデル235は、人工ニューラルネットワークの予測モデルであり、後述するトレーニング処理によってトレーニングされる機械学習モデルである。本実施例では、学習モデル235は、プログラムモジュールである。学習モデル235の詳細については、後述する。 The nonvolatile storage device 230 stores a first program 231, a second program 232, a third program 233, a learning model 235, and filter data FLD. In this embodiment, the learning model 235 is a prediction model of an artificial neural network, and is a machine learning model trained by a training process to be described later. In this example, learning model 235 is a program module. Details of the learning model 235 will be described later.

プロセッサ210は、第1プログラム231と、第2プログラム232と、第3プログラム233と、学習モデル235と、の実行に利用される種々の中間データを、記憶装置215(例えば、揮発性記憶装置220、不揮発性記憶装置230のいずれか)に、一時的に格納する。 The processor 210 stores various intermediate data used for executing the first program 231, the second program 232, the third program 233, and the learning model 235 in the storage device 215 (for example, the volatile storage device 220 , non-volatile storage device 230).

表示部240は、液晶ディスプレイ、有機ELディスプレイ、LEDディスプレイなどの、画像を表示する装置である。操作部250は、ボタン、レバー、表示部240上に重ねて配置されたタッチパネルなどの、ユーザによる操作を受け取る装置である。通信インタフェース270は、他の装置と通信するためのインタフェースである(例えば、USBインタフェース、有線LANインタフェース、IEEE802.11の無線インタフェース)。 The display unit 240 is a device that displays images, such as a liquid crystal display, an organic EL display, and an LED display. The operation unit 250 is a device that receives user operations, such as buttons, levers, and a touch panel overlaid on the display unit 240 . The communication interface 270 is an interface for communicating with other devices (eg, USB interface, wired LAN interface, IEEE802.11 wireless interface).

印刷部260は、所定の方式(例えば、レーザ方式や、インクジェット方式)で、用紙(印刷媒体の一例)上に画像を印刷する装置である。 The printing unit 260 is a device that prints an image on paper (an example of a print medium) using a predetermined method (for example, a laser method or an inkjet method).

読取部300は、CCDやCMOSなどの光電変換素子を用いて光学的に原稿等の対象物を読み取る読取装置である。読取部300は、読み取った画像(「読取画像」と呼ぶ)を表す読取データを生成する。本実施例では、読取データは、読取画像を表すグレースケールのビットマップデータである。本実施例では、ビットマップデータの輝度値は、0から255までの256階調で表されることとする。 The reading unit 300 is a reading device that optically reads an object such as a document using photoelectric conversion elements such as CCD and CMOS. The reading unit 300 generates read data representing a read image (referred to as “read image”). In this embodiment, the read data is grayscale bitmap data representing a read image. In this embodiment, the luminance value of bitmap data is represented by 256 gradations from 0 to 255. FIG.

図中には、複合機200とは別の印刷装置100が示されている。印刷装置100は、用紙上に画像を印刷するインクジェット方式の印刷装置である。本実施例では、印刷装置100は、シアン、マゼンタ、イエロ、ブラックの4種類のインクを利用する。印刷装置100は、インク滴を吐出するための複数のノズルを有する印刷ヘッド110を備えている。印刷ヘッド110は、ノズルに関する種々の不具合を有し得る。不具合を特定するために、印刷装置100によってシートSH2上にノズルパターンNPが印刷される。本実施例では、シートSH2は、紙のシートである。ただし、布、フィルムなどの他の種類のシートが用いられてもよい。 The figure shows a printing apparatus 100 different from the multifunction machine 200 . The printing device 100 is an inkjet printing device that prints an image on paper. In this embodiment, the printing device 100 utilizes four types of ink: cyan, magenta, yellow, and black. The printing device 100 includes a print head 110 having multiple nozzles for ejecting ink droplets. The printhead 110 can have various nozzle defects. In order to identify the defect, the printing apparatus 100 prints the nozzle pattern NP on the sheet SH2. In this embodiment, the sheet SH2 is a sheet of paper. However, other types of sheets such as cloth, film, etc. may be used.

図2(A)、図2(B)は、ノズルパターンNPの例を示す説明図である。図2(A)は、印刷ヘッド110が不具合を有していない場合を示し、図2(B)は、印刷ヘッド110が不具合を有している場合を示している。各図中には、シートSH2上に印刷されたノズルパターンNPと、印刷ヘッド110と、印刷ヘッド110に設けられた複数のノズルNzと、互いに垂直な方向D1、D2と、が示されている。図中には、1種類のインクを吐出するためのM個(Mは2以上の整数)のノズルNzが示されている。ノズルパターンNPは、処理対象の1種類のインクのM個のノズルNzを用いて、印刷される。 FIGS. 2A and 2B are explanatory diagrams showing examples of the nozzle pattern NP. FIG. 2A shows a case where the print head 110 does not have a problem, and FIG. 2B shows a case where the print head 110 has a problem. Each figure shows a nozzle pattern NP printed on the sheet SH2, a print head 110, a plurality of nozzles Nz provided in the print head 110, and mutually perpendicular directions D1 and D2. . The drawing shows M nozzles Nz (M is an integer equal to or greater than 2) for ejecting one type of ink. The nozzle pattern NP is printed using M nozzles Nz of one type of ink to be processed.

第1方向D1は、印刷ヘッド110の走査方向である。印刷装置100は、印刷ヘッド110を第1方向D1に平行な方向に移動させる移動装置を備えている(図示せず)。印刷ヘッド110は、シートに対して第1方向D1に平行な方向に移動しつつ、ノズルNzからインク滴を吐出することによってシート上にインクドットを形成する。第2方向D2は、シートの搬送方向である。印刷装置100は、シートを第2方向D2に移動させる搬送装置を備えている(図示省略)。印刷装置100は、印刷ヘッド110を移動させつつインクドットを形成する走査処理と、シートを搬送する搬送処理と、を繰り返すことによって、シート上に画像を印刷する。 The first direction D1 is the scanning direction of the print head 110 . The printing device 100 includes a moving device (not shown) that moves the print head 110 in a direction parallel to the first direction D1. The print head 110 forms ink dots on the sheet by ejecting ink droplets from the nozzles Nz while moving with respect to the sheet in a direction parallel to the first direction D1. The second direction D2 is the sheet conveying direction. The printing apparatus 100 includes a conveying device (not shown) that moves the sheet in the second direction D2. The printing apparatus 100 prints an image on a sheet by repeating a scanning process of forming ink dots while moving the print head 110 and a conveying process of conveying the sheet.

M個のノズルNzの間では、第2方向D2の位置が互いに異なっている。M個のノズルNzの第2方向D2の位置は、第2方向D2に等間隔で並んでいる。ノズルパターンNPは、第1方向D1に平行なM本の線PLで構成されている。M本の線PLは、第1方向D1に垂直な第2方向D2に並んでいる。1本の線PLは、1個のノズルNzによって、1回の走査処理で印刷される。図中には、各線PLの中心軸AxPが示されている。各線PLは、中心軸AxPに対して線対称な形状を有している。 The positions in the second direction D2 are different among the M nozzles Nz. The positions of the M nozzles Nz in the second direction D2 are arranged at equal intervals in the second direction D2. The nozzle pattern NP is composed of M lines PL parallel to the first direction D1. The M lines PL are arranged in a second direction D2 perpendicular to the first direction D1. One line PL is printed in one scanning process by one nozzle Nz. The drawing shows the central axis AxP of each line PL. Each line PL has a symmetrical shape with respect to the central axis AxP.

M個のノズルが不具合を有していない場合(図2(A))、M本の線PLの間では、第2方向D2の線PLの幅と線PLの色とは同じである。また、M本の線PLは、第2方向D2に等間隔で並んでいる。以下、不具合の無いノズルNzによって印刷される線PLを、基準線とも呼ぶ。 When M nozzles have no defects (FIG. 2A), the width of the lines PL in the second direction D2 and the color of the lines PL are the same between the M lines PL. Also, the M lines PL are arranged at regular intervals in the second direction D2. Hereinafter, the line PL printed by the non-defective nozzles Nz will also be referred to as a reference line.

図2(B)の例では、3個のノズルNza、Nzb、Nzcが、不具合を有している。第1ノズルNzaによって印刷される第1線PLaは、第2方向D2とは反対の方向にずれた位置に印刷されている。このようなインクドットの位置ずれは、ノズルNzの加工の不具合などの種々の原因に起因して生じ得る。第2ノズルNzbによって印刷される第2線PLbの幅は、通常の線PLの幅よりも細い(すなわち、インクドットのサイズが小さい)。このようなインクドットのサイズのずれは、インク滴を吐出するためのノズルの駆動装置(ピエゾ素子やヒータなど)の不具合などの種々の原因に起因して生じ得る。第3ノズルNzcによって印刷される第3線PLcの色は、通常の線PLの色よりも薄い。このような色のずれは、印刷ヘッド110内でのインクの浸透による2種類のインクの混合などの種々の原因に起因して生じ得る。このように、線PLの構成(位置、幅、濃さ、等)が基準線の構成と異なる場合、その線PLを印刷したノズルNzは不具合を有している。以下、基準線の構成とは異なる構成を有する線PLを、非基準線とも呼ぶ。 In the example of FIG. 2B, three nozzles Nza, Nzb, and Nzc have defects. The first line PLa printed by the first nozzles Nza is printed at a position shifted in the direction opposite to the second direction D2. Such misalignment of ink dots can occur due to various causes such as defects in the processing of the nozzles Nz. The width of the second line PLb printed by the second nozzle Nzb is narrower than the width of the normal line PL (that is, the ink dot size is smaller). Such a deviation in ink dot size can be caused by various causes such as malfunction of a nozzle driving device (piezo element, heater, etc.) for ejecting ink droplets. The color of the third line PLc printed by the third nozzle Nzc is lighter than the color of the normal line PL. Such color shifts can result from a variety of causes, such as mixing of the two types of ink due to ink penetration within the printhead 110 . Thus, if the configuration (position, width, density, etc.) of the line PL is different from the configuration of the reference line, the nozzle Nz that printed the line PL has a defect. A line PL having a configuration different from that of the reference line is hereinafter also referred to as a non-reference line.

複数の線PLのそれぞれの構成(位置、幅、濃さ、等)を特定するために、ノズルパターンNPが印刷されたシートSH2は、読取部300(図1)によって読み取られる。例えば、印刷装置100の製造時に、作業者は、ノズルパターンNPの読取画像を観察することによって、複数の線PLのそれぞれの構成を特定でき、ノズルNzの不具合を検出できる。ここで、薄いインクを用いてノズルパターンNPを印刷すれば、ノズルパターンNPの印刷のためのインクのコストを低減できる。この場合も、読取画像の明度補正(例えば、コントラスト強調処理)を行うことによって、ノズルパターンNPの視認性を向上できる。しかし、単純な明度補正(例えば、トーンカーブを調整する明度補正)は、ノズルパターンNPに加えてノイズも強調し得る。例えば、紙のシートSH2の繊維のパターンや、デジタルの画像処理に起因するノイズが、強調され得る。学習モデル235(図1)は、ノズルパターンNPの読取データから、ノイズが低減されたノズルパターンNPの画像データを生成するためのモデルである。 The sheet SH2 on which the nozzle pattern NP is printed is read by the reading unit 300 (FIG. 1) in order to specify the configuration (position, width, density, etc.) of each of the plurality of lines PL. For example, when manufacturing the printing apparatus 100, an operator can identify the configuration of each of the plurality of lines PL by observing the read image of the nozzle pattern NP, and can detect defects in the nozzles Nz. Here, if the nozzle pattern NP is printed using thin ink, the ink cost for printing the nozzle pattern NP can be reduced. In this case as well, the visibility of the nozzle pattern NP can be improved by performing brightness correction (for example, contrast enhancement processing) on the read image. However, simple brightness correction (eg, brightness correction that adjusts the tone curve) can emphasize noise in addition to the nozzle pattern NP. For example, the pattern of fibers in the sheet of paper SH2 and noise caused by digital image processing can be enhanced. The learning model 235 (FIG. 1) is a model for generating noise-reduced image data of the nozzle pattern NP from the read data of the nozzle pattern NP.

図3は、学習モデル235の説明図である。学習モデル235には、ノズルパターンNPの入力画像950iを表す入力データ950が入力される。入力データ950は、シートSH2(図1)の読取データからノズルパターンNPを示す部分を切り出すクロップ処理を実行することによって得られるデータである(切り出される部分は、予め決められている)。後述するように、学習モデル235は、入力データ950を用いて、同じノズルパターンNPの出力画像970iを表す出力データ970を生成する。 FIG. 3 is an explanatory diagram of the learning model 235. As shown in FIG. Input data 950 representing an input image 950i of the nozzle pattern NP is input to the learning model 235 . The input data 950 is data obtained by executing crop processing for cutting out a portion indicating the nozzle pattern NP from the read data of the sheet SH2 (FIG. 1) (the cropped portion is predetermined). As will be described later, learning model 235 uses input data 950 to generate output data 970 representing output image 970i of the same nozzle pattern NP.

入力画像950iと出力画像970iとは、横方向Dxに平行な2辺と、横方向Dxに垂直な縦方向Dyに平行な2辺と、を有する矩形状の画像である。これらの画像950i、970iは、横方向Dxと縦方向Dyとに沿ってマトリクス状に並ぶ複数の画素のそれぞれの色値(本実施例では、輝度値)によって、表されている。入力画像950iのサイズ(横方向Dxの画素数IWと縦方向Dyの画素数IH)は、予め決められている。出力画像970iのサイズは、入力画像950iのサイズと同じである。図中の方向D1、D2は、ノズルパターンNPに対する印刷装置100の方向D1、D2を示している。以下、第1方向D1が縦方向Dyとおおよそ同じであり、第2方向D2が横方向Dxとおおよそ同じであるように、入力データ950が生成されることとする。 The input image 950i and the output image 970i are rectangular images having two sides parallel to the horizontal direction Dx and two sides parallel to the vertical direction Dy perpendicular to the horizontal direction Dx. These images 950i and 970i are represented by respective color values (luminance values in this embodiment) of a plurality of pixels arranged in a matrix along the horizontal direction Dx and the vertical direction Dy. The size of the input image 950i (the number of pixels IW in the horizontal direction Dx and the number of pixels IH in the vertical direction Dy) is determined in advance. The size of the output image 970i is the same as the size of the input image 950i. Directions D1 and D2 in the drawing indicate directions D1 and D2 of the printing apparatus 100 with respect to the nozzle pattern NP. Hereinafter, it is assumed that the input data 950 is generated such that the first direction D1 is approximately the same as the vertical direction Dy, and the second direction D2 is approximately the same as the horizontal direction Dx.

本実施例では、学習モデル235は、1個の畳込層310で構成されている。畳込層310には、入力データ950が入力される。畳込層310は、1個の畳込フィルタFLを用いる畳込処理(convolution)を実行する(以下、畳込フィルタFLを、単に「フィルタFL」とも呼ぶ)。畳込層310による畳込処理は、入力されたデータとフィルタFLとの相関を示す相関値を算出する処理である。図中の横サイズFxは、フィルタFLの横方向Dxのサイズ(画素数)を示し、縦サイズFyは、フィルタFLの縦方向Dyのサイズ(画素数)を示している。本実施例では、Fx=5、Fy=5である。フィルタFLは、Fx×Fy個の重みWを含んでいる。図中の各重みWに付された括弧内の番号(i,j)は、フィルタFL内の横方向Dxの位置iと縦方向Dyの位置jとを示している。 In this example, learning model 235 consists of one convolutional layer 310 . Input data 950 is input to the convolutional layer 310 . The convolution layer 310 performs a convolution process using one convolution filter FL (hereinafter the convolution filter FL is also simply referred to as "filter FL"). The convolution process by the convolution layer 310 is a process of calculating a correlation value indicating the correlation between the input data and the filter FL. The horizontal size Fx in the drawing indicates the size (the number of pixels) of the filter FL in the horizontal direction Dx, and the vertical size Fy indicates the size (the number of pixels) of the filter FL in the vertical direction Dy. In this embodiment, Fx=5 and Fy=5. The filter FL includes Fx×Fy weights W. The number (i, j) in parentheses attached to each weight W in the figure indicates the position i in the horizontal direction Dx and the position j in the vertical direction Dy within the filter FL.

畳込層310は、入力データ950からフィルタFLの位置に対応する部分の「Fx×Fy」個の画素の「Fx×Fy」個の輝度値のリストを取得する。畳込層310は、取得されたリストと、フィルタFLの「Fx×Fy」個の重みのリストと、の内積を算出する。本実施例では、バイアスの加算処理は、省略される。畳込層310は、内積を活性化関数に入力する。活性化関数の算出値が、相関値を示している。本実施例では、活性化関数は、恒等関数である。相関値の算出は、フィルタFLをスライドさせながら、フィルタFLの複数の位置のそれぞれにおいて、行われる。畳込層310は、フィルタFLの複数の位置のそれぞれにおける相関値を示すビットマップデータを生成する。生成されるビットマップデータが、出力データ970である。出力画像970iの画素の位置は、フィルタFLの位置を示している。本実施例では、出力画像970iのサイズ(すなわち、横方向Dxの画素数と縦方向Dyの画素数)が、入力画像950iのサイズと同じとなるように、畳込処理が行われる。従って、ストライド(フィルタをスライドさせる量)は、1である。また、入力画像950iの周囲では、ゼロパディングによって、画素が補われる。 The convolutional layer 310 obtains from the input data 950 a list of “Fx×Fy” luminance values of “Fx×Fy” pixels in the portion corresponding to the position of the filter FL. The convolution layer 310 calculates the inner product of the obtained list and the list of “Fx×Fy” weights of the filter FL. In this embodiment, the bias addition process is omitted. Convolutional layer 310 inputs the inner product to the activation function. The calculated value of the activation function indicates the correlation value. In this example, the activation function is the identity function. The calculation of the correlation value is performed at each of a plurality of positions of the filter FL while sliding the filter FL. The convolutional layer 310 produces bitmap data indicating correlation values at each of the multiple positions of the filter FL. The generated bitmap data is output data 970 . The position of the pixel in the output image 970i indicates the position of the filter FL. In this embodiment, convolution processing is performed so that the size of the output image 970i (that is, the number of pixels in the horizontal direction Dx and the number of pixels in the vertical direction Dy) is the same as the size of the input image 950i. Therefore, the stride (the amount by which the filter is slid) is one. Also, pixels are supplemented by zero padding around the input image 950i.

A2.学習画像データの生成処理:
図4は、学習モデル235のトレーニングに利用される学習データの生成処理の例を示すフローチャートである。本実施例では、ノイズを含むノズルパターンNPの画像データであるノイズ含有データと、ノイズが低減された同じノズルパターンNPの画像データであるノイズ低減データとが、生成される。後述するトレーニングでは、ノイズ含有データが学習モデル235に入力されることによって、学習モデル235は、出力データを生成する。この出力データとノイズ低減データとの間の差が小さくなるように、フィルタFLの重みが調整される。トレーニングされた学習モデル235は、ノイズを含むノズルパターンNPの画像データを用いて、ノイズが低減された同じノズルパターンNPの画像データを生成できる。本実施例では、プロセッサ210(図1)は、第1プログラム231に従って、学習画像データを生成する。
A2. Training image data generation process:
FIG. 4 is a flowchart showing an example of processing for generating learning data used for training the learning model 235 . In this embodiment, noise-containing data, which is image data of a nozzle pattern NP containing noise, and noise-reduced data, which is image data of the same nozzle pattern NP with reduced noise, are generated. In training, which will be described later, the learning model 235 generates output data by inputting noise-containing data to the learning model 235 . The weights of the filter FL are adjusted so that the difference between this output data and the noise reduction data is small. The trained learning model 235 can use the noisy nozzle pattern NP image data to generate noise-reduced image data for the same nozzle pattern NP. In this embodiment, processor 210 ( FIG. 1 ) generates training image data according to first program 231 .

S105では、プロセッサ210(図1)は、読取部300にシートSH1を読み取らせることによって、シートSH1の読取データを取得する。シートSH1としては、ノズルパターンNPの印刷に利用され得るシートであって、ノズルパターンNPが印刷されていない空白のシートが用いられる。なお、ノズルパターンNPは、普通紙、再生紙などの種々の種類のシートに印刷され得る。また、同じ種類の複数枚のシートの間で、特性が異なり得る。例えば、複数枚の普通紙の間で、明るさが異なり得る。S105では、互いに異なる特性を有する複数枚のシートを読み取ることによって、複数個の読取データが取得される(以下、読取データの読取画像を、シート画像とも呼ぶ)。読取データは、後述する背景画像の画像データとして、利用される。プロセッサ210は、取得した読取データを、不揮発性記憶装置230に格納する。 In S105, the processor 210 (FIG. 1) acquires read data of the sheet SH1 by causing the reading unit 300 to read the sheet SH1. As the sheet SH1, a blank sheet on which the nozzle patterns NP are not printed, which is a sheet that can be used for printing the nozzle patterns NP, is used. Note that the nozzle pattern NP can be printed on various types of sheets such as plain paper and recycled paper. Also, the properties may differ between multiple sheets of the same type. For example, different sheets of plain paper may have different brightness. In S105, a plurality of pieces of read data are obtained by reading a plurality of sheets having different characteristics (hereinafter, a read image of the read data is also referred to as a sheet image). The read data is used as image data for a background image, which will be described later. Processor 210 stores the acquired read data in nonvolatile storage device 230 .

S110では、プロセッサ210は、ノズルパターンNPの種類を、基準と非基準とから選択する。基準は、基準線のみで構成されるノズルパターンNPを示し、非基準は、1以上の非基準線を含むノズルパターンNPを示している。プロセッサ210は、未完了の種類を選択する。S120では、プロセッサ210は、選択された種類を特定する。基準が選択された場合、プロセッサ210は、S130で、基準ベースパターン画像生成処理を実行し、S150へ移行する。非基準が選択された場合、プロセッサ210は、S140で、非基準ベースパターン画像生成処理を実行し、S150へ移行する。 In S110, processor 210 selects the type of nozzle pattern NP from standard and non-standard. Reference indicates a nozzle pattern NP composed only of reference lines, and non-reference indicates a nozzle pattern NP including one or more non-reference lines. Processor 210 selects an incomplete type. At S120, the processor 210 identifies the selected type. If a reference is selected, processor 210 performs a reference base pattern image generation process at S130 and proceeds to S150. If non-reference is selected, processor 210 performs non-reference base pattern image generation processing at S140 and proceeds to S150.

図5(A)は、図4のS130の基準ベースパターン画像生成処理の例を示すフローチャートである。図5(B)は、基準ベースパターン画像の例を示す説明図である。基準ベースパターン画像810は、基準線のみで構成されるノズルパターンNPの画像であり、入力画像950i(図3)と同じサイズの画像である。図5(B)の例では、基準ベースパターン画像810は、M本の線PL0-PLkを示している。線の符号の「PL」に続く番号は、個々の線PLを識別する番号であり、横方向Dxに向かって昇順に並ぶように、ゼロから順番に割り当てられている(なお、k=M-1)。中心軸Ax0-Axkは、それぞれ、線PL0-PLkの中心軸である。中心軸Ax0-Axkは、縦方向Dyに平行である。線PL0-PLkの形状は、中心軸Ax0-Axkを中心とする矩形状であり、中心軸Ax0-Axkを対称軸とする線対称である。 FIG. 5A is a flow chart showing an example of the reference base pattern image generation process of S130 of FIG. FIG. 5B is an explanatory diagram showing an example of the reference base pattern image. The reference base pattern image 810 is an image of the nozzle pattern NP composed only of reference lines and has the same size as the input image 950i (FIG. 3). In the example of FIG. 5B, the reference base pattern image 810 shows M lines PL0-PLk. The numbers following "PL" in the line code are numbers that identify individual lines PL, and are assigned in order from zero so as to line up in ascending order in the horizontal direction Dx (where k=M− 1). The central axes Ax0-Axk are central axes of the lines PL0-PLk, respectively. The central axis Ax0-Axk is parallel to the vertical direction Dy. The line PL0-PLk has a rectangular shape centered on the central axis Ax0-Axk, and is symmetrical about the central axis Ax0-Axk.

S210(図5(A))では、プロセッサ210は、基準ベースパターン画像810の全ての画素の輝度値を白(255)に初期化し、注目番号nをゼロに初期化する。 In S210 (FIG. 5A), the processor 210 initializes the luminance values of all pixels of the reference base pattern image 810 to white (255) and initializes the target number n to zero.

S215では、プロセッサ210は、予め決められた基準幅範囲内から、ランダムに(例えば、乱数に従って)、基準線幅nWを決定する。基準幅範囲は、基準線の幅の許容範囲であり、ゼロよりも大きい下限幅以上、上限幅以下の範囲である。基準幅範囲は、例えば、現実の複数の入力画像950i(図3)上の複数の基準線の幅の分布範囲に設定されてよい。 At S215, the processor 210 randomly (for example, according to a random number) determines a reference line width nW from within a predetermined reference width range. The reference width range is the allowable range of the width of the reference line, and is the range from the lower limit width to the upper limit width, which is greater than zero. The reference width range may be set, for example, to the distribution range of the widths of the reference lines on the actual input images 950i (FIG. 3).

S220では、プロセッサ210は、予め決められた基準色範囲内から、ランダムに、基準線色nDを決定する。基準色範囲は、基準線の色(ここでは、輝度値)の許容範囲であり、ゼロ以上、上限輝度値以下の範囲である。基準色範囲は、例えば、現実の複数の入力画像950i上の複数の基準線の色の分布範囲に設定されてよい。 At S220, processor 210 randomly determines a reference line color nD from within a predetermined reference color range. The reference color range is the allowable range of the color (here, luminance value) of the reference line, and is the range of zero or more and the upper limit luminance value or less. The reference color range may be set, for example, to a distribution range of colors of a plurality of reference lines on a plurality of real input images 950i.

S225では、プロセッサ210は、左端線の横方向Dxの基準位置nSを決定する。左端線は、基準ベースパターン画像810(図5(B))内の左側(すなわち、横方向Dxとは反対方向側)の端の線PL0である。本実施例では、予め決められた基準位置範囲内から、ランダムに、基準位置nSが選択される。基準位置範囲は、基準線の位置の許容範囲であり、第1位置以上、第2位置以下の範囲である。基準位置範囲は、例えば、現実の複数の入力画像950i上の複数の左端線の位置の分布範囲に設定されてよい。 In S225, the processor 210 determines the reference position nS of the left edge line in the horizontal direction Dx. The left edge line is the edge line PL0 on the left side (that is, the side opposite to the horizontal direction Dx) in the reference base pattern image 810 (FIG. 5B). In this embodiment, the reference position nS is randomly selected from within a predetermined reference position range. The reference position range is the allowable range of the position of the reference line, and is the range from the first position to the second position. The reference position range may be set, for example, to a distribution range of the positions of the left edge lines on the actual input images 950i.

S260では、プロセッサ210は、注目番号nによって特定される注目線PLnの左端位置nLと右端位置nRとを算出する。図5(B)には、線PL0の左端位置nLと右端位置nRとが示されている。左端位置nLは、横方向Dxとは反対方向側の端の位置であり、右端位置nRは、横方向Dxの端の位置である。本実施例では、基準線幅nWを有するM本の線PLは、横方向Dxに向かって等間隔で並べて配置される。隣り合う2本の線PLの間の横方向Dxの位置の差nPは、予め決められている。以上により、nL=nS+nP×nであり、nR=nS+nP×n+nWである。 In S260, processor 210 calculates left end position nL and right end position nR of attention line PLn specified by attention number n. FIG. 5B shows the left end position nL and the right end position nR of the line PL0. The left end position nL is the end position on the side opposite to the horizontal direction Dx, and the right end position nR is the end position in the horizontal direction Dx. In this embodiment, M lines PL having the reference line width nW are arranged side by side at regular intervals in the horizontal direction Dx. A positional difference nP in the lateral direction Dx between two adjacent lines PL is predetermined. From the above, nL=nS+nP.times.n and nR=nS+nP.times.n+nW.

S265では、プロセッサ210は、基準ベースパターン画像810上において、注目線PLnの内部を基準線色nDで塗りつぶす。具体的には、左端位置nLから右端位置nRまでの範囲に含まれる複数の画素の輝度値が、基準線色nDに設定される。 In S265, the processor 210 paints the inside of the line of interest PLn on the reference base pattern image 810 with the reference line color nD. Specifically, the luminance values of a plurality of pixels included in the range from the left edge position nL to the right edge position nR are set as the reference line color nD.

S290では、プロセッサ210は、注目番号nに1を加算する。S295では、プロセッサ210は、M本の全ての線PLの処理が完了したか否かを判断する。未処理の線PLが残っている場合(S295:No)、プロセッサ210は、S260へ移行する。M本の線PLの処理が完了した場合(S295:Yes)、プロセッサ210は、S297で、基準ベースパターン画像を表す基準ベースパターン画像データを、記憶装置215(例えば、不揮発性記憶装置230)に格納する。そして、プロセッサ210は、図5(A)の処理、すなわち、図4のS130の処理を終了する。 In S290, the processor 210 adds 1 to the attention number n. At S295, the processor 210 determines whether or not all M lines PL have been processed. If unprocessed lines PL remain (S295: No), the processor 210 proceeds to S260. If the processing of M lines PL has been completed (S295: Yes), the processor 210 stores the reference base pattern image data representing the reference base pattern image in the storage device 215 (eg, the non-volatile storage device 230) in S297. Store. Processor 210 then ends the process of FIG. 5A, that is, the process of S130 in FIG.

図6(A)は、図4のS140の非基準ベースパターン画像生成処理の例を示すフローチャートである。図6(B)は、非基準ベースパターン画像の例を示す説明図である。非基準ベースパターン画像820は、非基準線を含むノズルパターンNPの画像であり、入力画像950i(図3)と同じサイズの画像である。図6(B)では、図5(B)と同様に、複数の線に符号PL0-PLkが付されている。図6(B)の例では、3本の線PL1、PL2、PL3が、非基準線である(詳細は後述)。 FIG. 6A is a flow chart showing an example of the non-reference base pattern image generation process of S140 of FIG. FIG. 6B is an explanatory diagram showing an example of a non-reference base pattern image. The non-reference base pattern image 820 is an image of the nozzle pattern NP including non-reference lines, and has the same size as the input image 950i (FIG. 3). In FIG. 6(B), like in FIG. 5(B), a plurality of lines are labeled PL0-PLk. In the example of FIG. 6B, three lines PL1, PL2, and PL3 are non-reference lines (details will be described later).

図6(A)のS210、S215、S220、S225は、図5(A)のS210、S215、S220、S225と、それぞれ同じである。S240では、プロセッサ210は、M本の線PLのそれぞれの線幅pWを決定する。本実施例では、プロセッサ210は、M本の線PLから、ランダムに、第1非基準線を選択する。第1非基準線として選択されなかった線の線幅pWは、基準線幅nWに設定される。第1非基準線の線幅は、予め決められた非基準幅範囲内から、ランダムに選択される。非基準幅範囲は、ゼロ以上、非基準上限幅以下の範囲である。ゼロの幅は、線が無いことを示している。非基準上限幅は、図5(A)のS215で説明した基準幅範囲の上限幅と同じであってよい。図6(B)では、第1非基準線PL2の幅pWが、基準線幅nWと異なっている。 S210, S215, S220, and S225 in FIG. 6A are the same as S210, S215, S220, and S225 in FIG. 5A, respectively. At S240, the processor 210 determines the line width pW of each of the M lines PL. In this example, the processor 210 randomly selects the first non-reference line from the M lines PL. The line width pW of the lines not selected as the first non-reference line is set to the reference line width nW. The line width of the first non-reference line is randomly selected from within a predetermined non-reference width range. The non-reference width range is a range that is greater than or equal to zero and less than or equal to the non-reference upper limit width. A width of zero indicates no line. The non-reference upper limit width may be the same as the upper limit width of the reference width range described in S215 of FIG. 5A. In FIG. 6B, the width pW of the first non-reference line PL2 is different from the reference line width nW.

S245では、プロセッサ210は、M本の線のそれぞれの色pD(ここでは、輝度値)を決定する。本実施例では、プロセッサ210は、M本の線から、ランダムに、第2非基準線を選択する。第2非基準線として選択されなかった線の色pDは、基準線色nDに設定される。第2非基準線の色pDは、予め決められた非基準色範囲内から、ランダムに選択される。非基準色範囲は、ゼロ以上、非基準上限輝度値以下の範囲である。非基準上限輝度値は、図5(A)のS220で説明した基準色範囲の上限輝度値と同じであってよく、上限輝度値よりも大きくてもよい。図6(B)では、第2非基準線PL3の色pDが、基準線色nDと異なっている。 At S245, the processor 210 determines the color pD (here, the luminance value) of each of the M lines. In this example, processor 210 randomly selects the second non-reference line from the M lines. The color pD of lines not selected as second non-reference lines is set to the reference line color nD. The second non-reference line color pD is randomly selected from within a predetermined non-reference color range. The non-reference color range is a range between zero and the non-reference upper limit brightness value. The non-reference upper limit luminance value may be the same as the upper limit luminance value of the reference color range described in S220 of FIG. 5A, or may be greater than the upper limit luminance value. In FIG. 6B, the color pD of the second non-reference line PL3 is different from the reference line color nD.

S250では、プロセッサ210は、M本の線のそれぞれの横方向Dxの位置ずれ量pZを決定する。本実施例では、プロセッサ210は、M本の線から、ランダムに、第3非基準線を選択する。第3非基準線として選択されなかった線の位置ずれ量pZは、ゼロに設定される。第3非基準線の位置ずれ量pZは、予め決められたずれ量範囲内から、ランダムに選択される。ずれ量範囲は、-XB以上、+XB以下の範囲である。値XBは、予め実験的に決定される。図6(B)では、第3非基準線PL1の位置ずれ量pZが、ゼロではない。 At S250, the processor 210 determines the amount of misalignment pZ in the lateral direction Dx for each of the M lines. In this example, processor 210 randomly selects a third non-reference line from the M lines. The displacement amount pZ of the lines not selected as the third non-reference line is set to zero. The positional displacement amount pZ of the third non-reference line is randomly selected from within a predetermined displacement amount range. The deviation range is from -XB to +XB. The value XB is determined experimentally beforehand. In FIG. 6B, the positional deviation amount pZ of the third non-reference line PL1 is not zero.

S260aでは、プロセッサ210は、注目番号nによって特定される注目線PLnの左端位置nLと右端位置nRとを算出する。図5(A)のS260との差異は、注目番号nの線幅pW(n)と位置ずれ量pZ(n)とが考慮される点である。具体的には、nL=nS+nP×n+pZ(n)であり、nR=nS+nP×n+pW(n)+pZ(n)である。図6(B)の例では、第3非基準線PL1の横方向Dxの位置が、位置ずれ量pZに従ってずれている。また、第1非基準線PL2の幅が、基準線幅nWとは異なる幅pWに設定されている。 In S260a, processor 210 calculates left end position nL and right end position nR of attention line PLn specified by attention number n. The difference from S260 in FIG. 5A is that the line width pW(n) of the target number n and the positional deviation amount pZ(n) are considered. Specifically, nL=nS+nP*n+pZ(n) and nR=nS+nP*n+pW(n)+pZ(n). In the example of FIG. 6B, the position of the third non-reference line PL1 in the horizontal direction Dx is displaced according to the displacement amount pZ. Also, the width of the first non-reference line PL2 is set to a width pW different from the reference line width nW.

S265aでは、プロセッサ210は、非基準ベースパターン画像820上において、注目線PLnの内部を注目線PLnの色pD(n)で塗りつぶす。具体的には、左端位置nLから右端位置nRまでの範囲に含まれる複数の画素の輝度値が、注目線PLnの色pD(n)に設定される。 In S265a, the processor 210 paints the inside of the line of interest PLn on the non-reference base pattern image 820 with the color pD(n) of the line of interest PLn. Specifically, the luminance values of a plurality of pixels included in the range from the left end position nL to the right end position nR are set as the color pD(n) of the line of interest PLn.

なお、S240、S245、S250では、非基準線の選択は、独立に行われる。従って、1本の非基準線に関して、幅pWと色pDと位置ずれ量pZとの3個のパラメータのうちの2個以上のパラメータが、基準線の対応するパラメータの値と異なり得る。 In addition, in S240, S245, and S250, the selection of the non-reference line is performed independently. Therefore, for one non-reference line, two or more of the three parameters of width pW, color pD, and displacement amount pZ can differ from the corresponding parameter values of the reference line.

続くS290、S295は、図5(A)のS290、S295と、それぞれ同じである。未処理の線PLが残っている場合(S295:No)、プロセッサ210は、S260aへ移行する。M本の線PLの処理が完了した場合(S295:Yes)、プロセッサ210は、S297aで、非基準ベースパターン画像を表す非基準ベースパターン画像データを、記憶装置215(例えば、不揮発性記憶装置230)に格納する。そして、プロセッサ210は、図6(A)の処理、すなわち、図4のS140の処理を終了する。 S290 and S295 that follow are the same as S290 and S295 in FIG. 5A, respectively. If unprocessed lines PL remain (S295: No), the processor 210 proceeds to S260a. If the processing of M lines PL has been completed (S295: Yes), the processor 210 stores the non-reference base pattern image data representing the non-reference base pattern image in the storage device 215 (eg, the non-volatile storage device 230) in S297a. ). Processor 210 then ends the process of FIG. 6A, that is, the process of S140 in FIG.

S150(図4)では、プロセッサ210は、S130またはS140で生成されたベースパターン画像データの平滑化処理を実行し、平滑ベースパターン画像データを生成する。平滑化処理は、ぼかし処理とも呼ばれる。現実のノズルパターンNPの読取画像では、ノズルパターンNPの輪郭がぼやけている。S150は、ベースパターン画像を、現実の読取画像に近づけるための処理である。本実施例では、平均値フィルタを用いる平滑化処理が行われる。平滑化処理は、他の種々の処理であってよい(例えば、中央値フィルタ、ガウシアンフィルタなどの他の平滑化フィルタが用いられてよい)。 At S150 (FIG. 4), processor 210 performs a smoothing process on the base pattern image data generated at S130 or S140 to generate smoothed base pattern image data. Smoothing processing is also called blurring processing. In the actual read image of the nozzle pattern NP, the outline of the nozzle pattern NP is blurred. S150 is a process for bringing the base pattern image closer to the actual read image. In this embodiment, smoothing processing using a mean value filter is performed. The smoothing process may be various other processes (eg, other smoothing filters such as median filters, Gaussian filters, etc. may be used).

S155では、プロセッサ210は、背景画像生成処理を実行する。図7(A)は、背景画像生成処理の例を示すフローチャートである。S310では、プロセッサ210は、複数枚のシートの複数枚の読取画像(図4:S105)から、ランダムに、1枚の対象読取画像を選択する。S315では、プロセッサ210は、対象読取画像から、入力画像950i(図3)と同じサイズの部分である背景画像を抽出する。対象読取画像内の背景画像の位置は、ランダムに決定される。以下、読取画像から抽出された背景画像を、第1種背景画像とも呼び、第1種背景画像の画像データを、第1種背景画像データとも呼ぶ。 At S155, the processor 210 executes background image generation processing. FIG. 7A is a flowchart showing an example of background image generation processing. In S310, the processor 210 randomly selects one target read image from a plurality of read images of a plurality of sheets (FIG. 4: S105). At S315, processor 210 extracts a background image, which is a portion of the same size as input image 950i (FIG. 3), from the target read image. The position of the background image within the target read image is randomly determined. Hereinafter, the background image extracted from the read image is also referred to as the first type background image, and the image data of the first type background image is also referred to as the first type background image data.

図7(B)は、第1種背景画像の例を示す説明図である。図中には、2枚の読取画像SHR1、SHR2が示されている。これらの読取画像SHR1、SHR2から、背景画像BG1-BG4が抽出されている。なお、1回の図7の処理では、1個の背景画像が抽出される。 FIG. 7B is an explanatory diagram showing an example of the first type background image. The drawing shows two read images SHR1 and SHR2. Background images BG1 to BG4 are extracted from these read images SHR1 and SHR2. Note that one background image is extracted in one process of FIG.

S160(図4)では、プロセッサ210は、ノイズ含有パターン画像のノイズ含有パターン画像データを生成する。ノイズ含有パターン画像は、S130またはS140で生成されたベースパターン画像と第1種背景画像とを用いて、生成される。図8(A)-図8(D)は、ノイズ含有パターン画像の説明図である。図8(A)は、基準ベースパターン画像810aと第1種背景画像830aから生成されるノイズ含有基準パターン画像850aを示している。図8(B)、図8(C)は、非基準ベースパターン画像820b、820cと第1種背景画像830b、830cから生成されるノイズ含有非基準パターン画像850b、850cを、それぞれ、示している。図中の輝度値Pt(x,y)は、ベースパターン画像810a-810cの画素(x,y)の輝度値である(ベースパターン輝度値Ptと呼ぶ)。値xは、画像内の横方向Dxの画素位置であり、値yは、画像内の縦方向Dyの画素位置である。他の画像の輝度値Pu、Pnについても、(x,y)は、画像内の画素位置を示している。輝度値Puは、第1種背景画像830a-830cの輝度値である(第1種背景輝度値Puと呼ぶ)。輝度値Pnは、ノイズ含有基準パターン画像850a-850cの輝度値である(第1種対象輝度値Pnと呼ぶ)。 At S160 (FIG. 4), the processor 210 generates noisy pattern image data for the noisy pattern image. A noise-containing pattern image is generated using the base pattern image generated in S130 or S140 and the first type background image. FIGS. 8A to 8D are explanatory diagrams of noise-containing pattern images. FIG. 8A shows a noise-containing reference pattern image 850a generated from the reference base pattern image 810a and the first type background image 830a. FIGS. 8B and 8C show noise-containing non-reference pattern images 850b and 850c generated from non-reference base pattern images 820b and 820c and first type background images 830b and 830c, respectively. . A luminance value Pt (x, y) in the drawing is the luminance value of the pixel (x, y) of the base pattern images 810a to 810c (referred to as base pattern luminance value Pt). The value x is the pixel position in the horizontal direction Dx in the image, and the value y is the pixel position in the vertical direction Dy in the image. For the luminance values Pu and Pn of other images, (x, y) also indicates the pixel position within the image. The brightness value Pu is the brightness value of the first type background images 830a to 830c (referred to as the first type background brightness value Pu). The brightness value Pn is the brightness value of the noise-containing reference pattern images 850a-850c (referred to as the first type target brightness value Pn).

図8(D)には、第1種対象輝度値Pnの算出式が示されている。ベースパターン輝度値Pt(x,y)が255である場合、すなわち、画素(x,y)が線PLではなく背景を示す場合、第1種対象輝度値Pn(x,y)は、背景輝度値Pu(x,y)と同じ値に設定される。すなわち、背景輝度値Puの重みが1であり、ベースパターン輝度値Ptの重みがゼロである。 FIG. 8D shows a formula for calculating the type 1 target luminance value Pn. When the base pattern luminance value Pt(x, y) is 255, that is, when the pixel (x, y) indicates the background instead of the line PL, the first type target luminance value Pn(x, y) is the background luminance It is set to the same value as the value Pu(x,y). That is, the weight of the background luminance value Pu is 1, and the weight of the base pattern luminance value Pt is zero.

ベースパターン輝度値Pt(x,y)が255よりも小さい場合、すなわち、画素(x,y)が背景ではなく線PLを示す場合、Pn(x,y)は、k1×Pu(x,y)+k2×Pt(x,y)に設定される。重みk1、k2は、いずれも、ゼロよりも大きい。本実施例では、k1+k2=1である。例えば、k1=0.75、k2=0.25であってよい。 If the base pattern intensity value Pt(x,y) is less than 255, i.e. if the pixel (x,y) represents the line PL rather than the background, then Pn(x,y) is k1*Pu(x,y )+k2×Pt(x,y). Weights k1 and k2 are both greater than zero. In this embodiment, k1+k2=1. For example, k1=0.75 and k2=0.25.

プロセッサ210は、図8(D)の算出式に従って、ノイズ含有パターン画像の各画素の輝度値を決定する。線PLを示す画素の第1種対象輝度値Pnの算出に、ベースパターン輝度値Ptに加えて、背景輝度値Puが用いられる。従って、ノイズ含有パターン画像は、ベースパターン画像が印刷されたシートの読取画像を、適切に再現できる。 The processor 210 determines the luminance value of each pixel of the noise-containing pattern image according to the calculation formula of FIG. 8(D). In addition to the base pattern luminance value Pt, the background luminance value Pu is used to calculate the type 1 target luminance value Pn of the pixel indicating the line PL. Therefore, the noise-containing pattern image can appropriately reproduce the read image of the sheet on which the base pattern image is printed.

S165(図4)では、プロセッサ210は、生成したノイズ含有パターン画像データを、記憶装置215(本実施例では、不揮発性記憶装置230)に格納する。 At S165 (FIG. 4), the processor 210 stores the generated noise-containing pattern image data in the storage device 215 (non-volatile storage device 230 in this embodiment).

S170では、プロセッサ210は、S155で生成された第1種背景画像の代表色値を特定する。本実施例では、プロセッサ210は、第1種背景画像に含まれる全ての画素の平均輝度値を、代表値として算出する。 At S170, the processor 210 identifies representative color values of the type 1 background image generated at S155. In this embodiment, the processor 210 calculates the average luminance value of all pixels included in the type 1 background image as the representative value.

S175では、プロセッサ210は、ノイズ低減パターン画像のノイズ低減パターン画像データを生成する。ノイズ低減パターン画像は、S130またはS140で生成されたベースパターン画像と、S170で特定された代表色値によって表される第2種背景画像と、を用いて生成される。図9(A)-図9(D)は、ノイズ低減パターン画像の説明図である。図9(A)は、基準ベースパターン画像810aと第2種背景画像830amから生成されるノイズ低減パターン画像851aを示している。図9(B)、図9(C)は、非基準ベースパターン画像820b、820cと第2種背景画像830bm、830cmから生成されるノイズ低減非基準パターン画像851b、851cを、それぞれ、示している。第2種背景画像830am-830cmの全ての画素の色値は、代表色値に設定されている。第2種背景輝度値Pum(x,y)は、第2種背景画像830am-830cmの画素(x,y)の輝度値であり、代表色値と同じである。輝度値Pc(x,y)は、ノイズ低減基準パターン画像851a-851cの画素(x,y)の輝度値である(第2種対象輝度値Pcと呼ぶ)。 At S175, the processor 210 generates noise reduction pattern image data for the noise reduction pattern image. A noise reduction pattern image is generated using the base pattern image generated in S130 or S140 and the second type background image represented by the representative color values identified in S170. 9A to 9D are explanatory diagrams of noise reduction pattern images. FIG. 9A shows a noise reduction pattern image 851a generated from the reference base pattern image 810a and the second type background image 830am. FIGS. 9B and 9C show noise-reduced non-reference pattern images 851b and 851c generated from non-reference base pattern images 820b and 820c and second type background images 830bm and 830cm, respectively. . The color values of all the pixels of the second type background image 830am-830cm are set to the representative color values. The second type background luminance value Pum(x, y) is the luminance value of the pixel (x, y) of the second type background image 830am-830cm, and is the same as the representative color value. The luminance value Pc(x, y) is the luminance value of the pixel (x, y) of the noise reduction reference pattern images 851a to 851c (referred to as the second type target luminance value Pc).

図9(D)には、第2種対象輝度値Pcの算出式が示されている。ベースパターン輝度値Pt(x,y)が255である場合(画素(x,y)は背景を示す)、第2種対象輝度値Pc(x,y)は、第2種背景輝度値Pum(x,y)、すなわち、代表色値(本実施例では、背景輝度値Puの平均値)に設定される。このように、第2種背景輝度値Pumの重みが1であり、ベースパターン輝度値Ptの重みはゼロである。 FIG. 9D shows a formula for calculating the second type target luminance value Pc. When the base pattern luminance value Pt(x, y) is 255 (the pixel (x, y) indicates the background), the type 2 target luminance value Pc(x, y) is the type 2 background luminance value Pum ( x, y), that is, the representative color value (the average value of the background luminance values Pu in this embodiment). Thus, the weight of the second type background luminance value Pum is 1, and the weight of the base pattern luminance value Pt is zero.

ベースパターン輝度値Pt(x,y)が255よりも小さい場合(画素(x,y)は線PLを示す)、Pc(x,y)は、k1×Pum(x,y)+k2×Pt(x,y)に設定される。第2種背景輝度値Pumの重みk1は、図8(D)の第1種背景輝度値Puの重みk1と同じである。ベースパターン輝度値Ptの重みk2は、図8(D)のベースパターン輝度値Ptの重みk2と同じである。 If the base pattern luminance value Pt(x,y) is less than 255 (pixel (x,y) indicates line PL), Pc(x,y) is k1×Pum(x,y)+k2×Pt( x, y). The weight k1 of the type 2 background luminance value Pum is the same as the weight k1 of the type 1 background luminance value Pu in FIG. 8(D). The weight k2 of the base pattern luminance value Pt is the same as the weight k2 of the base pattern luminance value Pt in FIG. 8(D).

プロセッサ210は、図9(D)の算出式に従って、ノイズ低減パターン画像の各画素の輝度値を決定する。線PLを示す画素の第2種対象輝度値Pcの算出に、ベースパターン輝度値Ptに加えて、第2種背景輝度値Pum(すなわち、代表色値)が用いられる。従って、ノイズ低減パターン画像は、ベースパターン画像が印刷されたシートの読取画像からノイズ(例えば、シートの繊維のパターン)を低減した画像を、適切に表すことができる。 The processor 210 determines the luminance value of each pixel of the noise reduction pattern image according to the calculation formula of FIG. 9(D). In addition to the base pattern luminance value Pt, the second type background luminance value Pum (that is, the representative color value) is used to calculate the second type target luminance value Pc of the pixels representing the line PL. Therefore, the noise reduction pattern image can appropriately represent an image obtained by reducing noise (for example, the pattern of the fibers of the sheet) from the read image of the sheet on which the base pattern image is printed.

S180(図4)では、プロセッサ210は、ノイズ低減パターン画像データのコントラスト強調処理を実行する。図9(E)は、コントラスト強調処理の例を示すグラフである。横軸は、調整前の第2種対象輝度値Pcを示し、縦軸は、調整済の第2種対象輝度値Pccを示している。この対応関係は、未調整の輝度値Pcが第1閾値Vaから第2閾値Vbに変化する場合に、調整済の輝度値Pccがゼロから255に変化するように、構成されている(ゼロ<Va<Vb<255)。Pc<Vaの場合、調整済の輝度値Pccは、ゼロに設定される。Vb<Pcの場合、調整済の輝度値Pccは255に設定される。なお、図9(E)の対応関係を用いる処理に限らず、コントラストを強調する種々の処理が実行されてよい。 At S180 (FIG. 4), the processor 210 performs contrast enhancement processing of the noise reduction pattern image data. FIG. 9E is a graph showing an example of contrast enhancement processing. The horizontal axis indicates the type 2 target luminance value Pc before adjustment, and the vertical axis indicates the type 2 target luminance value Pcc after adjustment. This correspondence relationship is configured such that when the unadjusted luminance value Pc changes from the first threshold value Va to the second threshold value Vb, the adjusted luminance value Pcc changes from zero to 255 (zero< Va<Vb<255). If Pc<Va, the adjusted luminance value Pcc is set to zero. The adjusted brightness value Pcc is set to 255 if Vb<Pc. It should be noted that various processes for emphasizing the contrast may be executed without being limited to the process using the correspondence shown in FIG. 9(E).

図9(A)-図9(C)には、コントラストが強調されたノイズ低減パターン画像860a-860cが示されている。コントラストが強調されているので、線PLと背景との識別は、容易である。 Contrast-enhanced noise-reduced pattern images 860a-860c are shown in FIGS. 9A-9C. The distinction between the line PL and the background is easy because the contrast is enhanced.

S185(図4)では、プロセッサ210は、コントラストが調整された調整済ノイズ低減パターン画像データを、ノイズ含有パターン画像データと対応付けて、記憶装置215(本実施例では、不揮発性記憶装置230)に格納する。 At S185 (FIG. 4), processor 210 associates the contrast-adjusted adjusted noise-reduced pattern image data with the noise-containing pattern image data in storage device 215 (in this example, non-volatile storage device 230). store in

S190では、プロセッサ210は、画像データの生成が完了したか否かを判断する。本実施例では、完了の条件は、基準のノズルパターンNPの画像データの生成回数が、予め決められた基準回数P(Pは2以上の整数)以上であり、かつ、非基準のノズルパターンNPの画像データの生成回数が、予め決められた非基準回数Q(Qは2以上の整数)以上であることである。なお、完了の条件は、他の種々の条件であってよい。 At S190, the processor 210 determines whether or not the generation of the image data is completed. In this embodiment, the conditions for completion are that the number of times the image data of the reference nozzle pattern NP is generated is equal to or greater than a predetermined reference number of times P (P is an integer equal to or greater than 2), and that the non-reference nozzle pattern NP is equal to or greater than a predetermined non-reference number of times Q (Q is an integer equal to or greater than 2). Note that the completion condition may be other various conditions.

画像データの生成が完了していないと判断される場合(S190:No)、プロセッサ210は、S110へ移行する。画像データの生成が完了したと判断される場合(S190:Yes)、プロセッサ210は、図4の処理を終了する。不揮発性記憶装置230には、ノイズ含有パターン画像データと調整済ノイズ低減パターン画像データとの複数のセットが、格納される。 If it is determined that image data generation has not been completed (S190: No), the processor 210 proceeds to S110. If it is determined that generation of image data has been completed (S190: Yes), processor 210 terminates the processing of FIG. Multiple sets of noise-containing pattern image data and adjusted noise-reduced pattern image data are stored in non-volatile storage 230 .

以上のように、本実施例の学習画像データの生成処理では、図4のS155、S160で、ノイズ含有パターン画像データが生成される。図8(A)-図8(C)で説明したように、ノイズ含有パターン画像850a-850cは、第1種背景画像830a-830c上に、ノズルパターンNP(複数の線PL)が配置された画像である。S160で説明したように、ノイズ含有パターン画像は、第1種背景画像とベースパターン画像とを用いて生成される。S105、S155で説明したように、第1種背景画像は、印刷用のシートSH1を光学的に読み取って得られる読取画像(すなわち、シート画像)の少なくとも一部である。S130、S140で説明したように、ベースパターン画像は、ノズルパターンNPの画像である。S165では、ノイズ含有パターン画像データは、記憶装置215に格納される。 As described above, in the process of generating learning image data according to this embodiment, noise-containing pattern image data is generated in S155 and S160 of FIG. As described with reference to FIGS. 8A to 8C, the noise-containing pattern images 850a to 850c consist of the nozzle patterns NP (plurality of lines PL) arranged on the first type background images 830a to 830c. It is an image. As described in S160, the noise-containing pattern image is generated using the type 1 background image and the base pattern image. As described in S105 and S155, the first type background image is at least part of the read image (that is, the sheet image) obtained by optically reading the printing sheet SH1. As described in S130 and S140, the base pattern image is the image of the nozzle pattern NP. At S<b>165 , the noise-containing pattern image data is stored in the storage device 215 .

図8(D)で説明したように、ノイズ含有パターン画像の画素の色値(ここでは、輝度値)を決定する処理は、2つの処理を含んでいる。第1の処理は、対象画素が、ノズルパターンNPを示す場合の処理である(図8(D)の下段)。第1の処理では、対象画素の輝度値Pn(x,y)は、第1種背景輝度値Pu(x,y)とベースパターン輝度値Pt(x,y)との重み付き合計値に設定される。第1種背景輝度値Puに乗じられる重みk1は、ゼロよりも大きく、ベースパターン輝度値Ptに乗じられる重みk2は、ゼロよりも大きい。第2の処理は、対象画素が、ノズルパターンNPが配置されていない部分を示す場合の処理である(図8(D)の上段)。第2の処理では、対象画素の輝度値Pn(x,y)は、第1種背景輝度値Pu(x,y)に、第1の処理における第1種背景輝度値Puの重みk1よりも大きい重み(本実施例では、1)を乗じて得られる値に設定される。以上により、ノイズ含有パターン画像は、ノズルパターンNPが印刷されたシートを光学的に読み取って得られる画像を適切に表現できる。学習モデル235は、ノズルパターンNPが印刷されたシートを実際に光学的に読み取って得られる画像データを処理するモデルである。図4の実施例では、このような学習モデル235のトレーニングのための学習画像データを、適切に、生成できる。 As described with reference to FIG. 8D, the process of determining the color values (here, luminance values) of the pixels of the noise-containing pattern image includes two processes. The first processing is processing when the target pixel indicates the nozzle pattern NP (lower stage of FIG. 8(D)). In the first process, the luminance value Pn(x, y) of the target pixel is set to the weighted sum of the type 1 background luminance value Pu(x, y) and the base pattern luminance value Pt(x, y). be done. The weight k1 by which the type 1 background luminance value Pu is multiplied is greater than zero, and the weight k2 by which the base pattern luminance value Pt is multiplied is greater than zero. The second processing is processing when the target pixel indicates a portion where the nozzle pattern NP is not arranged (upper part of FIG. 8(D)). In the second process, the luminance value Pn(x, y) of the target pixel is added to the type 1 background luminance value Pu(x, y) more than the weight k1 of the type 1 background luminance value Pu in the first process. It is set to a value obtained by multiplying by a large weight (1 in this embodiment). As described above, the noise-containing pattern image can appropriately express the image obtained by optically reading the sheet on which the nozzle pattern NP is printed. The learning model 235 is a model for processing image data obtained by actually optically reading a sheet on which the nozzle pattern NP is printed. In the example of FIG. 4, learning image data for training such learning model 235 can be generated appropriately.

また、S170では、S155で生成された背景画像上の複数の位置に対応付けられた複数の輝度値を代表する代表色値が特定される。S175では、ノイズ低減パターン画像データが生成され、S180では、ノイズ低減パターン画像データのコントラストが調整される。図9(A)-図9(C)で説明したように、ノイズ低減パターン画像851a-851cは、第2種背景画像830am-830cm上に、ノズルパターンNP(複数のPL)が配置された画像である。S175で説明したように、ノイズ低減パターン画像は、第2種背景画像とベースパターン画像とを用いて生成される。S170、S175で説明したように、第2種背景画像は、代表色値によって表される画像である。S185では、S180で調整されたノイズ低減パターン画像データは、記憶装置215に格納される。 Also, in S170, a representative color value representing a plurality of luminance values associated with a plurality of positions on the background image generated in S155 is specified. At S175, noise reduction pattern image data is generated, and at S180, the contrast of the noise reduction pattern image data is adjusted. As described with reference to FIGS. 9A to 9C, the noise reduction pattern images 851a to 851c are images in which the nozzle patterns NP (plurality of PL) are arranged on the second type background images 830am to 830cm. is. As described in S175, the noise reduction pattern image is generated using the second type background image and the base pattern image. As described in S170 and S175, the second type background image is an image represented by representative color values. At S<b>185 , the noise reduction pattern image data adjusted at S<b>180 is stored in the storage device 215 .

図9(D)で説明したように、ノイズ低減パターン画像の画素の色値(ここでは、輝度値)を決定する処理は、2つの処理を含んでいる。第1の処理は、対象画素が、ノズルパターンNPを示す場合の処理である(図9(D)の下段)。第1の処理では、対象画素の輝度値Pc(x,y)は、第2種背景輝度値Pum(x,y)とベースパターン輝度値Pt(x,y)との重み付き合計値に設定される。第2種背景輝度値Pumに乗じられる重みk1は、ゼロよりも大きく、ベースパターン輝度値Ptに乗じられる重みk2は、ゼロよりも大きい。第2の処理は、対象画素が、ノズルパターンNPが配置されていない部分を示す場合の処理である(図9(D)の上段)。第2の処理では、対象画素の輝度値Pc(x,y)は、第2種背景輝度値Pum(x,y)に、第1の処理における第2種背景輝度値Pumの重みk1よりも大きい重み(本実施例では、1)を乗じて得られる値に設定される。以上により、ノイズ低減パターン画像は、ノイズ含有パターン画像のノイズを低減して得られる画像を適切に表現できる。図4の実施例では、ノイズを含む画像とノイズが低減された画像とを用いるトレーニングのための学習画像データを、適切に、生成できる。 As described with reference to FIG. 9D, the process of determining the color value (here, luminance value) of the pixel of the noise reduction pattern image includes two processes. The first processing is processing when the target pixel indicates the nozzle pattern NP (lower stage of FIG. 9D). In the first process, the luminance value Pc(x, y) of the target pixel is set to the weighted total value of the second type background luminance value Pum(x, y) and the base pattern luminance value Pt(x, y). be done. The weight k1 by which the second type background luminance value Pum is multiplied is greater than zero, and the weight k2 by which the base pattern luminance value Pt is multiplied is greater than zero. The second processing is processing when the target pixel indicates a portion where the nozzle pattern NP is not arranged (upper part of FIG. 9(D)). In the second process, the luminance value Pc(x, y) of the target pixel is added to the second type background luminance value Pum(x, y) more than the weight k1 of the second type background luminance value Pum in the first process. It is set to a value obtained by multiplying by a large weight (1 in this embodiment). As described above, the noise-reduced pattern image can appropriately represent an image obtained by reducing the noise of the noise-containing pattern image. In the example of FIG. 4, training image data for training with noisy images and noise-reduced images can be suitably generated.

また、S170で説明したように、本実施例では、代表色値は、第1種背景画像上の複数の画素の複数の色値の平均値である。従って、第2種背景画像は、第1種背景画像と比べてノイズが低減された背景画像を適切に表すことができるので、適切なノイズ低減パターン画像データを生成できる。なお、代表色値は、平均値に限らず、中央値、最頻値などの複数の色値を用いて特定される種々の値であってよい。また、代表色値は、第1種背景画像の全ての画素ではなく、第1種背景画像から均等に選択された一部の複数の画素を用いて、特定されてよい。 Also, as described in S170, in this embodiment, the representative color value is the average value of multiple color values of multiple pixels on the type 1 background image. Therefore, since the second type background image can appropriately represent a background image with noise reduced compared to the first type background image, appropriate noise reduction pattern image data can be generated. Note that the representative color value is not limited to the average value, and may be various values specified using a plurality of color values such as the median value and mode value. Also, the representative color value may be specified using some of the plurality of pixels evenly selected from the first type background image, instead of all the pixels of the first type background image.

また、図5(B)等で説明したように、ノズルパターンNPは、第1方向D1に平行なN本(Nは2以上の整数)の線PLであって、第1方向D1に垂直な第2方向D2に並ぶN本の線PLを含んでいる。本実施例では、このようなノズルパターンNPの学習画像データを、適切に、生成できる。 As described with reference to FIG. 5B and the like, the nozzle pattern NP is N lines PL (N is an integer equal to or greater than 2) parallel to the first direction D1 and perpendicular to the first direction D1. It includes N lines PL aligned in the second direction D2. In this embodiment, such learning image data for the nozzle pattern NP can be generated appropriately.

また、S190で説明したように、非基準のノズルパターンNPのノイズ含有パターン画像とノイズ低減パターン画像との生成は、Q回行われる(Qは2以上の整数)。図6(A)で説明したように、ノイズ含有パターン画像に含まれる基準線には、基準線幅nWと基準線色nDと基準位置nSとゼロの位置ずれ量pZとが対応付けられている。基準線幅nWと基準線色nDと基準位置nSとは、ノイズ含有パターン画像に対応付けられており、ノイズ含有パターン画像毎に決定される。基準線の横方向Dxの位置は、図6(A)のS260aに示すように、基準位置nSと注目番号n(すなわち、横方向Dxの線PLの番号)とに基づいて、決定される。図6(A)、図6(B)等で説明したように、Q枚のノイズ含有パターン画像のそれぞれは、1以上の非基準線を含んでいる。非基準線は、以下の3個のパラメータ値のうちの1個以上のパラメータ値を有している。
(1)基準線色nDとは異なる色pD(ここでは、輝度)
(2)基準位置nSと注目番号nとに対応付けられた横方向Dxの基準位置とは異なる位置
(3)基準線幅nWとは異なる幅pW
従って、本実施例は、図2(A)のような不具合を有するノズルパターンの画像を処理する学習モデル235のトレーニングのための学習画像データを、適切に、生成できる。
Also, as described in S190, the generation of the noise-containing pattern image and the noise reduction pattern image of the non-reference nozzle pattern NP is performed Q times (Q is an integer of 2 or more). As described with reference to FIG. 6A, the reference line included in the noise-containing pattern image is associated with the reference line width nW, the reference line color nD, the reference position nS, and the zero displacement amount pZ. . The reference line width nW, the reference line color nD, and the reference position nS are associated with the noise-containing pattern image and determined for each noise-containing pattern image. The position of the reference line in the horizontal direction Dx is determined based on the reference position nS and the target number n (that is, the number of the line PL in the horizontal direction Dx), as shown in S260a of FIG. 6A. As described in FIGS. 6A, 6B, etc., each of the Q noise-containing pattern images includes one or more non-reference lines. A non-baseline has one or more of the following three parameter values.
(1) Color pD (here, luminance) different from reference line color nD
(2) Position different from reference position in horizontal direction Dx associated with reference position nS and target number n (3) Width pW different from reference line width nW
Therefore, this embodiment can appropriately generate learning image data for training the learning model 235 that processes an image of a nozzle pattern having defects as shown in FIG. 2(A).

また、図6(A)の処理により、Q枚のノイズ含有非基準パターン画像は、以下の3種類のノイズ含有パターン画像を含んでいる。
(1)基準線色nDとは異なる色pD(ここでは、輝度)を有する1以上の非基準線を含むノイズ含有パターン画像
(2)横方向Dxの基準位置とは異なる位置に配置された1以上の非基準線を含むノイズ含有パターン画像
(3)基準線幅nWとは異なる幅pWを有する1以上の非基準線を含むノイズ含有パターン画像
従って、輝度と横方向Dxの位置と幅とのそれぞれが変化し得る場合に、トレーニングのための学習画像データを、適切に、生成できる。例えば、図8(B)のノイズ含有非基準パターン画像850bは、基準線色nDとは異なる色pDを有する1以上の非基準線と、横方向Dxの基準位置とは異なる位置に配置された1以上の非基準線と、を含み得る。そして、図8(C)のノイズ含有非基準パターン画像850cは、基準線幅nWとは異なる幅pWを有する1以上の非基準線を含み得る。このように、1枚のノイズ含有パターン画像が、複数の種類の非基準線を含んでよい。
Further, by the processing of FIG. 6A, the Q noise-containing non-reference pattern images include the following three types of noise-containing pattern images.
(1) A noise-containing pattern image including one or more non-reference lines having a color pD (here, luminance) different from the reference line color nD (2) One arranged at a position different from the reference position in the horizontal direction Dx Noise-containing pattern image including the above non-reference lines (3) Noise-containing pattern image including one or more non-reference lines having a width pW different from the reference line width nW Therefore, the luminance and the position and width in the horizontal direction Dx Learning image data for training can be generated appropriately if each is variable. For example, the noise-containing non-reference pattern image 850b in FIG. 8B has one or more non-reference lines having a color pD different from the reference line color nD and is arranged at a position different from the reference position in the horizontal direction Dx. and one or more non-reference lines. Then, the noise-containing non-reference pattern image 850c of FIG. 8C can include one or more non-reference lines having widths pW different from the reference line width nW. Thus, a single noisy pattern image may contain multiple types of non-reference lines.

また、図6(A)の処理では、非基準線は、ノイズ含有パターン画像毎に、ランダムに選択される。従って、複数枚のノイズ含有非基準パターン画像の間で、非基準線の総数は互いに異なり得る。従って、ノズルパターンNPに含まれる非基準線の総数が変化し得る場合に、トレーニングのための学習画像データを、適切に、生成できる。例えば、図8(B)のノイズ含有非基準パターン画像850bと図8(C)のノイズ含有非基準パターン画像850cとの間では、非基準線の総数が異なり得る。 In addition, in the processing of FIG. 6A, non-reference lines are randomly selected for each noise-containing pattern image. Therefore, the total number of non-reference lines can be different between the multiple noise-containing non-reference pattern images. Therefore, learning image data for training can be appropriately generated when the total number of non-reference lines included in the nozzle pattern NP may change. For example, the total number of non-reference lines may differ between the noise-containing non-reference pattern image 850b of FIG. 8B and the noise-containing non-reference pattern image 850c of FIG. 8C.

A3.トレーニング処理:
図10(A)-図10(C)は、学習モデル235のトレーニング処理の説明図である。図10(A)は、学習モデル235のトレーニング処理の例を示すフローチャートである。本実施例では、学習モデル235は、ノズルパターンNPの画像データが入力された場合に、ノイズが低減された同じノズルパターンNPの画像データが生成されるように、トレーニングされる。トレーニングによって、フィルタFL(図3)の「Fx×Fy」個の重みが、調整される。以下、複合機200(図1)が、トレーニングを実行することとして、説明する。プロセッサ210は、第2プログラム232に従って、トレーニングを行う。なお、トレーニングは、高い演算能力を有する他のデータ処理装置によって、実行されてよい。
A3. Training process:
10A to 10C are explanatory diagrams of the training process of the learning model 235. FIG. FIG. 10A is a flowchart showing an example of training processing for the learning model 235. FIG. In this embodiment, the learning model 235 is trained such that when image data of a nozzle pattern NP is input, image data of the same nozzle pattern NP with reduced noise is generated. The training adjusts the “Fx×Fy” weights of the filter FL (FIG. 3). In the following description, it is assumed that the MFP 200 (FIG. 1) executes the training. Processor 210 performs training according to second program 232 . It should be noted that the training may be performed by other data processing devices with high computing power.

S310では、プロセッサ210は、学習モデル235の複数個の演算パラメータ(ここでは、フィルタFLの「Fx×Fy」個の重み)を初期化する。例えば、各演算パラメータは、乱数値に設定される。 In S310, the processor 210 initializes a plurality of calculation parameters of the learning model 235 (here, “Fx×Fy” weights of the filter FL). For example, each calculation parameter is set to a random value.

S315では、プロセッサ210は、複数のノイズ含有パターン画像データからV個(Vは1以上の整数)のノイズ含有パターン画像データを選択し、V個のノイズ含有パターン画像データを学習モデル235に入力し、V個の出力画像データを生成する。なお、V個のノイズ含有パターン画像データとしては、複数のノイズ含有パターン画像データのうちの未使用のノイズ含有パターン画像データが選択されてよい。また、複数のノイズ含有パターン画像データからランダムにV個のノイズ含有パターン画像データが選択されてもよい。 In S315, the processor 210 selects V (V is an integer equal to or greater than 1) noise-containing pattern image data from a plurality of noise-containing pattern image data, and inputs the V noise-containing pattern image data to the learning model 235. , V output image data. As the V pieces of noise-containing pattern image data, unused noise-containing pattern image data from among the plurality of noise-containing pattern image data may be selected. Alternatively, V pieces of noise-containing pattern image data may be randomly selected from a plurality of noise-containing pattern image data.

S320では、プロセッサ210は、学習モデル235に入力されたV個のノイズ含有パターン画像データのそれぞれについて、調整済ノイズ低減パターン画像データと出力画像データとの間の差分の評価値である誤差値を算出する。誤差値は、予め決められた損失関数に基づいて算出される。図10(B)は、損失関数の例を示す説明図である。本実施例では、損失関数LFは、第1項Limgと第2項Lfilterとの合計値である。 In S320, the processor 210 calculates an error value, which is an evaluation value of the difference between the adjusted noise-reduced pattern image data and the output image data, for each of the V noise-containing pattern image data input to the learning model 235. calculate. An error value is calculated based on a predetermined loss function. FIG. 10B is an explanatory diagram showing an example of a loss function. In this embodiment, the loss function LF is the sum of the first term Limg and the second term Lfilter.

第1項Limgは、調整済ノイズ低減パターン画像と、出力画像データの出力画像と、の間の差分を示している。本実施例では、第1項Limgは、255で正規化された二乗誤差の平方根の平均値である。図中の第1項Limgの画素数IWは、各画像の横方向Dxの画素数であり、画素数IHは、各画像の縦方向Dyの画素数である(図3参照)。画素値Po(x,y)は、出力画像の画素(x,y)の画素値である。値xは、画像内の横方向Dxの画素位置であり、値yは、画像内の縦方向Dyの画素位置である。画素値Pcc(x,y)は、調整済ノイズ低減パターン画像の画素(x,y)の画素値である(図9(A)-図9(C)参照)。第1項Limgは、調整済ノイズ低減パターン画像と出力画像との差分が小さくなるほど小さくなる。なお、第1項Limgは、2枚の画像の間の差分が小さいほど小さい値を算出する種々の関数で表されてよい。 The first term Limg indicates the difference between the adjusted noise reduction pattern image and the output image of the output image data. In this example, the first term Limg is the mean square root of the squared error normalized by 255. The number of pixels IW of the first term Limg in the figure is the number of pixels in the horizontal direction Dx of each image, and the number of pixels IH is the number of pixels in the vertical direction Dy of each image (see FIG. 3). The pixel value Po(x, y) is the pixel value of the pixel (x, y) of the output image. The value x is the pixel position in the horizontal direction Dx in the image, and the value y is the pixel position in the vertical direction Dy in the image. The pixel value Pcc(x, y) is the pixel value of the pixel (x, y) of the adjusted noise reduction pattern image (see FIGS. 9A-9C). The first term Limg becomes smaller as the difference between the adjusted noise reduction pattern image and the output image becomes smaller. Note that the first term Limg may be represented by various functions that calculate a smaller value as the difference between the two images is smaller.

第2項Lfilterは、フィルタFLの重みWの対称性の高さを示す評価値である。図10(C)は、第2項Lfilterの説明図である。図中には、フィルタFLと、フィルタ対称軸AxFとが示されている。フィルタ対称軸AxFは、ノズルパターンNP(図2(A)、図5(B)等)の各線PLの対称軸(例えば、対称軸AxP、Ax0-Axk)に平行な軸である。本実施例では、フィルタ対称軸AxFは、第1方向D1(すなわち、縦方向Dy)に平行である。また、フィルタ対称軸AxFは、フィルタFLの中心を通っている。本実施例では、フィルタFLの横サイズFxが5であるので、フィルタ対称軸AxFは、第3列の重みW(3,1)-W(3,5)に重なっている。 The second term Lfilter is an evaluation value indicating the degree of symmetry of the weight W of the filter FL. FIG. 10C is an explanatory diagram of the second term Lfilter. The figure shows a filter FL and a filter axis of symmetry AxF. The filter symmetry axis AxF is parallel to the symmetry axis (for example, symmetry axis AxP, Ax0-Axk) of each line PL of the nozzle pattern NP (FIGS. 2A, 5B, etc.). In this embodiment, the filter axis of symmetry AxF is parallel to the first direction D1 (that is, the longitudinal direction Dy). Also, the filter symmetry axis AxF passes through the center of the filter FL. In this embodiment, since the horizontal size Fx of the filter FL is 5, the filter axis of symmetry AxF overlaps the weights W(3,1)-W(3,5) in the third column.

第2項Lfilterは、フィルタ対称軸AxFを対称軸とする線対称な位置に配置された2個の重みWの差分の絶対値の平均値である。図10(C)の対称ペアPW1、PW2は、それぞれ、線対称な位置に配置された2個の重みWの例を示している。第1ペアPW1は、重みW(1,2)と重みW(5,2)とで構成されている。第2ペアPW2は、重みW(2,4)と重みW(4,5)とで構成されている。 The second term Lfilter is the average value of the absolute values of the differences between two weights W arranged at symmetrical positions with respect to the filter symmetry axis AxF. A symmetrical pair PW1 and PW2 in FIG. 10(C) respectively shows an example of two weights W arranged at line-symmetrical positions. The first pair PW1 is composed of weight W(1,2) and weight W(5,2). The second pair PW2 consists of weights W(2,4) and weights W(4,5).

図10(B)の第2項Lfilterの算出式では、総和記号のインデックスi、jのそれぞれの下限と上限とは、フィルタ対称軸AxFの左側の複数の重みの全てを選択するように、設定されている。本実施例では、W(1,1)-W(1,5)、W(2,1)-W(2,5)の10個の重みが、選択される。総和記号によって加算される変数は、インデックスi、jによって特定される対称な重みペア(W(i,j)とW(Fx+1-i,j))の差分の絶対値である。 In the formula for calculating the second term Lfilter in FIG. 10B, the lower and upper limits of indices i and j of the summation symbol are set so as to select all of the plurality of weights on the left side of the filter symmetry axis AxF. It is In this example, ten weights W(1,1)-W(1,5) and W(2,1)-W(2,5) are selected. The variable added by the summation symbol is the absolute value of the difference of the symmetrical weight pair (W(i,j) and W(Fx+1-i,j)) identified by the indices i,j.

第2項Lfilterは、フィルタ対称軸AxFに対する複数の重みWの対称性が高いほど小さくなる。損失関数LFがこのような第2項Lfilterを含む理由は、フィルタFLを用いる画像処理に起因する線PLの変形(例えば、位置ずれ)を抑制するためである。 The second term Lfilter becomes smaller as the symmetry of the plurality of weights W with respect to the filter symmetry axis AxF is higher. The reason why the loss function LF includes such a second term Lfilter is to suppress deformation (for example, displacement) of the line PL due to image processing using the filter FL.

図11(A)-図11(D)は、線PLの位置の説明図である。図11(A)は、ノズルパターンNPの画像上の輝度値を示すグラフである。横軸は、横方向Dxの位置Pxを示し、縦軸は、輝度値Vを示している。このグラフは、横方向Dxに延びる1本の画素ライン上での輝度値Vの分布を示している。なお、縦軸の向きは、下向きである。従って、グラフの上部では、輝度値Vが小さく、グラフの下部では、輝度値Vが大きい。グラフの1個の山は、1個の線PLを示し、グラフの谷は、背景部分BGを示している。縦軸の変数と横軸の変数とは、図11(A)-図11(D)の各グラフに共通である。 11(A) to 11(D) are explanatory diagrams of the position of the line PL. FIG. 11A is a graph showing luminance values on the image of the nozzle pattern NP. The horizontal axis indicates the position Px in the horizontal direction Dx, and the vertical axis indicates the luminance value V. FIG. This graph shows the distribution of luminance values V on one pixel line extending in the horizontal direction Dx. The direction of the vertical axis is downward. Therefore, the luminance value V is small in the upper part of the graph, and the luminance value V is large in the lower part of the graph. A peak in the graph indicates a line PL, and a valley in the graph indicates the background portion BG. Variables on the vertical axis and variables on the horizontal axis are common to each graph of FIGS. 11(A) to 11(D).

図11(B)は、1個の線PLを示す輝度値のグラフである。点線のグラフは、学習モデル235によって生成される出力画像の輝度値Poを示し、実線のグラフは、ノイズ低減パターン画像の輝度値Pcを示している。図11(B)は、トレーニングが完了する前の学習モデル235によって出力される輝度値Poを示している。輝度値Poは、図10(B)で説明した出力画像の画素値Po(x,y)と同様に、出力画像上の各画素位置における輝度値を示している。輝度値Pcは、図9(A)等で説明した輝度値Pc(x,y)と同様に、ノイズ低減パターン画像上の各画素位置での輝度値を示している。図示するように、これらの輝度値Po、Pcの間には、差が生じている。実施例のトレーニングでは、輝度値Po、Pcの差ではなく、輝度値Po、Pccの差が小さくなる(輝度値Pccは、図10(B)等で説明した画素値Pcc(x,y)と同様に、調整済ノイズ低減パターン画像上の各画素位置での輝度値を示している)。ただし、ここでは、説明を簡略化するために、トレーニングにより輝度値Po、Pcの差が小さくなることとする。 FIG. 11B is a graph of luminance values showing one line PL. A dotted line graph indicates the brightness value Po of the output image generated by the learning model 235, and a solid line graph indicates the brightness value Pc of the noise reduction pattern image. FIG. 11B shows the brightness values Po output by the learning model 235 before training is completed. The luminance value Po indicates the luminance value at each pixel position on the output image, like the pixel value Po(x, y) of the output image described in FIG. 10B. The luminance value Pc indicates the luminance value at each pixel position on the noise reduction pattern image, like the luminance value Pc(x, y) described with reference to FIG. 9A and the like. As shown, there is a difference between these luminance values Po and Pc. In the training of the embodiment, the difference between the luminance values Po and Pcc is smaller than the difference between the luminance values Po and Pc (the luminance value Pcc is the pixel value Pcc (x, y) described in FIG. 10B and the like). Similarly, the luminance value at each pixel location on the adjusted noise reduction pattern image is shown). However, here, in order to simplify the explanation, it is assumed that training reduces the difference between the luminance values Po and Pc.

図11(C)は、参考例の説明図である。このグラフは、損失関数LFが第1項Limgのみで構成される仮の場合の輝度値Po、Pcを示している。輝度値Poは、トレーニング済の学習モデル235によって出力される輝度値である。図中の第1ピーク位置PxCは、ノイズ低減パターン画像の輝度値Pcによって示される線PLのピークの位置である。このピーク位置PxCは、線PLの対称軸の位置と同じであり、学習モデル235に入力されるノイズ含有パターン画像上の線PLのピーク位置と同じである。以下、第1ピーク位置PxCを、対称軸AxCとも呼ぶ。 FIG. 11C is an explanatory diagram of a reference example. This graph shows luminance values Po and Pc in a hypothetical case where the loss function LF is composed only of the first term Limg. The brightness value Po is the brightness value output by the trained learning model 235 . The first peak position PxC in the drawing is the peak position of the line PL indicated by the luminance value Pc of the noise reduction pattern image. This peak position PxC is the same as the position of the axis of symmetry of the line PL, and is the same as the peak position of the line PL on the noise-containing pattern image input to the learning model 235 . Hereinafter, the first peak position PxC is also called the axis of symmetry AxC.

図中の第2ピーク位置PxOは、出力画像の輝度値Poによって示される線PLのピークの位置である。第2ピーク位置PxOは、第1ピーク位置PxCからずれている。この理由は、以下の通りである。第1項Limgを用いるトレーニングでは、線PLと背景部分BGとを区別せずに、第1項Limgに従って算出される誤差値が小さくなるように、フィルタFLが調整される。この結果、調整済のフィルタFLは、背景部分GB(図11(B))の大きな差を小さくするために、線PL(図11(C))を示す部分の輝度値Po、Pcの差を、線PLの対称軸AxCに対して非対称に調整し得る。この結果、出力画像上の線PLが変形し得る。例えば、出力画像上の線PLの第2ピーク位置PxOは、元のピーク位置PxCから、ずれ得る。このような出力画像が利用される場合、出力画像上での線PLの位置の特定の誤差が大きくなる。 A second peak position PxO in the drawing is the position of the peak of the line PL indicated by the luminance value Po of the output image. The second peak position PxO is shifted from the first peak position PxC. The reason for this is as follows. In training using the first term Limg, the filter FL is adjusted so that the error value calculated according to the first term Limg is small without distinguishing between the line PL and the background portion BG. As a result, in order to reduce the large difference in the background portion GB (FIG. 11B), the adjusted filter FL reduces the difference between the luminance values Po and Pc of the portion indicating the line PL (FIG. 11C). , can be adjusted asymmetrically with respect to the axis of symmetry AxC of the line PL. As a result, the line PL on the output image may be deformed. For example, the second peak position PxO of the line PL on the output image may deviate from the original peak position PxC. When such an output image is used, the specific error of the position of the line PL on the output image becomes large.

図11(D)は、本実施例の説明図である。輝度値Poは、トレーニング済の学習モデル235によって出力される輝度値である。図示するように、出力画像の輝度値Poによって示される線PLのピーク位置PxOは、元のピーク位置PxCとおおよそ同じである。この理由は、以下の通りである。損失関数LF(図10(B))は、第1項Limgに加えて、第2項Lfilterを含んでいる。第2項Lfilterの値は、フィルタFLの重みWの対称性が低くなるほど、大きくなる。畳込層310(図3)による演算では、フィルタFLは、入力画像上で均等に配置された複数の位置(本実施例では、入力画像の全ての画素位置)に、適用される。すなわち、フィルタFLは、1本の線PLに重なる複数の位置であって、線PLの対称軸AxCに対する線対称な複数の位置に、適用される。従って、仮に、図11(C)のように、フィルタFLが、輝度値Po、Pcの差を、線PLの対称軸AxCに対して非対称に調整する場合には、フィルタ対称軸AxF(図10(C))に対する重みWの対称性は低い。この結果、第1項Limgの値は小さくなり得るものの、第2項Lfilterの値が大きくなるので、損失関数LFに基づく誤差値は大きくなる。 FIG. 11D is an explanatory diagram of this embodiment. The brightness value Po is the brightness value output by the trained learning model 235 . As illustrated, the peak position PxO of the line PL indicated by the luminance value Po of the output image is approximately the same as the original peak position PxC. The reason for this is as follows. The loss function LF (FIG. 10B) includes a second term Lfilter in addition to the first term Limg. The value of the second term Lfilter increases as the symmetry of the weight W of the filter FL decreases. In the operation by the convolutional layer 310 (FIG. 3), the filter FL is applied to a plurality of evenly spaced positions on the input image (in this example, all pixel positions of the input image). That is, the filter FL is applied to a plurality of positions overlapping one line PL and symmetrical with respect to the symmetry axis AxC of the line PL. Therefore, if the filter FL adjusts the difference between the luminance values Po and Pc asymmetrically with respect to the axis of symmetry AxC of the line PL as shown in FIG. The symmetry of the weight W for (C)) is low. As a result, although the value of the first term Limg can be reduced, the value of the second term Lfilter increases, so the error value based on the loss function LF increases.

損失関数LF(図10(B))に基づく誤差値が小さくなるようにフィルタFLの重みWが調整される場合、フィルタ対称軸AxF(図10(C))に対する重みWの対称性が高くなる。従って、調整済のフィルタFLは、輝度値Po、Pcの差を、線PLの対称軸AxCに対して対称に調整する。この結果、出力画像上の線PLの第2ピーク位置PxOと元のピーク位置PxCとの間のずれは、抑制される。 When the weight W of the filter FL is adjusted so that the error value based on the loss function LF (FIG. 10B) is reduced, the symmetry of the weight W with respect to the filter symmetry axis AxF (FIG. 10C) increases. . Accordingly, the adjusted filter FL adjusts the difference between the luminance values Po, Pc symmetrically with respect to the axis of symmetry AxC of the line PL. As a result, the deviation between the second peak position PxO of the line PL on the output image and the original peak position PxC is suppressed.

S325(図10(A))では、プロセッサ210は、このような損失関数LFに基づくV個の誤差値を用いて、学習モデル235の複数の演算パラメータ(本実施例では、フィルタFLの重みW)を調整する。具体的には、プロセッサ210は、誤差値が小さくなるように、予め決められたアルゴリズムに従って、複数の演算パラメータを調整する。アルゴリズムとしては、例えば、誤差逆伝播法と勾配降下法とを用いたアルゴリズムが用いられる。 In S325 (FIG. 10A), the processor 210 uses V error values based on such a loss function LF to calculate a plurality of calculation parameters of the learning model 235 (in this embodiment, the weight W of the filter FL ). Specifically, processor 210 adjusts a plurality of calculation parameters according to a predetermined algorithm so that the error value becomes small. As an algorithm, for example, an algorithm using backpropagation and gradient descent is used.

S330では、プロセッサ210は、トレーニングが完了したか否かを判断する。トレーニング完了の条件は、例えば、S320で算出された全ての誤差値が予め決められた誤差閾値よりも小さいことであってよい。これに代えて、トレーニング完了の条件は、S315-S325の処理が実行された回数が予め決められた回数閾値以上であることであってよい。 At S330, processor 210 determines whether the training is complete. The training completion condition may be, for example, that all error values calculated in S320 are smaller than a predetermined error threshold. Alternatively, the training completion condition may be that the number of times the processes of S315-S325 have been executed is greater than or equal to a predetermined number threshold.

トレーニングが完了していないと判断される場合(S330:No)、プロセッサ210は、S315へ移行する。トレーニングが完了したと判断される場合(S330:Yes)、S335で、プロセッサ210は、学習モデル235からフィルタFLのデータ(すなわち、Fx×Fy個の重みWのデータ)を抽出する。S340では、プロセッサ210は、フィルタFLのデータであるフィルタデータFLDを、記憶装置215(本実施例では、不揮発性記憶装置230)に格納する。そして、図10(A)の処理は、終了する。 If it is determined that training has not been completed (S330: No), the processor 210 moves to S315. If it is determined that the training has been completed (S330: Yes), in S335 the processor 210 extracts the data of the filter FL (that is, the data of Fx×Fy weights W) from the learning model 235. FIG. In S340, the processor 210 stores the filter data FLD, which is the data of the filter FL, in the storage device 215 (nonvolatile storage device 230 in this embodiment). Then, the processing of FIG. 10A ends.

A4.画像処理:
図12は、フィルタデータFLD(図1)を用いる画像処理の例を示すフローチャートである。この画像処理では、ノズルパターンNPが印刷されたシートSH2の読取データに対して、フィルタFLを用いるフィルタ処理が行われる。この画像処理は、印刷ヘッド110のノズルNzの不具合の確認のために行われる。例えば、印刷装置100の製造時に、図12の処理が行われる。本実施例では、複合機200のプロセッサ210は、第3プログラム233に従って、画像処理を実行する。
A4. Image processing:
FIG. 12 is a flow chart showing an example of image processing using the filter data FLD (FIG. 1). In this image processing, a filtering process using a filter FL is performed on the read data of the sheet SH2 on which the nozzle pattern NP is printed. This image processing is performed to check for defects in the nozzles Nz of the print head 110 . For example, the process of FIG. 12 is performed when the printing apparatus 100 is manufactured. In this embodiment, the processor 210 of the MFP 200 executes image processing according to the third program 233. FIG.

S410では、印刷装置100は、シートSH2上に、ノズルパターンNPを印刷する。例えば、作業者が印刷装置100を操作することによって、印刷装置100にノズルパターンNPを印刷させる。これに代えて、印刷装置100が複合機200に接続され、プロセッサ210が、印刷装置100に印刷指示を供給してもよい。 In S410, the printing apparatus 100 prints the nozzle pattern NP on the sheet SH2. For example, an operator causes the printer 100 to print the nozzle pattern NP by operating the printer 100 . Alternatively, the printing device 100 may be connected to the MFP 200 and the processor 210 may supply the printing instructions to the printing device 100 .

S420では、ノズルパターンNPが印刷されたシートSH2が、読取部300によって読み取られ、読取データが生成される。S430では、プロセッサ210は、読取部300から読取データを取得し、読取データからノズルパターンNPを示す部分を切り出すクロップ処理を実行することによって、対象データを取得する。読取画像中の切り出される部分は、予め決められている。なお、クロップ処理が省略されて、読取データが、そのまま、対象データとして用いられてもよい。 In S420, the sheet SH2 on which the nozzle pattern NP is printed is read by the reading unit 300 to generate read data. In S430, the processor 210 acquires the read data from the reading unit 300, and acquires the target data by executing crop processing for cutting out a portion indicating the nozzle pattern NP from the read data. A portion to be cut out from the read image is determined in advance. Note that the cropping process may be omitted and the read data may be used as it is as the target data.

S440では、プロセッサ210は、対象データに対してフィルタFLを用いるフィルタ処理を実行することによって、処理済画像データを生成する。フィルタ処理は、畳込層310(図3)による畳込処理と同じである。処理済画像データの処理済画像は、対象データのノズルパターンNPと同じ変形していないノズルパターンNPを示している。そして、処理済画像では、ノイズが低減され、コントラストが強調されている。 At S440, the processor 210 generates processed image data by performing filtering using the filter FL on the target data. The filtering process is the same as the convolution process by convolution layer 310 (FIG. 3). The processed image of the processed image data shows the same non-deformed nozzle pattern NP as the nozzle pattern NP of the target data. The processed image then has reduced noise and enhanced contrast.

S450では、プロセッサ210は、処理済画像データを、記憶装置215(本実施例では、不揮発性記憶装置230)に格納する。S460では、プロセッサ210は、処理済画像データを解析することによって、処理済画像のノズルパターンNPが不具合を有しているか否かを判断する。例えば、プロセッサ210は、公知の直線検出方法(例えば、エッジ抽出とハフ変換)に従って、処理済画像内の複数の線PLを検出する。そして、プロセッサ210は、検出された複数の線PLを解析することによって、各線PLの横方向Dxの位置と幅と輝度値とを特定する。1本の注目線の位置と幅と輝度値との少なくとも1つのパラメータ値が、パラメータ値に対応する許容範囲外である場合に、プロセッサ210は、その注目線が不具合を有していると判断する。注目線の位置と幅と輝度値との全てが、対応する許容範囲内である場合には、プロセッサ210は、その注目線に不具合は無いと判断する。S470では、プロセッサ210は、判断結果を示す結果データを、記憶装置215(例えば、不揮発性記憶装置230)に格納する。そして、図12の処理は、終了する。 At S450, processor 210 stores the processed image data in storage device 215 (non-volatile storage device 230 in this example). In S460, the processor 210 determines whether or not the nozzle pattern NP of the processed image has defects by analyzing the processed image data. For example, processor 210 detects multiple lines PL in the processed image according to known line detection methods (eg, edge extraction and Hough transform). Processor 210 then identifies the position, width, and brightness value of each line PL in the horizontal direction Dx by analyzing the plurality of detected lines PL. If at least one parameter value of the position, width, and luminance value of a line of interest is outside the allowable range corresponding to the parameter value, the processor 210 determines that the line of interest has a defect. do. If the position, width, and luminance values of the line of interest are all within the corresponding tolerances, processor 210 determines that the line of interest is flawless. In S470, the processor 210 stores result data indicating the determination result in the storage device 215 (eg, the non-volatile storage device 230). Then, the process of FIG. 12 ends.

以上のように、図10(A)の処理では、画像処理用の畳込フィルタFLが生成される。S315では、プロセッサ210は、学習モデル235にノイズ含有パターン画像データを入力することによって、出力画像データを生成する。図3で説明したように、学習モデル235は、1個の畳込層310で構成されるニューラルネットワークのモデルである。畳込フィルタFLは、入力された画像上の畳込フィルタFLに対応する領域であるフィルタ領域内の複数の画素のそれぞれの重みWを示している。畳込層310は、畳込フィルタFLを用いる畳込演算を行う。S320(図10(A))では、プロセッサ210は、出力画像データと、ノイズ低減パターン画像データと、を用いて、損失関数LFに基づく誤差値を算出する。S325では、プロセッサ210は、誤差値が小さくなるように、畳込フィルタFLの複数の重みWを調整する。S335では、プロセッサ210は、調整された複数の重みWを示す畳込フィルタFLのフィルタデータFLDを、画像処理フィルタのデータとして抽出する。ここで、図8(A)-図8(C)に示すように、ノイズ含有パターン画像850a-850cは、線PLを含むノズルパターンNPの画像であって、ノイズを含む画像である。図5(B)で説明したように、線PL0-PLkは、それぞれの対称軸Ax0-Axkに対して線対称な形状を有している。図9(A)-図9(C)で説明したように、ノイズ低減パターン画像860a-860cは、ノズルパターンNPの画像であって、ノイズ含有パターン画像850a-850cと比べてノイズが低減された画像である。また、ノイズ低減パターン画像860a-860cは、ノイズ含有パターン画像850a-850cのノズルパターンNPと同じノズルパターンNPを、それぞれ示している。そして、図10(B)に示すように、損失関数LFは、第1項Limgと、第2項Lfilterと、を含んでいる。第1項Limgは、出力画像データとノイズ低減パターン画像データとの間の差の大きさを示している。第2項Lfilterは、畳込フィルタFL(図10(C))内のフィルタ対称軸AxFに対する複数の重みWの対称性が高いほど小さくなる。フィルタ対称軸AxFは、線PL0-PLkの対称軸Ax0-Axkに平行である。従って、ノズルパターンNPの画像に対してフィルタFLを用いる画像処理が行われる場合に、ノイズを低減でき、さらに、画像処理に起因するノズルパターンNPの変形を抑制できる。具体的には、図11(A)-図11(D)で説明したように、線PLの位置の変化が、抑制される。 As described above, in the process of FIG. 10A, the convolution filter FL for image processing is generated. At S<b>315 , the processor 210 generates output image data by inputting the noisy pattern image data to the learning model 235 . As described with reference to FIG. 3, the learning model 235 is a neural network model composed of one convolutional layer 310 . The convolution filter FL indicates the weight W of each of a plurality of pixels within the filter area, which is the area corresponding to the convolution filter FL on the input image. A convolution layer 310 performs a convolution operation using a convolution filter FL. In S320 (FIG. 10A), the processor 210 uses the output image data and the noise reduction pattern image data to calculate an error value based on the loss function LF. At S325, the processor 210 adjusts the multiple weights W of the convolution filter FL so that the error value is small. In S335, the processor 210 extracts the filter data FLD of the convolution filter FL indicating the adjusted weights W as the data of the image processing filter. Here, as shown in FIGS. 8(A) to 8(C), the noise-containing pattern images 850a to 850c are images of the nozzle pattern NP including the line PL and containing noise. As described with reference to FIG. 5B, the lines PL0-PLk have shapes that are symmetrical with respect to the respective axes of symmetry Ax0-Axk. As described in FIGS. 9A-9C, the noise-reduced pattern images 860a-860c are images of the nozzle pattern NP with reduced noise compared to the noise-containing pattern images 850a-850c. It is an image. Also, the noise reduction pattern images 860a-860c respectively show the same nozzle patterns NP as the nozzle patterns NP of the noise-containing pattern images 850a-850c. Then, as shown in FIG. 10B, the loss function LF includes a first term Limg and a second term Lfilter. The first term Limg indicates the magnitude of the difference between the output image data and the noise reduction pattern image data. The second term Lfilter decreases as the symmetry of the plurality of weights W with respect to the filter symmetry axis AxF in the convolution filter FL (FIG. 10(C)) increases. The filter axis of symmetry AxF is parallel to the axis of symmetry Ax0-Axk of the line PL0-PLk. Therefore, when image processing using the filter FL is performed on the image of the nozzle pattern NP, noise can be reduced, and deformation of the nozzle pattern NP due to image processing can be suppressed. Specifically, as described with reference to FIGS. 11A to 11D, changes in the position of the line PL are suppressed.

また、トレーニングには、基準のノズルパターンNPの画像データと、非基準のノズルパターンNPの画像データと、の両方が用いられる。従って、学習モデル235(ひいては、フィルタFL)は、読取画像のノズルパターンNPが非基準線を含むか否かに拘わらず、変形していない同じノズルパターンNPの出力画像を生成できる。 Both the image data of the reference nozzle pattern NP and the image data of the non-reference nozzle pattern NP are used for training. Therefore, the learning model 235 (and thus the filter FL) can generate an output image of the same undeformed nozzle pattern NP regardless of whether the nozzle pattern NP of the read image includes non-reference lines.

また、図4のS180、S185、図9(A)-図9(C)で説明したように、誤差値の算出に用いられるノイズ低減パターン画像860a-860cは、ノイズ含有パターン画像850a-850c(図8(A)-図8(C))と比べてコントラストが強調された画像である。従って、フィルタFLを用いる画像処理によって、コントラストを強調できる。 Further, as described in S180 and S185 of FIG. 4 and FIGS. 9A to 9C, the noise reduction pattern images 860a to 860c used for error value calculation are the noise containing pattern images 850a to 850c ( 8(A) to 8(C)) is an image in which the contrast is enhanced. Therefore, contrast can be enhanced by image processing using the filter FL.

また、図10(B)、図10(C)で説明したように、第2項Lfilterは、フィルタFL内のフィルタ対称軸AxFを挟んで線対称な位置に配置される2個の重みの間の差が小さいほど、小さい。従って、フィルタFLを用いる画像処理に起因する線PLの変形(例えば、位置ずれ)を適切に抑制できる。 Further, as described with reference to FIGS. 10B and 10C, the second term Lfilter is defined between two weights arranged in line-symmetrical positions with respect to the filter symmetry axis AxF in the filter FL. The smaller the difference between , the smaller. Therefore, it is possible to appropriately suppress deformation (for example, displacement) of the line PL due to image processing using the filter FL.

また、図12のS410では、印刷装置100(図1)が、シートSH2上にノズルパターンNPを印刷する。印刷装置100は、印刷ヘッド110を備えている。印刷ヘッド110(図2(A)、図2(B))は、インクを吐出するように構成された複数のノズルNzを有している。ノズルパターンNPは、複数の平行な線PLを含んでいる。複数の線PLのそれぞれは、中心軸AxPに対して線対称な形状を有している。1本の線PLは、1個のノズルNzによって印刷されている。S420(図12)では、読取部300は、ノズルパターンNPを光学的に読み取ることによって、ノズルパターンNPの画像の読取データを生成する。S430では、プロセッサ210は、読取データを用いて、ノズルパターンNPの画像データである対象データを取得する。S440では、プロセッサ210は、対象データに対してフィルタFLを用いる画像処理を実行することによって、処理済画像データを生成する。S450では、プロセッサ210は、処理済画像データを記憶装置215に格納する。処理済画像データの画像上では、ノイズが低減され、ノズルパターンNPの複数の線PLの変形が抑制されている。従って、処理済画像データを用いることによって、複数のノズルNzの状態を適切に特定できる。このように、フィルタFLを用いる画像処理は、読取部300によって生成された読取データの画質、特に、印刷装置100によって印刷されたノズルパターンNPの読取画像の画質を向上できる。図2(A)、図2(B)で説明したように、ノズルパターンNPは、複数のノズルNz(図2(A))の品質の確認に利用可能である。例えば、印刷装置100の製造時に、ノズルパターンNPの印刷と目視による確認とが行われ得る。ここで、製造コストを低減する方法として、低濃度で安価なインクを用いてノズルパターンNPを印刷し、印刷されたノズルパターンNPを読取部300で読取り、読取画像の画像処理によってノズルパターンNPの良否(すなわち、ノズルNzの良否)を判定する方法が、採用され得る。しかし、ノズルパターンNPが低濃度のインクで印刷される場合、ノズルパターンNPの色が薄いので、読取画像上でノズルパターンNPと背景との区別が容易ではない。読取画像の明度補正を行うことによって、ノズルパターンNPを強調できる。しかし、シートの模様(例えば、紙の繊維のパターン)やデジタルノイズも強調されてしまい、画像処理によるノズルNzの良否の判定が困難となり得る。本実施例のフィルタFLは、シートの模様(例えば、紙の繊維のパターン)やデジタルノイズを低減できるので、画像処理によるノズルNzの良否の判定の精度を、向上できる。以上により、低濃度で安価なインクを利用できるので、製造コストを大幅に低減できる。なお、図12のS460、S470は、省略されてよい。S450で記憶装置に格納された処理済画像データは、S460、S470の処理に代えて、他の種々の処理で利用可能である。例えば、プロセッサ210は、処理済画像データの処理済画像を表示部240に表示してよい。作業者は、処理済画像を観察することによって、線PLの不具合(ひいては、ノズルNzの不具合)を容易に特定できる。 Further, in S410 of FIG. 12, the printing apparatus 100 (FIG. 1) prints the nozzle pattern NP on the sheet SH2. The printing device 100 has a print head 110 . The print head 110 (FIGS. 2A and 2B) has a plurality of nozzles Nz configured to eject ink. The nozzle pattern NP includes a plurality of parallel lines PL. Each of the plurality of lines PL has a line-symmetrical shape with respect to the central axis AxP. One line PL is printed by one nozzle Nz. In S420 (FIG. 12), the reading unit 300 optically reads the nozzle pattern NP to generate read data of the image of the nozzle pattern NP. In S430, processor 210 acquires target data, which is image data of nozzle pattern NP, using the read data. In S440, processor 210 generates processed image data by performing image processing using filter FL on the target data. At S<b>450 , processor 210 stores the processed image data in storage device 215 . Noise is reduced on the image of the processed image data, and deformation of the lines PL of the nozzle pattern NP is suppressed. Therefore, by using the processed image data, the states of the multiple nozzles Nz can be appropriately identified. Thus, the image processing using the filter FL can improve the image quality of the read data generated by the reading unit 300 , particularly the image quality of the read image of the nozzle pattern NP printed by the printing apparatus 100 . As described with reference to FIGS. 2A and 2B, the nozzle pattern NP can be used to confirm the quality of the plurality of nozzles Nz (FIG. 2A). For example, when the printing apparatus 100 is manufactured, printing of the nozzle pattern NP and visual confirmation may be performed. Here, as a method for reducing the manufacturing cost, the nozzle pattern NP is printed using low-density and inexpensive ink, the printed nozzle pattern NP is read by the reading unit 300, and the nozzle pattern NP is obtained by image processing of the read image. A method of determining quality (that is, quality of nozzle Nz) can be employed. However, when the nozzle pattern NP is printed with low-density ink, the color of the nozzle pattern NP is light, so it is not easy to distinguish between the nozzle pattern NP and the background on the read image. By correcting the brightness of the read image, the nozzle pattern NP can be emphasized. However, sheet patterns (for example, paper fiber patterns) and digital noise are also emphasized, making it difficult to determine the quality of the nozzles Nz by image processing. Since the filter FL of the present embodiment can reduce sheet patterns (for example, paper fiber patterns) and digital noise, it is possible to improve the accuracy of determining whether the nozzles Nz are good or bad by image processing. As described above, low-concentration, low-cost ink can be used, so that the manufacturing cost can be greatly reduced. Note that S460 and S470 in FIG. 12 may be omitted. The processed image data stored in the storage device in S450 can be used in various other processes instead of the processes in S460 and S470. For example, processor 210 may display the processed image of the processed image data on display 240 . By observing the processed image, the operator can easily identify defects in the lines PL (and thus defects in the nozzles Nz).

また、本実施例では、学習モデル235に代えて、フィルタFLを用いて画像処理が行われる。従って、画像処理の計算量を大幅に低減できる。 Also, in this embodiment, image processing is performed using a filter FL instead of the learning model 235 . Therefore, the computational complexity of image processing can be greatly reduced.

B.第2実施例:
図13は、学習モデルの別の実施例の説明図である。本実施例の学習モデル235dは、オートエンコーダとも呼ばれる人工ニューラルネットワークのモデルである。本実施例では、学習モデル235dは、入力された画像データを用いて、ノイズが低減された画像データを生成する。学習モデル235dは、上記の学習モデル235の代わりに利用可能である。
B. Second embodiment:
FIG. 13 is an explanatory diagram of another example of the learning model. The learning model 235d of this embodiment is a model of an artificial neural network, also called an autoencoder. In this embodiment, the learning model 235d uses the input image data to generate noise-reduced image data. Learning model 235d can be used in place of learning model 235 above.

学習モデル235dは、例えば、第1エンコーダ411と、第2エンコーダ412と、第3エンコーダ413と、第3デコーダ415と、第2デコーダ416と、第1デコーダ417と、を備えている。これらの処理部411-413、415-417は、この順番に接続されている。エンコーダ411-413は、画像の特徴を抽出することによって、抽出された特徴を示す潜在変数414を生成する。各エンコーダ411-413は、例えば、畳込層と畳込層からのデータを処理するプーリング層とで構成されている。デコーダ415-417は、潜在変数414によって示される特徴を復元して画像データを生成する。各デコーダ415-417は、例えば、畳込層と畳込層からのデータを処理するアップサンプリング層とで構成されている。 The learning model 235d includes a first encoder 411, a second encoder 412, a third encoder 413, a third decoder 415, a second decoder 416, and a first decoder 417, for example. These processing units 411-413 and 415-417 are connected in this order. Encoders 411-413 extract image features to generate latent variables 414 indicative of the extracted features. Each encoder 411-413 is composed, for example, of a convolutional layer and a pooling layer that processes data from the convolutional layer. Decoders 415-417 recover the features indicated by latent variables 414 to generate image data. Each decoder 415-417 is composed, for example, of a convolutional layer and an upsampling layer that processes data from the convolutional layer.

学習モデル235dのトレーニングには、図4の実施例で生成されたノイズ含有パターン画像とノイズ低減パターン画像とが用いられる。トレーニングは、図10(A)の実施例と同様に、行われる。以下、複合機200(図1)が、トレーニングを実行することとして、説明する。なお、トレーニングは、高い演算能力を有する他のデータ処理装置によって、実行されてよい。 The noise-containing and noise-reduced pattern images generated in the example of FIG. 4 are used to train learning model 235d. Training is performed similarly to the example of FIG. 10(A). In the following description, it is assumed that the MFP 200 (FIG. 1) executes the training. It should be noted that the training may be performed by other data processing devices with high computing power.

S352(図13)では、プロセッサ210は、ノイズ含有パターン画像データ850dを学習モデル235dに入力する。S354では、プロセッサ210は、学習モデル235dの演算を行うことによって、出力画像データ870dを生成する。S356では、プロセッサ210は、ノイズ低減パターン画像データ860dと出力画像データ870dとから損失関数LF(図10(B))に従って誤差値890dを算出する。なお、ノイズ低減パターン画像データ860dは、ノイズ含有パターン画像データ850dに対応付けられたデータである。S358では、プロセッサ210は、誤差値890dが小さくなるように、予め決められたアルゴリズムに従って、学習モデル235dの演算パラメータを調整する。調整される演算パラメータは、処理部411-413、415-417の畳込フィルタの重みとバイアスとを含んでいる。アルゴリズムとしては、例えば、誤差逆伝播法と勾配降下法とを用いたアルゴリズムが用いられる。プロセッサ210は、以上のS352-S358を、繰り返す。そして、トレーニング完了の条件が満たされたことに応じて、S360で、プロセッサ210は、学習済の学習モデル235dを、不揮発性記憶装置230に格納する。 At S352 (FIG. 13), the processor 210 inputs the noisy pattern image data 850d to the learning model 235d. In S354, processor 210 generates output image data 870d by performing calculations on learning model 235d. In S356, processor 210 calculates error value 890d from noise reduction pattern image data 860d and output image data 870d according to loss function LF (FIG. 10B). The noise reduction pattern image data 860d is data associated with the noise containing pattern image data 850d. In S358, processor 210 adjusts the calculation parameters of learning model 235d according to a predetermined algorithm so that error value 890d is reduced. The operational parameters that are adjusted include the weights and biases of the convolution filters of processing units 411-413, 415-417. As an algorithm, for example, an algorithm using backpropagation and gradient descent is used. The processor 210 repeats the above S352-S358. Then, in response to the training completion condition being satisfied, the processor 210 stores the learned learning model 235d in the non-volatile storage device 230 in S360.

学習済の学習モデル235dは、画像データのノイズ低減処理に利用される。プロセッサ210は、ノズルパターンNPの読取データ750d(図13)を学習モデル235dに入力する。そして、プロセッサ210は、学習モデル235dの演算を行うことによって、ノイズが低減された画像の出力データ770dを生成できる。 The learned learning model 235d is used for noise reduction processing of image data. The processor 210 inputs the read data 750d (FIG. 13) of the nozzle pattern NP to the learning model 235d. Processor 210 can then generate noise-reduced image output data 770d by performing operations on learning model 235d.

C.第3実施例:
図14は、学習データの生成処理の別の実施例を示すフローチャートである。図4の実施例との差異は、ノズルパターンNPの画像の代わりに文字の画像が生成される点である。S105は、図4のS105と同じである。S110aでは、プロセッサ210は、処理対象の文字である対象文字を選択する。本実施例では、対象文字は、文字と書体との組み合わせによって特定される。文字は、予め決められた文字セット(例えば、アルファベットと数字のセット)から選択される。書体は、予め決められた複数の書体(例えば、標準、太字、斜体)から選択される。S135aでは、プロセッサ210は、対象文字の画像である文字画像の文字画像データを生成する。文字を示す画素の輝度値はゼロに設定され、背景を示す画素の輝度値は255に設定される。S150aでは、プロセッサ210は、S150(図4)と同様に、文字画像データの平滑化処理を実行する。図15(A)-図15(D)は、学習データの説明図である。図15(A)、図15(B)には、文字画像810e、810fが示されている。本実施例では、文字画像810e、810fは、1個の文字の画像である。文字画像810e、810fのサイズは、予め決められている。
C. Third embodiment:
FIG. 14 is a flow chart showing another embodiment of the learning data generation process. The difference from the embodiment of FIG. 4 is that an image of characters is generated instead of an image of the nozzle pattern NP. S105 is the same as S105 in FIG. In S110a, processor 210 selects a target character, which is a character to be processed. In this embodiment, the target character is identified by a combination of character and typeface. Characters are selected from a predetermined character set (eg, a set of alphabets and numbers). The typeface is selected from a plurality of predetermined typefaces (eg, normal, bold, italic). In S135a, processor 210 generates character image data of a character image that is an image of the target character. The luminance value of pixels representing text is set to zero, and the luminance value of pixels representing background is set to 255. In S150a, the processor 210 executes the smoothing process of the character image data, similarly to S150 (FIG. 4). 15A to 15D are explanatory diagrams of learning data. Character images 810e and 810f are shown in FIGS. 15A and 15B. In this embodiment, the character images 810e and 810f are images of one character. The sizes of the character images 810e and 810f are predetermined.

S155a(図14)では、プロセッサ210は、S155(図4)と同様に、第1種背景画像データを生成する。第1種背景画像のサイズは、文字画像のサイズと同じである。図15(A)、図15(B)には、第1種背景画像830e、830fが示されている。S160aでは、プロセッサ210は、S160(図4)と同様に、ノイズ含有文字画像データを生成する。図15(A)、図15(B)には、ノイズ含有文字画像850e、850fが示されている。ノイズ含有文字画像850e、850fの輝度値Pn(x,y)は、文字画像810e、810fの輝度値Pt(x,y)と第1種背景画像830e、830fの輝度値Pu(x,y)とを用いて、図8(D)の関係式に従って算出される。S165aでは、プロセッサ210は、生成したノイズ含有文字画像データを、記憶装置215(本実施例では、不揮発性記憶装置230)に格納する。 At S155a (FIG. 14), the processor 210 generates the first type background image data as at S155 (FIG. 4). The size of the first type background image is the same as the size of the character image. 15(A) and 15(B) show type 1 background images 830e and 830f. In S160a, processor 210 generates noise-containing character image data, as in S160 (FIG. 4). Noise-containing character images 850e and 850f are shown in FIGS. 15A and 15B. The luminance values Pn(x, y) of the noise-containing character images 850e, 850f are the luminance values Pt(x, y) of the character images 810e, 810f and the luminance values Pu(x, y) of the first type background images 830e, 830f. is calculated according to the relational expression of FIG. 8(D). In S165a, the processor 210 stores the generated noise-containing character image data in the storage device 215 (nonvolatile storage device 230 in this embodiment).

S170aでは、プロセッサ210は、S170(図4)と同様に、第1種背景画像の代表色値を特定する。S175aでは、プロセッサ210は、S175(図4)と同様に、ノイズ低減文字画像データを生成する。図15(C)、図15(D)には、文字画像810e、810fと、代表色値によって表される第2種背景画像830em、830fmと、ノイズ低減文字画像851e、851fと、が示されている。ノイズ低減文字画像851e、851fの輝度値Pc(x,y)は、文字画像810e、810fの輝度値Pt(x,y)と第2種背景画像830em、830fmの輝度値Pum(x,y)とを用いて、図9(D)の関係式に従って算出される。 At S170a, the processor 210 identifies representative color values of the first type background image, as at S170 (FIG. 4). In S175a, processor 210 generates noise-reduced character image data, as in S175 (FIG. 4). 15C and 15D show character images 810e and 810f, second-type background images 830em and 830fm represented by representative color values, and noise-reduced character images 851e and 851f. ing. The luminance values Pc(x, y) of the noise-reduced character images 851e, 851f are the luminance values Pt(x, y) of the character images 810e, 810f and the luminance values Pum(x, y) of the second type background images 830em, 830fm. is calculated according to the relational expression of FIG. 9(D).

S180aでは、プロセッサ210は、S180(図4)と同様に、ノイズ低減文字画像データのコントラスト強調処理を実行する。図15(C)、図15(D)には、コントラストが強調されたノイズ低減文字画像860e-860fが示されている。S185aでは、プロセッサ210は、コントラストが調整された調整済ノイズ低減文字画像データを、ノイズ含有文字画像データと対応付けて、記憶装置215(本実施例では、不揮発性記憶装置230)に格納する。 In S180a, processor 210 executes contrast enhancement processing of the noise-reduced character image data, as in S180 (FIG. 4). FIGS. 15(C) and 15(D) show noise-reduced character images 860e-860f with enhanced contrast. In S185a, the processor 210 stores the adjusted noise-reduced character image data whose contrast has been adjusted in the storage device 215 (non-volatile storage device 230 in this embodiment) in association with the noise-containing character image data.

S190aでは、プロセッサ210は、画像データの生成が完了したか否かを判断する。本実施例では、完了の条件は、複数の文字と複数の書体との全ての組み合わせの画像データが生成されたことである。S110aでは、未処理の組み合わせが選択される。なお、完了の条件は、他の種々の条件であってよい。 At S190a, processor 210 determines whether or not generation of image data is completed. In this embodiment, the completion condition is that image data of all combinations of a plurality of characters and a plurality of typefaces have been generated. At S110a, an unprocessed combination is selected. Note that the completion condition may be other various conditions.

本実施例で生成されるノイズ含有文字画像データと調整済ノイズ低減文字画像データとは、学習モデル235、235d(図3、図13)などの種々の予測モデルのトレーニングに利用できる。ここで、文字画像データは、線対称ではない文字を表し得る(例えば、「F」の文字は線対称ではない)。従って、損失関数LF(図10(B))からは、第2項Lfilterは省略される。 The noise-containing text image data and the adjusted noise-reduced text image data generated in this embodiment can be used to train various predictive models, such as learning models 235, 235d (FIGS. 3, 13). Here, the character image data may represent characters that are not line-symmetrical (eg, the letter "F" is not line-symmetrical). Therefore, the second term Lfilter is omitted from the loss function LF (FIG. 10(B)).

D.第4実施例:
図16は、学習モデルの別の実施例の説明図である。本実施例の学習モデル235gは、畳み込みニューラルネットワークとも呼ばれる人工ニューラルネットワークのモデルである。本実施例では、学習モデル235gは、画像を複数のカテゴリに分類する。具体的には、学習モデル235gは、ノズルパターンNPの画像を、基準のノズルパターンNPと非基準のノズルパターンNPとに分類する。
D. Fourth embodiment:
FIG. 16 is an explanatory diagram of another example of the learning model. The learning model 235g of this embodiment is a model of an artificial neural network, also called a convolutional neural network. In this example, learning model 235g classifies images into multiple categories. Specifically, the learning model 235g classifies the image of the nozzle pattern NP into a reference nozzle pattern NP and a non-reference nozzle pattern NP.

学習モデル235gは、例えば、第1畳込層421と、第1プーリング層422と、第2畳込層423と、第2プーリング層424と、第1全結合層425と、第2全結合層426と、第3全結合層427と、を備えている。これらの処理部421-427は、この順番に接続されている。この学習モデル235gは、典型的な畳み込みニューラルネットワークのモデルである。学習モデル235gは、入力された画像データを用いて、基準のノズルパターンNPの確率PAと、非基準のノズルパターンNPの確率PBと、を示す出力データODを生成する。 The learning model 235g includes, for example, a first convolutional layer 421, a first pooling layer 422, a second convolutional layer 423, a second pooling layer 424, a first fully connected layer 425, and a second fully connected layer. 426 and a third fully connected layer 427 . These processing units 421-427 are connected in this order. This learning model 235g is a model of a typical convolutional neural network. The learning model 235g uses the input image data to generate output data OD indicating the probability PA of the reference nozzle pattern NP and the probability PB of the non-reference nozzle pattern NP.

学習モデル235gのトレーニングには、図4の実施例で生成されたノイズ含有パターン画像が用いられる。上述したように、複数のノイズ含有パターン画像は、基準のノズルパターンNPを表す画像と、非基準のノズルパターンNPを表す画像と、を含んでいる。各ノイズ含有パターン画像には、「基準」または「非基準」を示すラベルデータが対応付けられる。このラベルデータは、出力データの目標値である教師データとして、利用される。本実施例では、調整済ノイズ低減パターン画像データは利用されない。従って、調整済ノイズ低減パターン画像データの生成は、省略されてよい。以下、複合機200(図1)が、トレーニングを実行することとして、説明する。なお、トレーニングは、高い演算能力を有する他のデータ処理装置によって、実行されてよい。 The noisy pattern images generated in the example of FIG. 4 are used to train the learning model 235g. As described above, the multiple noise-containing pattern images include an image representing the reference nozzle pattern NP and an image representing the non-reference nozzle pattern NP. Label data indicating "reference" or "non-reference" is associated with each noise-containing pattern image. This label data is used as teacher data, which is the target value of the output data. In this embodiment, adjusted noise reduction pattern image data is not utilized. Therefore, the generation of adjusted noise reduction pattern image data may be omitted. In the following description, it is assumed that the MFP 200 (FIG. 1) executes the training. It should be noted that the training may be performed by other data processing devices with high computing power.

S372(図16)では、プロセッサ210は、ノイズ含有パターン画像データ850gを学習モデル235gに入力する。S374では、プロセッサ210は、学習モデル235gの演算を行うことによって、出力データODを生成する。S376では、プロセッサ210は、出力データODと教師データ880gとを用いて、予め決められた損失関数に従って、誤差値890gを算出する。損失関数は、分類に適した種々の関数であってよく、例えば、クロスエントロピー誤差であってよい。教師データ880gは、ノイズ含有パターン画像データ850gに対応付けられたラベルデータである。S378では、プロセッサ210は、誤差値890gが小さくなるように、予め決められたアルゴリズムに従って、学習モデル235gの演算パラメータを調整する。調整される演算パラメータは、畳込層421、423の畳込フィルタの重みとバイアスと、全結合層425、426、427の重みとバイアスと、を含んでいる。アルゴリズムとしては、例えば、誤差逆伝播法と勾配降下法とを用いたアルゴリズムが用いられる。プロセッサ210は、以上のS372-S378を、繰り返す。そして、トレーニング完了の条件が満たされたことに応じて、S380で、プロセッサ210は、学習済の学習モデル235gを、不揮発性記憶装置230に格納する。 At S372 (FIG. 16), the processor 210 inputs the noisy pattern image data 850g to the learning model 235g. In S374, the processor 210 generates the output data OD by operating the learning model 235g. In S376, processor 210 calculates error value 890g according to a predetermined loss function using output data OD and teacher data 880g. The loss function can be various functions suitable for classification, for example the cross-entropy error. The teacher data 880g is label data associated with the noise-containing pattern image data 850g. In S378, processor 210 adjusts the calculation parameters of learning model 235g according to a predetermined algorithm so that error value 890g is reduced. The operational parameters that are adjusted include the weights and biases of the convolutional filters of the convolutional layers 421 and 423 and the weights and biases of the fully connected layers 425 , 426 and 427 . As an algorithm, for example, an algorithm using backpropagation and gradient descent is used. Processor 210 repeats the above S372-S378. Then, in response to the training completion condition being satisfied, the processor 210 stores the learned learning model 235g in the non-volatile storage device 230 in S380.

学習済の学習モデル235gは、ノズルパターンNPの分類に利用される。プロセッサ210は、ノズルパターンNPの読取データ750g(図16)を学習モデル235gに入力する。そして、プロセッサ210は、学習モデル235gの演算を行うことによって、出力データODを生成する。プロセッサ210は、出力データODの確率PA、PBを参照し、入力画像のノズルパターンNPを、最も高い確率のカテゴリに分類する。 The learned learning model 235g is used for classification of the nozzle pattern NP. The processor 210 inputs the read data 750g (FIG. 16) of the nozzle pattern NP to the learning model 235g. The processor 210 then generates the output data OD by performing calculations on the learning model 235g. The processor 210 refers to the probabilities PA, PB of the output data OD and classifies the nozzle pattern NP of the input image into the highest probability category.

E.変形例:
(1)学習画像データの生成処理は、上記の処理に代えて、他の種々の処理であってよい。例えば、図4、図14のS105では、1枚のシートの1個の読取データが取得されてよい。そして、S155、S155aでは、1個の読取データから、第1種背景画像データが生成されてよい。また、1個の第1種背景画像データは、複数の学習画像データに共通に用いられてもよい。また、図9(D)の重みk1は、図8(D)の重みk1と異なっていてよい。また、図9(D)の重みk2は、図8(D)の重みk2と異なっていてよい。いずれの場合も、図9(D)の重みk1、k2は、それぞれ、ゼロよりも大きいことが好ましい。また、図6(A)の処理で、幅と輝度値と位置との3個のパラメータのうち、基準の値から変更され得るパラメータは、1個、または、2個のパラメータであってよい。すなわち、3個のパラメータのうち、1個、または、2個のパラメータは、基準の値に固定されてよい。
E. Variant:
(1) The process of generating learning image data may be various other processes instead of the above process. For example, in S105 of FIGS. 4 and 14, one read data of one sheet may be obtained. Then, in S155 and S155a, the first type background image data may be generated from one piece of read data. Also, one piece of type 1 background image data may be used in common for a plurality of pieces of learning image data. Also, the weight k1 in FIG. 9(D) may be different from the weight k1 in FIG. 8(D). Also, the weight k2 in FIG. 9(D) may be different from the weight k2 in FIG. 8(D). In any case, the weights k1 and k2 in FIG. 9(D) are each preferably greater than zero. Also, in the processing of FIG. 6A, among the three parameters of width, luminance value, and position, only one or two parameters may be changed from the reference values. That is, one or two of the three parameters may be fixed at the reference value.

また、図4、図14の処理において、平滑化を行うS150、S150aは、省略されてよい。また、コントラストを調整するS180、S180aは、省略されてよい。 Further, in the processing of FIGS. 4 and 14, S150 and S150a for smoothing may be omitted. Moreover, S180 and S180a for adjusting the contrast may be omitted.

(2)損失関数LF(図10(B))の第2項Lfilterは、線対称な位置の2個の重みの差が大きいほど大きい値を算出する種々の関数で表されてよい。例えば、第2項Lfilterは、2個の重みの差分の二乗の平均値であってよい。 (2) The second term Lfilter of the loss function LF (FIG. 10B) may be represented by various functions that calculate a larger value as the difference between two weights at line-symmetrical positions increases. For example, the second term Lfilter may be the average squared difference of the two weights.

(3)フィルタFL(図10(C))のサイズは、種々のサイズであってよい。例えば、Fx=7、Fy=7であってよい。また、横サイズFxは、縦サイズFyと異なっていてもよい。また、フィルタ対称軸AxFに対する重みWの対称性を向上するためには、フィルタ対称軸AxFに垂直な方向のサイズ(ここでは、横サイズFx)は、奇数であることが好ましい。 (3) The size of the filter FL (FIG. 10(C)) may be of various sizes. For example, Fx=7 and Fy=7. Moreover, the horizontal size Fx may be different from the vertical size Fy. Also, in order to improve the symmetry of the weight W with respect to the filter axis of symmetry AxF, the size in the direction perpendicular to the filter axis of symmetry AxF (here, horizontal size Fx) is preferably an odd number.

(4)印刷装置100によって印刷されるテストパターンは、複数の線PL(図2(A))を含むノズルパターンNPに代えて、他の種々のパターンであってよい。例えば、テストパターンは、複数の縦線と複数の横線とを含む格子パターンであってよい。テストパターンは、円、楕円、三角形、矩形などの種々の形状のパターンを含んでよい。テストパターンは、線、円、楕円、三角形、矩形のように、対称軸に対して線対称な形状を有する特定部分を含んでよい。損失関数LFが、フィルタFLの重みWの対称性を向上する第2項を含む場合には、フィルタFLを用いる画像処理に起因する特定部分の変形(例えば、位置ずれ)を抑制できる。また、フィルタFLのフィルタ対称軸AxFに垂直な方向のサイズ(図10(C)の例では、横サイズFx)は、特定部分の対称軸に垂直な方向の大きさ(例えば、線PLの幅)と同程度、または、それよりも小さくてよい。テストパターンは、上記の特定部分(例えば、ノズルパターンNP)と、文字と、の両方を含んでよい。テストパターンは、図形と文字との両方を含んでよい。なお、テストパターンからは、上記の特定部分が省略されてもよい。この場合、損失関数LFからは、第2項が省略されてよい。 (4) The test pattern printed by the printing apparatus 100 may be various other patterns instead of the nozzle pattern NP including a plurality of lines PL (FIG. 2A). For example, the test pattern may be a grid pattern including a plurality of vertical lines and a plurality of horizontal lines. The test patterns may include patterns of various shapes such as circles, ellipses, triangles, rectangles, and the like. A test pattern may include specific portions having shapes that are symmetrical about an axis of symmetry, such as lines, circles, ellipses, triangles, and rectangles. When the loss function LF includes a second term that improves the symmetry of the weight W of the filter FL, it is possible to suppress deformation (for example, displacement) of a specific portion due to image processing using the filter FL. In addition, the size of the filter FL in the direction perpendicular to the filter axis of symmetry AxF (the horizontal size Fx in the example of FIG. 10C) is the size of the specific portion in the direction perpendicular to the axis of symmetry (for example, the width of the line PL ) or smaller. The test pattern may include both the specific portion (for example, the nozzle pattern NP) and characters. The test pattern may contain both graphics and characters. Note that the above specific portion may be omitted from the test pattern. In this case, the second term may be omitted from the loss function LF.

(5)画像データは、複数の色成分で表されてよい(例えば、RGB、CMYK、YCbCr等)。上記の読取データ、入力データ、出力データ、学習画像データ(ノイズ含有パターン画像データ、ノイズ低減パターン画像データなど)、対象データは、それぞれ、RGBのビットマップデータであってよい。画像データの各画素の色値がu個(uは1以上の整数)の色成分のu個の階調値で表される場合、図3、図10(C)の畳込フィルタFLは、Fx×Fy×u個の重みを含む。この1個の畳込フィルタFLは、u個の色成分に対応するu枚のサブフィルタに分解可能である。1枚のサブフィルタは、Fx×Fy個の重みで構成され、そのサブフィルタに対応付けられた色成分の階調値に適用される。ここで、損失関数LF(図10(B))の第2項Lfilterは、u枚のサブフィルタのそれぞれの対称性の高さを示す総合的な評価値であることが好ましい。例えば、図10(B)に示す第2項Lfilterの算出式は、1枚のサブフィルタの評価値の算出式として利用可能である。u枚のサブフィルタの総合的な評価値としては、u枚のサブフィルタのu個の評価値を用いて特定される種々の値(例えば、平均値、中央値などの代表値や、合計値)が、用いられてよい。 (5) Image data may be represented by multiple color components (eg, RGB, CMYK, YCbCr, etc.). The read data, input data, output data, learning image data (noise-containing pattern image data, noise reduction pattern image data, etc.), and target data may each be RGB bitmap data. When the color value of each pixel of the image data is represented by u gradation values of u (u is an integer equal to or greater than 1) color components, the convolution filter FL in FIGS. It contains Fx×Fy×u weights. This single convolution filter FL can be decomposed into u sub-filters corresponding to u color components. One sub-filter is composed of Fx×Fy weights and is applied to the gradation value of the color component associated with that sub-filter. Here, the second term Lfilter of the loss function LF (FIG. 10(B)) is preferably a comprehensive evaluation value indicating the degree of symmetry of each of the u sub-filters. For example, the formula for calculating the second term Lfilter shown in FIG. 10B can be used as the formula for calculating the evaluation value of one sub-filter. As a comprehensive evaluation value of u sub-filters, various values specified using u evaluation values of u sub-filters (for example, representative values such as average value, median value, total value ) may be used.

(6)予測モデルの構成は、図3、図13、図16の学習モデル235、235d、235gの構成に代えて、他の種々の構成であってよい。予測モデルは、画像データのノイズ低減、または、画像データの分類を行うモデルに限らず、他の種々の処理を行うモデルであってよい。予測モデルは、例えば、人工ニューラルネットワークと、隠れマルコフモデルと、推論エンジンと、のグループから任意に選択された1以上のモデルを含んでよい。 (6) The configuration of the prediction model may be various other configurations instead of the configurations of the learning models 235, 235d and 235g of FIGS. 3, 13 and 16. FIG. The prediction model is not limited to a model that performs noise reduction of image data or a model that classifies image data, and may be a model that performs other various processes. Predictive models may include, for example, one or more models arbitrarily selected from the group of artificial neural networks, hidden Markov models, and inference engines.

(7)光学的な読み取りに用いられる装置は、読取部300に代えて、デジタルカメラなどの種々の読取装置であってよい。 (7) The device used for optical reading may be various reading devices such as a digital camera instead of the reading unit 300 .

(8)学習画像データの生成と、予測モデルのトレーニングと、フィルタを用いる画像処理とのそれぞれのデータ処理は、互いに異なるデータ処理装置によって、実行されてよい。データ処理装置は、複合機200とは異なる種類の装置(例えば、パーソナルコンピュータ、デジタルカメラ、スキャナ、スマートフォン)であってよい。また、ネットワークを介して互いに通信可能な複数の装置(例えば、コンピュータ)が、データ処理装置によるデータ処理の機能を一部ずつ分担して、全体として、データ処理の機能を提供してもよい(これらの装置を備えるシステムがデータ処理装置に対応する)。 (8) The data processing of generation of learning image data, training of prediction models, and image processing using filters may be performed by different data processing devices. The data processing device may be a device of a different type from the MFP 200 (eg, personal computer, digital camera, scanner, smart phone). In addition, a plurality of devices (for example, computers) that can communicate with each other via a network may share the function of data processing by the data processing device, and provide the function of data processing as a whole ( A system comprising these devices corresponds to a data processing device).

上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部あるいは全部をハードウェアに置き換えるようにしてもよい。例えば、学習モデル235、235d、235g(図3、図13、図16)は、プログラムモジュールに代えて、ASIC(Application Specific Integrated Circuit)等のハードウェア回路によって実現されてよい。 In each of the above embodiments, part of the configuration implemented by hardware may be replaced with software, or conversely, part or all of the configuration implemented by software may be replaced with hardware. good too. For example, the learning models 235, 235d, and 235g (FIGS. 3, 13, and 16) may be realized by hardware circuits such as ASICs (Application Specific Integrated Circuits) instead of program modules.

また、本発明の機能の一部または全部がコンピュータプログラムで実現される場合には、そのプログラムは、コンピュータ読み取り可能な記録媒体(例えば、一時的ではない記録媒体)に格納された形で提供することができる。プログラムは、提供時と同一または異なる記録媒体(コンピュータ読み取り可能な記録媒体)に格納された状態で、使用され得る。「コンピュータ読み取り可能な記録媒体」は、メモリーカードやCD-ROMのような携帯型の記録媒体に限らず、各種ROM等のコンピュータ内の内部記憶装置や、ハードディスクドライブ等のコンピュータに接続されている外部記憶装置も含み得る。 In addition, when part or all of the functions of the present invention are realized by a computer program, the program is provided in a form stored in a computer-readable recording medium (for example, a non-temporary recording medium). be able to. The program can be used while being stored in the same or different recording medium (computer-readable recording medium) as when it was provided. "Computer-readable recording medium" is not limited to portable recording media such as memory cards and CD-ROMs, but also internal storage devices such as various ROMs in computers, and hard disk drives that are connected to computers. An external storage device may also be included.

以上、実施例、変形例に基づき本発明について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。 Although the present invention has been described above based on examples and modifications, the above-described embodiments of the present invention are intended to facilitate understanding of the present invention, and are not intended to limit the present invention. The present invention may be modified and improved without departing from its spirit, and the present invention includes equivalents thereof.

100…印刷装置、110…印刷ヘッド、200…複合機、205…制御部、210…プロセッサ、215…記憶装置、220…揮発性記憶装置、230…不揮発性記憶装置、231…第1プログラム、232…第2プログラム、233…第3プログラム、235、235d、235g…学習モデル、240…表示部、250…操作部、260…印刷部、270…通信インタフェース、300…読取部、310…畳込層、411…第1エンコーダ、412…第2エンコーダ、413…第3エンコーダ、415…第3デコーダ、416…第2デコーダ、417…第1デコーダ、421…第1畳込層、422…第1プーリング層、423…第2畳込層、424…第2プーリング層、425…第1全結合層、426…第2全結合層、427…第3全結合層、D1…第1方向、D2…第2方向、FL…畳込フィルタ、Dx…横方向、Dy…縦方向、Nz…ノズル DESCRIPTION OF SYMBOLS 100...Printing apparatus 110...Print head 200...MFP 205...Control part 210...Processor 215...Storage device 220...Volatile storage device 230...Nonvolatile storage device 231...First program 232 2nd program 233 3rd program 235, 235d, 235g learning model 240 display unit 250 operation unit 260 printing unit 270 communication interface 300 reading unit 310 convolution layer , 411... first encoder, 412... second encoder, 413... third encoder, 415... third decoder, 416... second decoder, 417... first decoder, 421... first convolution layer, 422... first pooling Layers 423... Second convolution layer 424... Second pooling layer 425... First fully connected layer 426... Second fully connected layer 427... Third fully connected layer D1... First direction D2... Third Two directions, FL... Convolution filter, Dx... Horizontal direction, Dy... Vertical direction, Nz... Nozzle

Claims (9)

予測モデルのトレーニングのための学習画像データの生成方法であって、
印刷用のシートを光学的に読み取って得られるシート画像の少なくとも一部である第1種背景画像と、オブジェクトの画像であるオブジェクト画像と、を用いて、前記第1種背景画像上に前記オブジェクトが配置された画像である第1種学習画像の第1種学習画像データを生成する第1生成工程と、
生成された第1種学習画像データを記憶装置に格納する第1格納工程と、
を備え、
前記第1生成工程は、
前記第1種学習画像上の前記オブジェクトを示す第1オブジェクト画素の色値を決定する工程であって、前記第1オブジェクト画素の色値を、前記オブジェクト画像上の前記第1オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第1種オブジェクト係数を乗じて得られる値と、前記第1種背景画像上の前記第1オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第1種背景係数を乗じて得られる値と、の合計値を用いて決定する工程と、
前記第1種学習画像上の前記オブジェクトが配置されない部分を示す第1背景画素の色値を決定する工程であって、前記第1背景画素の色値を、前記第1種背景画像上の前記第1背景画素の位置に対応付けられた画素の色値に前記第1種背景係数よりも大きい係数を乗じて得られる値を用いて決定する工程と、を含む、
生成方法。
A method of generating training image data for training a predictive model, comprising:
Using a first type background image that is at least part of a sheet image obtained by optically reading a printing sheet and an object image that is an image of an object, the object is displayed on the first type background image. a first generation step of generating type 1 learning image data of a type 1 learning image that is an image in which is arranged;
a first storing step of storing the generated type 1 learning image data in a storage device;
with
The first generation step includes
determining a color value of a first object pixel representing the object on the first type learning image, wherein the color value of the first object pixel is mapped to the position of the first object pixel on the object image; A value obtained by multiplying the color value of the associated pixel by a first-type object coefficient greater than zero, and the color value of the pixel associated with the position of the first object pixel on the first-type background image. a value obtained by multiplying by a type 1 background factor greater than zero; and
A step of determining a color value of a first background pixel indicating a portion of the first type learning image in which the object is not arranged, wherein the color value of the first background pixel is set to the determining using a value obtained by multiplying the color value of the pixel associated with the position of the first background pixel by a coefficient larger than the first type background coefficient;
generation method.
請求項1に記載の生成方法であって、
前記第1種背景画像上の複数の位置に対応付けられた複数の色値を代表する代表色値を特定する代表色値特定工程と、
前記代表色値によって表される第2種背景画像と、前記オブジェクト画像と、を用いて、前記第2種背景画像上に前記オブジェクトが配置された画像である第2種学習画像の第2種学習画像データを生成する第2生成工程と、
生成された第2種学習画像データを前記記憶装置に格納する第2格納工程と、
を備え、
前記第2生成工程は、
前記第2種学習画像上の前記オブジェクトを示す第2オブジェクト画素の色値を決定する工程であって、前記第2オブジェクト画素の色値を、前記オブジェクト画像上の前記第2オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第2種オブジェクト係数を乗じて得られる値と、前記第2種背景画像上の前記第2オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第2種背景係数を乗じて得られる値と、の合計値を用いて決定する工程と、
前記第2種学習画像上の前記オブジェクトが配置されない部分を示す第2背景画素の色値を決定する工程であって、前記第2背景画素の色値を、前記第2種背景画像上の前記第2背景画素の位置に対応付けられた画素の色値に前記第2種背景係数よりも大きい係数を乗じて得られる値を用いて決定する工程と、を含む、
生成方法。
The method of claim 1, comprising:
a representative color value specifying step of specifying a representative color value representing a plurality of color values associated with a plurality of positions on the first type background image;
A second type of a type 2 learning image, which is an image in which the object is arranged on the type 2 background image, using the type 2 background image represented by the representative color value and the object image. a second generation step of generating learning image data;
a second storing step of storing the generated type 2 learning image data in the storage device;
with
The second generation step includes
determining a color value of a second object pixel representing the object on the second type learning image, wherein the color value of the second object pixel is assigned to the position of the second object pixel on the object image; A value obtained by multiplying the color value of the associated pixel by a second type object coefficient greater than zero, and the color value of the pixel associated with the position of the second object pixel on the second type background image. a value obtained by multiplying by a type 2 background factor greater than zero; and
A step of determining a color value of a second background pixel indicating a portion of the second type learning image where the object is not arranged, wherein the color value of the second background pixel is set to the color value of the second background pixel on the second type background image. determining using a value obtained by multiplying the color value of the pixel associated with the position of the second background pixel by a coefficient larger than the second type background coefficient;
generation method.
請求項2に記載の生成方法であって、
前記代表色値は、前記第1種背景画像上の前記複数の位置に対応付けられた前記複数の色値の平均値である、
生成方法。
The production method of claim 2, wherein
The representative color value is an average value of the plurality of color values associated with the plurality of positions on the first type background image,
generation method.
請求項1から3のいずれかに記載の生成方法であって、
前記オブジェクトは、第1方向に平行なM本(Mは2以上の整数)の線であって、前記第1方向に垂直な第2方向に並ぶM本の線を含む、
生成方法。
A production method according to any one of claims 1 to 3,
The object includes M lines (where M is an integer equal to or greater than 2) parallel to a first direction and M lines aligned in a second direction perpendicular to the first direction,
generation method.
請求項4に記載の生成方法であって、
前記第1生成工程をQ回(Qは2以上の整数)行うことによって、Q個の第1種学習画像のQ個の第1種学習画像データを生成する工程を備え、
前記Q個の第1種学習画像のそれぞれは、前記第1種学習画像に対応付けられた基準輝度とは異なる輝度と、前記第1種学習画像と前記線の前記第2方向の順番とに対応付けられた前記第2方向の基準位置とは異なる前記第2方向の位置と、前記第1種学習画像に対応付けられた基準幅とは異なる幅と、の3個のパラメータ値のうちの1個以上のパラメータ値を有する線である1以上の非基準線を含む、
生成方法。
5. The method of claim 4, comprising:
A step of generating Q pieces of type 1 learning image data of Q pieces of type 1 learning images by performing the first generation step Q times (Q is an integer of 2 or more),
Each of the Q type 1 learning images has a brightness different from the reference brightness associated with the type 1 learning image, and an order of the type 1 learning image and the line in the second direction. Of the three parameter values of the position in the second direction different from the associated reference position in the second direction and the width different from the reference width associated with the type 1 learning image including one or more non-reference lines that are lines with one or more parameter values;
generation method.
請求項5に記載の生成方法であって、
前記Q個の第1種学習画像は、
前記基準輝度とは異なる前記輝度を有する1以上の非基準線を含む1以上の第1種学習画像と、
前記第2方向の前記基準位置とは異なる前記第2方向の前記位置に配置された1以上の非基準線を含む1以上の第1種学習画像と、
前記基準幅とは異なる前記幅を有する1以上の非基準線を含む1以上の第1種学習画像と、
を含む、生成方法。
6. The production method of claim 5, comprising:
The Q type 1 learning images are
one or more type 1 learning images including one or more non-reference lines having the luminance different from the reference luminance;
one or more type 1 learning images including one or more non-reference lines arranged at the position in the second direction different from the reference position in the second direction;
one or more type 1 learning images including one or more non-reference lines having the width different from the reference width;
generation method, including
請求項5または6に記載の生成方法であって、
前記Q個の第1種学習画像は、前記第1種学習画像に含まれる前記非基準線の総数が互いに異なる複数の第1種学習画像を含む、
生成方法。
A production method according to claim 5 or 6,
The Q type 1 learning images include a plurality of type 1 learning images with different total numbers of the non-reference lines included in the type 1 learning images,
generation method.
請求項1から7のいずれかに記載の生成方法であって、
前記オブジェクトは、文字を含む、
生成方法。
A production method according to any one of claims 1 to 7,
the object comprises a character,
generation method.
オブジェクトが印刷されたシートを光学的に読み取って得られる画像である印刷シート画像の画像データの入力に対して、前記シートに印刷された前記オブジェクトに関連する情報である関連情報を生成するようにコンピュータを機能させるための予測モデルであって、
印刷用のシートを光学的に読み取って得られるシート画像の少なくとも一部である第1種背景画像と、オブジェクトの画像であるオブジェクト画像と、を用いて生成される画像データであって、前記第1種背景画像上に前記オブジェクトが配置された画像である第1種学習画像の第1種学習画像データを用いてトレーニングされており、
前記第1種学習画像データは、
前記第1種学習画像上の前記オブジェクトを示す第1オブジェクト画素の色値を決定する工程であって、前記第1オブジェクト画素の色値を、前記オブジェクト画像上の前記第1オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第1種オブジェクト係数を乗じて得られる値と、前記第1種背景画像上の前記第1オブジェクト画素の位置に対応付けられた画素の色値にゼロよりも大きい第1種背景係数を乗じて得られる値と、の合計値を用いて決定する工程と、
前記第1種学習画像上の前記オブジェクトが配置されない部分を示す第1背景画素の色値を決定する工程であって、前記第1背景画素の色値を、前記第1種背景画像上の前記第1背景画素の位置に対応付けられた画素の色値に前記第1種背景係数よりも大きい係数を乗じて得られる値を用いて決定する工程と、
を含む生成方法によって生成されており
前記第1種学習画像データは、不具合を有していないオブジェクトが配置された画像である基準画像のデータと、不具合を有するオブジェクトが配置された画像である非基準画像のデータと、を含み、
前記予測モデルは、
前記基準画像のデータの入力に対して、前記不具合を有していないオブジェクトに関連する関連情報を生成し、
前記非基準画像のデータの入力に対して、前記不具合を有するオブジェクトに関連する関連情報であって、前記基準画像のデータの入力に対して生成される関連情報とは異なる関連情報を生成する、
ようにトレーニングされており、
前記予測モデルは、前記印刷シート画像の前記画像データの入力に対して前記予測モデルの演算を行うことによって、
前記シートに印刷されたオブジェクトが不具合を有していない場合には、前記シートに印刷された前記不具合を有していないオブジェクトに関連する関連情報を生成し、
前記シートに印刷されたオブジェクトが不具合を有する場合には、前記シートに印刷された前記不具合を有するオブジェクトに関連する関連情報であって、前記シートに印刷されたオブジェクトが不具合を有していない場合に生成される関連情報とは異なる関連情報を生成する、
ようにコンピュータを機能させる、
予測モデル。
In response to input of image data of a print sheet image, which is an image obtained by optically reading a sheet on which an object is printed, related information that is information related to the object printed on the sheet is generated. A predictive model for operating a computer, comprising:
Image data generated using a first type background image that is at least a part of a sheet image obtained by optically reading a printing sheet and an object image that is an image of an object, trained using the first type learning image data of the first type learning image, which is an image in which the object is arranged on the first type background image,
The first type learning image data is
determining a color value of a first object pixel representing the object on the first type learning image, wherein the color value of the first object pixel is mapped to the position of the first object pixel on the object image; A value obtained by multiplying the color value of the associated pixel by a first-type object coefficient greater than zero, and the color value of the pixel associated with the position of the first object pixel on the first-type background image. a value obtained by multiplying by a type 1 background factor greater than zero; and
A step of determining a color value of a first background pixel indicating a portion of the first type learning image in which the object is not arranged, wherein the color value of the first background pixel is set to the determining using a value obtained by multiplying the color value of the pixel associated with the position of the first background pixel by a coefficient larger than the first type background coefficient;
is generated by a generation method that includes
The first type learning image data includes data of a reference image, which is an image in which an object having no defect is arranged, and data of a non-reference image, which is an image in which an object having a defect is arranged,
The predictive model is
generating pertinent information related to the non-defective object in response to input of the reference image data;
generating relevant information related to the defective object in response to the input of the non-reference image data, wherein the relevant information is different from the relevant information generated in response to the input of the reference image data;
are trained to
The prediction model performs calculation of the prediction model on the input of the image data of the print sheet image,
if the object printed on the sheet has no defects, generating relevant information related to the non-defective object printed on the sheet;
if the object printed on the sheet has a defect, related information related to the object having the defect printed on the sheet, and if the object printed on the sheet does not have the defect generate related information that is different from the related information generated in
make your computer work like
predictive model.
JP2019180576A 2019-09-30 2019-09-30 Training image data generation method, prediction model Active JP7335545B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019180576A JP7335545B2 (en) 2019-09-30 2019-09-30 Training image data generation method, prediction model
US17/034,732 US11227370B2 (en) 2019-09-30 2020-09-28 Method for generating image processing filter and image processing method using the image processing filter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019180576A JP7335545B2 (en) 2019-09-30 2019-09-30 Training image data generation method, prediction model

Publications (2)

Publication Number Publication Date
JP2021057820A JP2021057820A (en) 2021-04-08
JP7335545B2 true JP7335545B2 (en) 2023-08-30

Family

ID=75271448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019180576A Active JP7335545B2 (en) 2019-09-30 2019-09-30 Training image data generation method, prediction model

Country Status (1)

Country Link
JP (1) JP7335545B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008599A (en) 2017-06-26 2019-01-17 株式会社 Ngr Image noise reduction method using forward propagation type neural network
WO2019025909A1 (en) 2017-08-01 2019-02-07 3M Innovative Properties Company Neural style transfer for image varietization and recognition
JP2019109563A (en) 2017-12-15 2019-07-04 オムロン株式会社 Data generation device, data generation method, and data generation program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008599A (en) 2017-06-26 2019-01-17 株式会社 Ngr Image noise reduction method using forward propagation type neural network
WO2019025909A1 (en) 2017-08-01 2019-02-07 3M Innovative Properties Company Neural style transfer for image varietization and recognition
JP2019109563A (en) 2017-12-15 2019-07-04 オムロン株式会社 Data generation device, data generation method, and data generation program

Also Published As

Publication number Publication date
JP2021057820A (en) 2021-04-08

Similar Documents

Publication Publication Date Title
US11373293B2 (en) Method for building image determination model, image determination model, and image determination method
US11227370B2 (en) Method for generating image processing filter and image processing method using the image processing filter
JP4647976B2 (en) Method for concealing defective print elements in a printer
Kieu et al. A character degradation model for grayscale ancient document images
US10506131B2 (en) Image processing apparatus that specifies edge pixel in target image using single-component image data
JP4631650B2 (en) High quality halftone processing
JP2017013378A (en) Image processing device and image processing method
CN113011898A (en) Machine learning based imaging method to determine authenticity of a consumer product
JP2021026191A (en) Learned machine learning model, image data generation apparatus, and method
US20200247138A1 (en) Image processing device generating dot data using machine learning model and method for training machine learning model
US10742845B2 (en) Image processing apparatus identifying pixel which satisfies specific condition and performing replacement process on pixel value of identified pixel
JP7335545B2 (en) Training image data generation method, prediction model
JP7303490B2 (en) Image processing filter generation method and image processing method
JP3965983B2 (en) Image processing method and apparatus
US20130070307A1 (en) High resolution digital embossing
JP7423905B2 (en) Machine learning model training method, data generation device, and trained machine learning model
JP7372591B2 (en) Image processing device and trained machine learning model
JP7204265B1 (en) METHOD AND APPARATUS FOR GENERATING TRAINED MODEL FOR PRINT INSPECTION SYSTEM
Tkachenko et al. Fighting against forged documents by using textured image
JP2022156761A (en) Data processing device, data processing method, and computer program
CN106457835B (en) Pair sort out with the corresponding vertical edge of half tone image
JP4941157B2 (en) Coloring production apparatus, coloring production method and program thereof
JP7392911B2 (en) computer program and generator
JP2023005711A (en) Information processing device, information processing method and program, and system
JP7457425B1 (en) Printed matter inspection system, processing device used in the inspection system, and inspection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230801

R150 Certificate of patent or registration of utility model

Ref document number: 7335545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150