JP2022088207A - Image processing system, image processing method and program - Google Patents

Image processing system, image processing method and program Download PDF

Info

Publication number
JP2022088207A
JP2022088207A JP2020200519A JP2020200519A JP2022088207A JP 2022088207 A JP2022088207 A JP 2022088207A JP 2020200519 A JP2020200519 A JP 2020200519A JP 2020200519 A JP2020200519 A JP 2020200519A JP 2022088207 A JP2022088207 A JP 2022088207A
Authority
JP
Japan
Prior art keywords
image
input image
tilt angle
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020200519A
Other languages
Japanese (ja)
Inventor
友希 白石
Yuki Shiraishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020200519A priority Critical patent/JP2022088207A/en
Publication of JP2022088207A publication Critical patent/JP2022088207A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

To provide processing for correcting image inclination, which is suitable for highly accurate noise evaluation.SOLUTION: An image processing system includes: calculation means that calculates an inclination angle of an input image with a certain direction as a reference; specification means that specifies a direction of noise components contained in the input image; and correction means that corrects the input image on the basis of the inclination angle and the direction of noise components.SELECTED DRAWING: Figure 4

Description

本発明は、画像のノイズを評価する技術に関する。 The present invention relates to a technique for evaluating image noise.

従来、プリンタによって記録媒体上に印刷された画像の品質を評価する方法として、評価者の主観により評価を行う主観評価と、画像に対する測定により客観的な評価を行う客観評価と、が知られている。印刷画像の品質を評価する際の要素として、バンディングと呼ばれる、帯状やスジ状の濃度ムラがある。画像を測定してバンディングなどの方向性を有するノイズの客観評価を行う際に、画像が傾いていると正確な評価を行うことができないため、傾き補正が行われる。特許文献1は、用紙の余白から画素を走査することにより読取画像の端部を決定し、主走査方向の傾きと副走査方向の傾きとの平均値を読取画像の傾きとする技術を開示している。 Conventionally, as a method of evaluating the quality of an image printed on a recording medium by a printer, a subjective evaluation in which an evaluator subjectively evaluates and an objective evaluation in which an objective evaluation is performed by measuring an image are known. There is. As an element in evaluating the quality of a printed image, there is banding or streak-like density unevenness called banding. When measuring an image and objectively evaluating noise having directionality such as banding, if the image is tilted, accurate evaluation cannot be performed, so tilt correction is performed. Patent Document 1 discloses a technique in which the edge of a scanned image is determined by scanning pixels from a margin of paper, and the average value of the tilt in the main scanning direction and the tilt in the sub-scanning direction is used as the tilt of the scanned image. ing.

特開2007-280273号公報Japanese Unexamined Patent Publication No. 2007-280273

特許文献1は、主走査方向の傾きと副走査方向の傾きとの平均値を読取画像の傾きとして傾き補正及びノイズ評価を行うが、画像におけるノイズの方向によっては、高精度なノイズ評価に適した傾き補正を行うことができないという課題がある。 Patent Document 1 performs tilt correction and noise evaluation using the average value of the tilt in the main scanning direction and the tilt in the sub-scan direction as the tilt of the scanned image, but is suitable for highly accurate noise evaluation depending on the direction of noise in the image. There is a problem that the tilt correction cannot be performed.

そこで本発明は、高精度なノイズの評価に適した、画像の傾きの補正を行うための処理を提供することを目的とする。 Therefore, an object of the present invention is to provide a process for correcting the inclination of an image, which is suitable for highly accurate noise evaluation.

上記課題を解決するために、本発明に係る画像処理装置は、ある方向を基準とした入力画像の傾き角度を算出する算出手段と、前記入力画像に含まれるノイズ成分の方向を特定する特定手段と、前記傾き角度と前記ノイズ成分の方向とに基づいて、前記入力画像を補正する補正手段と、を有することを特徴とする。 In order to solve the above problems, the image processing apparatus according to the present invention has a calculation means for calculating the tilt angle of the input image with respect to a certain direction and a specific means for specifying the direction of the noise component included in the input image. It is characterized by having a correction means for correcting the input image based on the tilt angle and the direction of the noise component.

本発明によれば、高精度なノイズの評価に適した、画像の傾きの補正を行うことができる。 According to the present invention, it is possible to correct the inclination of an image, which is suitable for highly accurate noise evaluation.

画像処理装置の構成を示すブロック図Block diagram showing the configuration of the image processing device 傾いている画像の例を示す図Diagram showing an example of a tilted image 画像の傾きによるノイズ評価への影響を説明するための図Diagram to explain the effect of image tilt on noise evaluation 画像処理装置が実行する処理を示すフローチャートA flowchart showing the processing executed by the image processing device. バンディング成分の方向を特定する処理を説明するための図Diagram for explaining the process of specifying the direction of the banding component 画像処理装置が実行する処理を示すフローチャートA flowchart showing the processing executed by the image processing device. 対象領域を説明するための図Diagram to explain the target area 印刷の方向を説明するための図Diagram to explain the printing direction

以下、各実施形態について、図面を参照して説明する。尚、以下の実施形態は本発明を必ずしも限定するものではない。また、各実施形態において説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, each embodiment will be described with reference to the drawings. The following embodiments do not necessarily limit the present invention. Moreover, not all combinations of features described in each embodiment are essential for the means of solving the present invention.

[第1実施形態]
まず、画像の傾きによるノイズ評価への影響について図3を用いて説明する。バンディング評価や文字・線画の評価においては、評価対象のスジやラインが傾いていることで画像の解析結果が変化してしまう。図3(a)は、垂直方向のスジ成分が傾いていない画像の例を示す。図3(b)は、垂直方向のスジ成分が傾いている画像の例を示す。例えば、垂直方向のスジ成分を解析するために、垂直方向の画素値の平均値を算出することを考える。この場合、図3(a)に示す画像における平均値の算出結果は図3(c)のようになる。また、図3(b)に示す画像における平均値の算出結果は図3(d)のようになる。図3(c)においては、最大輝度値と最小輝度値との差が大きく、エッジがはっきりとしている。一方、図3(d)においては、最大輝度値と最小輝度値との差が小さく、中間調に対応する輝度値も発生しており、エッジがはっきりしていない。このように、図3(a)に示す画像に対して図3(b)に示す画像は、画像の傾きにより、実際に含んでいるノイズよりも少ないノイズを含む画像として評価されてしまう。そこで、本実施形態においては、画像の傾きに対して補正する角度を印刷条件に応じて決定し、画像において方向性を有するノイズ(バンディング)を評価する。
[First Embodiment]
First, the influence of the tilt of the image on the noise evaluation will be described with reference to FIG. In banding evaluation and character / line drawing evaluation, the analysis result of the image changes due to the inclination of the streaks and lines to be evaluated. FIG. 3A shows an example of an image in which the vertical streak component is not tilted. FIG. 3B shows an example of an image in which the vertical streak component is tilted. For example, in order to analyze the streak component in the vertical direction, consider calculating the average value of the pixel values in the vertical direction. In this case, the calculation result of the average value in the image shown in FIG. 3A is as shown in FIG. 3C. Further, the calculation result of the average value in the image shown in FIG. 3 (b) is as shown in FIG. 3 (d). In FIG. 3C, the difference between the maximum luminance value and the minimum luminance value is large, and the edge is clear. On the other hand, in FIG. 3D, the difference between the maximum luminance value and the minimum luminance value is small, the luminance value corresponding to the halftone is also generated, and the edge is not clear. As described above, the image shown in FIG. 3B is evaluated as an image containing less noise than the noise actually contained due to the inclination of the image with respect to the image shown in FIG. 3A. Therefore, in the present embodiment, the angle to be corrected with respect to the tilt of the image is determined according to the printing conditions, and the noise (banding) having directionality in the image is evaluated.

<画像処理装置のハードウェア構成>
図1(a)は、画像処理装置1のハードウェア構成を示すブロック図である。画像処理装置1は、CPU1001、ROM1002、RAM1003を備える。また、画像処理装置1は、VC(ビデオカード)1004、汎用I/F(インターフェース)1005、SATA(シリアルATA)I/F1006、NIC(ネットワークインターフェースカード)1007を備える。CPU101は、RAM1003をワークメモリとして、ROM1002、HDD(ハードディスクドライブ)1013などに格納されたOS(オペレーティングシステム)や各種プログラムを実行する。また、CPU1001は、システムバス1008を介して各構成を制御する。尚、後述するフローチャートによる処理は、ROM1002やHDD1013などに格納されたプログラムコードがRAM1003に展開され、CPU1001によって実行される。VC1004には、表示装置1015が接続される。汎用I/F1005には、シリアルバス1009を介して、マウスやキーボードなどの入力装置1010や画像形成装置1011が接続される。SATAI/F1006には、シリアルバス1012を介して、HDD1013や各種記録メディアの読み書きを行う汎用ドライブ1014が接続される。NIC1007は、外部装置との間で情報の入力及び出力を行う。CPU1001は、HDD1013や汎用ドライブ1014にマウントされた各種記録メディアを各種データの格納場所として使用する。CPU1001は、プログラムによって提供されるUI(ユーザインターフェース)を表示装置1015に表示し、入力装置1010を介して受け付けるユーザ指示などの入力を受信する。尚、表示装置1015は、指などの指示体によるタッチの位置を検出するタッチパネルの機能を有するタッチパネルディスプレイであっても良い。
<Hardware configuration of image processing device>
FIG. 1A is a block diagram showing a hardware configuration of the image processing device 1. The image processing device 1 includes a CPU 1001, a ROM 1002, and a RAM 1003. Further, the image processing device 1 includes a VC (video card) 1004, a general-purpose I / F (interface) 1005, a SATA (serial ATA) I / F 1006, and a NIC (network interface card) 1007. The CPU 101 uses the RAM 1003 as a work memory to execute an OS (operating system) and various programs stored in the ROM 1002, the HDD (hard disk drive) 1013, and the like. Further, the CPU 1001 controls each configuration via the system bus 1008. The process according to the flowchart described later is executed by the CPU 1001 after the program code stored in the ROM 1002, the HDD 1013, or the like is expanded into the RAM 1003. A display device 1015 is connected to the VC1004. An input device 1010 such as a mouse or a keyboard and an image forming device 1011 are connected to the general-purpose I / F 1005 via the serial bus 1009. A general-purpose drive 1014 for reading and writing the HDD 1013 and various recording media is connected to the SATAI / F1006 via the serial bus 1012. NIC1007 inputs and outputs information to and from an external device. The CPU 1001 uses various recording media mounted on the HDD 1013 or the general-purpose drive 1014 as a storage location for various data. The CPU 1001 displays a UI (user interface) provided by the program on the display device 1015, and receives an input such as a user instruction received via the input device 1010. The display device 1015 may be a touch panel display having a touch panel function of detecting the position of touch by an indicator such as a finger.

<画像処理装置の機能構成>
図1(b)は画像処理装置1の機能構成を示すブロック図である。CPU1001は、RAM1003をワークメモリとして、ROM1002又はHDD1013に格納されたプログラムを読み出して実行することによって、図1(b)に示す機能構成として機能する。尚、以下に示す処理の全てがCPU1001によって実行される必要はなく、処理の一部又は全てがCPU1001以外の1つまたは複数の処理回路によって行われるように画像処理装置1が構成されていても良い。
<Functional configuration of image processing device>
FIG. 1B is a block diagram showing a functional configuration of the image processing apparatus 1. The CPU 1001 functions as the functional configuration shown in FIG. 1 (b) by reading and executing a program stored in the ROM 1002 or the HDD 1013 using the RAM 1003 as a work memory. It should be noted that it is not necessary that all of the processes shown below are executed by the CPU 1001, and even if the image processing device 1 is configured so that a part or all of the processes are performed by one or a plurality of processing circuits other than the CPU 1001. good.

画像処理装置1は、入力部101、算出部102、特定部103、補正部104、評価部105を有する。入力部101は、評価対象の画像を表す画像データを入力する。入力画像データは、印刷物をスキャナやデジタルカメラを用いて読み取って得られる画像データであっても良いし、シミュレーションにより作成された画像データであっても良い。入力画像データが表す画像はグレースケール画像であり、各画素に8ビットで表される画素値(輝度値)を有する。 The image processing device 1 has an input unit 101, a calculation unit 102, a specific unit 103, a correction unit 104, and an evaluation unit 105. The input unit 101 inputs image data representing the image to be evaluated. The input image data may be image data obtained by reading a printed matter using a scanner or a digital camera, or may be image data created by simulation. The image represented by the input image data is a grayscale image, and each pixel has a pixel value (brightness value) represented by 8 bits.

算出部102は、評価対象の画像に配置されているマーカや枠線を検出することにより、水平方向を基準とした画像の傾き角度と、垂直方向を基準とした画像の傾き角度と、を算出する。図2に傾いている画像の例を示す。図2に示す画像における斜線の領域は、バンディング評価の対象である評価領域を示す。図2に示す画像においては、評価領域が黒の枠線で囲われており、この枠線の頂点を検出することにより、傾き角度を算出することができる。算出部102は、入力画像データに基づいて、評価領域の左上の頂点201と、右上の頂点202と、左下の頂点203と、を検出する。また、算出部102は、頂点201と頂点202とをつなぐ評価領域の上側の辺と水平方向との角度204、及び、頂点201と頂点203とをつなぐ評価領域の左側の辺と垂直方向との角度205を算出する。 The calculation unit 102 calculates the tilt angle of the image with respect to the horizontal direction and the tilt angle of the image with reference to the vertical direction by detecting the markers and borders arranged in the image to be evaluated. do. FIG. 2 shows an example of an image tilted. The shaded area in the image shown in FIG. 2 indicates an evaluation area that is the target of banding evaluation. In the image shown in FIG. 2, the evaluation area is surrounded by a black frame line, and the inclination angle can be calculated by detecting the apex of this frame line. The calculation unit 102 detects the upper left vertex 201, the upper right vertex 202, and the lower left vertex 203 of the evaluation area based on the input image data. Further, the calculation unit 102 has an angle 204 between the upper side of the evaluation area connecting the apex 201 and the apex 202 and the horizontal direction, and a side perpendicular to the left side of the evaluation area connecting the apex 201 and the apex 203. Calculate the angle 205.

特定部103は、画像形成装置1011の印刷条件に基づいて、画像に含まれるバンディング成分の方向を特定する。本実施形態における印刷条件は、画像を印刷する際の印刷方式や印刷方向である。まず、印刷方向について説明する。印刷方向には、主走査方向と副走査方向とがある。主走査方向は画像を複数のラインに分割して形成する際のライン方向であり、副走査方向は記録媒体(用紙)の搬送方向である。例えば、A4サイズの用紙を用紙の縦方向に搬送する場合、図8(a)に示すように、用紙の横方向が主走査方向、用紙の縦方向が副走査方向である。図8(b)に示すように、A3サイズの用紙にA4サイズの画像が2枚配置され、用紙の縦方向に用紙を搬送した場合、A4サイズの画像の方向に関わらず、用紙の横方向が主走査方向、用紙の縦方向が副走査方向である。 The specifying unit 103 specifies the direction of the banding component included in the image based on the printing conditions of the image forming apparatus 1011. The printing conditions in this embodiment are a printing method and a printing direction when printing an image. First, the printing direction will be described. The printing direction includes a main scanning direction and a sub-scanning direction. The main scanning direction is the line direction when the image is divided into a plurality of lines and formed, and the sub-scanning direction is the transport direction of the recording medium (paper). For example, when A4 size paper is conveyed in the vertical direction of the paper, as shown in FIG. 8A, the horizontal direction of the paper is the main scanning direction and the vertical direction of the paper is the sub-scanning direction. As shown in FIG. 8B, when two A4 size images are arranged on A3 size paper and the paper is conveyed in the vertical direction of the paper, the horizontal direction of the paper is irrespective of the direction of the A4 size image. Is the main scanning direction, and the vertical direction of the paper is the sub-scanning direction.

次に、印刷方式について説明する。印刷方式には、電子写真方式とインクジェット方式とがある。電子写真方式による印刷においては、ドラムの回転方向(用紙の搬送方向)に対して垂直に濃度ムラが発生しやすい。このため、印刷画像に含まれるバンディング成分の方向は、印刷時の主走査方向に対して平行な方向である。また、インクジェット方式には、マルチパス方式とシングルパス方式とがある。マルチパス方式による印刷においては、用紙の搬送やインクのビーディングなどの影響により、印刷画像に、印刷時の主走査方向に対して平行な方向のバンディング成分が含まれる。シングルパス方式による印刷においては、ノズルのばらつきやインクの不吐出などの影響により、印刷画像に、印刷時の副走査方向に対して平行な方向のバンディング成分が含まれる。 Next, the printing method will be described. The printing method includes an electrophotographic method and an inkjet method. In printing by the electrophotographic method, density unevenness tends to occur perpendicular to the rotation direction of the drum (paper transport direction). Therefore, the direction of the banding component included in the printed image is a direction parallel to the main scanning direction at the time of printing. Further, the inkjet method includes a multi-pass method and a single-pass method. In printing by the multi-pass method, the printed image contains a banding component in a direction parallel to the main scanning direction at the time of printing due to the influence of paper transport, ink beading, and the like. In printing by the single-pass method, the printed image contains a banding component in a direction parallel to the sub-scanning direction at the time of printing due to the influence of nozzle variation and non-ejection of ink.

そこで、特定部103は、印刷条件として印刷方式と印刷方向とを表す情報を取得し、取得した情報に基づいて、評価すべきバンディング成分の方向を特定する。図5に、印刷条件と評価すべきバンディング成分の方向との対応関係を示す。例えば、特定部103は、印刷方式が電子写真方式で、主走査方向が水平方向である場合、画像における水平方向のバンディング成分を評価すべきバンディング成分とする。また、特定部103は、印刷方式がインクジェットのシングルパス方式で、主走査方向が水平方向である場合、画像における垂直方向のバンディング成分を評価すべきバンディング成分とする。 Therefore, the specifying unit 103 acquires information indicating the printing method and the printing direction as printing conditions, and specifies the direction of the banding component to be evaluated based on the acquired information. FIG. 5 shows the correspondence between the printing conditions and the direction of the banding component to be evaluated. For example, when the printing method is an electrophotographic method and the main scanning direction is the horizontal direction, the specific unit 103 uses the horizontal banding component in the image as the banding component to be evaluated. Further, when the printing method is an inkjet single-pass method and the main scanning direction is the horizontal direction, the specific unit 103 uses the banding component in the vertical direction in the image as the banding component to be evaluated.

補正部104は、算出部102により算出された傾き角度と、特定部103により特定されたバンディング成分の方向と、に基づいて、画像を補正する。具体的には、補正部104は、図2の頂点201を中心に、補正角度の分、画像を回転させる。評価部105は、補正部104により補正された画像におけるバンディングを評価する。バンディングの評価方法については、公知のISO/IEC24790の方法を用いるが、他の評価方法を用いても良い。また、評価部105は、バンディングの評価結果として得られる評価値を表示装置1015に表示させる表示制御部としても機能する。尚、評価部105は、バンディングの評価値をHDD1013などの記憶装置に出力しても良い。 The correction unit 104 corrects the image based on the tilt angle calculated by the calculation unit 102 and the direction of the banding component specified by the specific unit 103. Specifically, the correction unit 104 rotates the image around the vertex 201 in FIG. 2 by the correction angle. The evaluation unit 105 evaluates the banding in the image corrected by the correction unit 104. As the banding evaluation method, a known ISO / IEC24790 method is used, but other evaluation methods may be used. The evaluation unit 105 also functions as a display control unit that displays the evaluation value obtained as the banding evaluation result on the display device 1015. The evaluation unit 105 may output the banding evaluation value to a storage device such as the HDD 1013.

<画像処理装置が実行する処理>
図4は画像処理装置1が実行する処理を示すフローチャートである。図4のフローチャートが示す処理は、ユーザによって入力装置1010を介して指示が入力され、CPU1001が入力された指示を受け付けることにより開始する。以下、各ステップ(工程)は符号の前にSをつけて表す。
<Processes executed by the image processing device>
FIG. 4 is a flowchart showing a process executed by the image processing device 1. The process shown in the flowchart of FIG. 4 starts when an instruction is input by the user via the input device 1010 and the CPU 1001 receives the input instruction. Hereinafter, each step (process) is represented by adding S in front of the reference numeral.

S401において、入力部101は、HDD1013やスキャナなどから画像データを入力する。S402において、算出部102は、入力画像データに基づいて、水平方向を基準とした画像の傾き角度Ahと、垂直方向を基準とした画像の傾き角度Avと、を算出する。S403において、特定部103は、傾き角度Ahと傾き角度Avとが異なるか否かを判定する。傾き角度Ahと傾き角度Avとが異なる場合はS404に進み、傾き角度Ahと傾き角度Avとが同じ場合はS406に進む。 In S401, the input unit 101 inputs image data from the HDD 1013, a scanner, or the like. In S402, the calculation unit 102 calculates the tilt angle Ah of the image with respect to the horizontal direction and the tilt angle Av of the image with respect to the vertical direction based on the input image data. In S403, the specific unit 103 determines whether or not the tilt angle Ah and the tilt angle Av are different. If the tilt angle Ah and the tilt angle Av are different, the process proceeds to S404, and if the tilt angle Ah and the tilt angle Av are the same, the process proceeds to S406.

S404において、特定部103は、印刷条件を表す条件情報を取得する。条件情報は、印刷方式と、印刷時の主走査方向が画像の水平方向と垂直方向とのどちらであるかと、を表す情報である。S405において、特定部103は、条件情報に基づいて、評価すべきバンディング成分の方向を特定する。 In S404, the specific unit 103 acquires condition information representing printing conditions. The condition information is information indicating the printing method and whether the main scanning direction at the time of printing is the horizontal direction or the vertical direction of the image. In S405, the specifying unit 103 specifies the direction of the banding component to be evaluated based on the condition information.

S406において、補正部104は、補正角度を決定する。S403において傾き角度Ahと傾き角度Avとが同じであると判定された場合には、傾き角度A(=Ah=Av)を補正するための角度-Aを補正角度とする。S403において傾き角度Ahと傾き角度Avとが異なると判定された場合には、S405において特定されたバンディング成分の方向に平行な方向を基準とした傾き角度を補正するための角度を補正角度とする。具体的には、S405において水平方向と特定された場合には、補正部104は、傾き角度Ahを補正するための角度-Ahを補正角度とする。S405において垂直方向と特定された場合には、補正部104は、傾き角度Avを補正するための角度-Avを補正角度とする。 In S406, the correction unit 104 determines the correction angle. When it is determined in S403 that the tilt angle Ah and the tilt angle Av are the same, the angle −A for correcting the tilt angle A (= Ah = Av) is set as the correction angle. When it is determined in S403 that the tilt angle Ah and the tilt angle Av are different, the angle for correcting the tilt angle with respect to the direction parallel to the direction of the banding component specified in S405 is used as the correction angle. .. Specifically, when it is specified in the horizontal direction in S405, the correction unit 104 sets the angle −Ah for correcting the tilt angle Ah as the correction angle. When the direction is specified as the vertical direction in S405, the correction unit 104 sets the correction angle −Av for correcting the tilt angle Av as the correction angle.

S407において、補正部104は、S406において決定した補正角度に基づいて、画像を補正する。上述したように、補正部104は、図2の頂点201を中心に、補正角度の分、画像を回転させる。S408において、評価部105は、補正された画像を表す画像データに基づいて、バンディングの評価値を導出する。また、評価部105は、導出したバンディングの評価値を表示装置1015に表示する。 In S407, the correction unit 104 corrects the image based on the correction angle determined in S406. As described above, the correction unit 104 rotates the image around the apex 201 of FIG. 2 by the correction angle. In S408, the evaluation unit 105 derives the banding evaluation value based on the image data representing the corrected image. Further, the evaluation unit 105 displays the derived evaluation value of the banding on the display device 1015.

<第1実施形態の効果>
以上説明したように、本実施形態における画像処理装置は、ある方向を基準とした入力画像の傾き角度を算出する。また、入力画像に含まれるノイズ成分の方向を特定する。そして、算出した傾き角度と特定したノイズ成分の方向とに基づいて、入力画像を補正する。これにより、高精度なノイズの評価に適した、画像の傾きの補正を行うことができる。
<Effect of the first embodiment>
As described above, the image processing apparatus in the present embodiment calculates the tilt angle of the input image with respect to a certain direction. In addition, the direction of the noise component included in the input image is specified. Then, the input image is corrected based on the calculated tilt angle and the direction of the specified noise component. This makes it possible to correct the tilt of the image, which is suitable for highly accurate noise evaluation.

<変形例>
本実施形態においては、傾き角度Ahと傾き角度Avとが異なる場合に、水平方向と垂直方向とのどちらかを基準とした傾き角度を補正するように補正角度を決定したが、傾き角度Ahと傾き角度Avとの差が閾値未満であれば他の処理を行っても良い。例えば、傾き角度Ahと傾き角度Avとの差が閾値未満の場合、S404及びS405の処理を行わずに、傾き角度Ahと傾き角度Avとの平均値を傾き補正に利用しても良い。
<Modification example>
In the present embodiment, when the tilt angle Ah and the tilt angle Av are different, the correction angle is determined so as to correct the tilt angle based on either the horizontal direction or the vertical direction. If the difference from the tilt angle Av is less than the threshold value, other processing may be performed. For example, when the difference between the tilt angle Ah and the tilt angle Av is less than the threshold value, the average value of the tilt angle Ah and the tilt angle Av may be used for the tilt correction without performing the processes of S404 and S405.

また、本実施形態においては、傾き角度Ahと傾き角度Avとが異なる場合に、水平方向と垂直方向とのどちらかを基準とした傾き角度を補正するように補正角度を決定したが、重み付け平均により補正角度を決定しても良い。例えば、評価すべきバンディング成分の方向に対する重みを高くして、もう一方の方向との平均値を補正角度としても良い。 Further, in the present embodiment, when the tilt angle Ah and the tilt angle Av are different, the correction angle is determined so as to correct the tilt angle based on either the horizontal direction or the vertical direction, but the weighted average. The correction angle may be determined by. For example, the weight with respect to the direction of the banding component to be evaluated may be increased, and the average value with the other direction may be used as the correction angle.

また、本実施形態においては、画像に傾き角度を算出するためのマーカや枠線が配置されていたが、マーカや枠線がない場合は、画像に対するエッジ検出処理及び関数近似により傾き角度を算出しても良い。 Further, in the present embodiment, a marker or a border for calculating the tilt angle is arranged in the image, but when there is no marker or the border, the tilt angle is calculated by edge detection processing for the image and function approximation. You may.

また、本実施形態における入力画像データはグレースケール画像を表す画像データであったが、(R,G,B)などの色信号値を各画素に有するカラー画像を表す画像データであっても良い。 Further, although the input image data in the present embodiment is image data representing a grayscale image, it may be image data representing a color image having a color signal value such as (R, G, B) in each pixel. ..

また、本実施形態においては、1つの評価領域を含む画像を基に2つの傾き角度を算出したが、評価領域や算出する傾き角度の数はこれに限られない。例えば、1つの評価領域に対して、画像の4辺の傾き角度を算出しても良い。また、画像に複数の評価領域が設定されている場合は、各評価領域に対して複数の傾き角度を算出するようにしても良い。 Further, in the present embodiment, two tilt angles are calculated based on an image including one evaluation region, but the number of evaluation regions and the calculated tilt angles is not limited to this. For example, the tilt angles of the four sides of the image may be calculated for one evaluation area. Further, when a plurality of evaluation areas are set in the image, a plurality of tilt angles may be calculated for each evaluation area.

また、補正角度を決定する際に、補正角度が小さい場合には補正角度を0度、つまり、傾き補正を行わないようにしても良い。補正角度が小さいか否かは、バンディングの評価値に影響を与えない角度や、画像の傾きよりも回転処理の方がバンディングの評価値に影響を与える角度などを基準として決めることができる。 Further, when determining the correction angle, if the correction angle is small, the correction angle may be set to 0 degrees, that is, tilt correction may not be performed. Whether or not the correction angle is small can be determined based on an angle that does not affect the banding evaluation value, an angle that the rotation processing affects the banding evaluation value more than the image tilt, and the like.

[第2実施形態]
第1実施形態においては、印刷条件に基づいて評価すべきバンディング成分の方向を特定した。本実施形態においては、印刷方式や印刷方向などの印刷条件がわからない画像について、評価すべきバンディング成分の方向を特定する。尚、本実施形態における画像処理装置のハードウェア構成及び機能構成は第1実施形態のものと同等であるため、説明を省略する。以下において、本実施形態と第1実施形態とで異なる部分を主に説明する。尚、第1実施形態と同一の構成については、同一の符号を付して説明する。
[Second Embodiment]
In the first embodiment, the direction of the banding component to be evaluated is specified based on the printing conditions. In the present embodiment, the direction of the banding component to be evaluated is specified for an image whose printing conditions such as a printing method and a printing direction are unknown. Since the hardware configuration and the functional configuration of the image processing apparatus in this embodiment are the same as those in the first embodiment, the description thereof will be omitted. Hereinafter, the differences between the present embodiment and the first embodiment will be mainly described. The same configuration as that of the first embodiment will be described with the same reference numerals.

<画像処理装置が実行する処理>
図6(a)は画像処理装置1が実行する処理を示すフローチャートである。図6(a)のフローチャートが示す処理は、ユーザによって入力装置1010を介して指示が入力され、CPU1001が入力された指示を受け付けることにより開始する。尚、S401~S403、S406~S408の処理は第1実施形態と同等であるため説明を省略する。
<Processes executed by the image processing device>
FIG. 6A is a flowchart showing the processing executed by the image processing apparatus 1. The process shown in the flowchart of FIG. 6A starts when an instruction is input by the user via the input device 1010 and the CPU 1001 receives the input instruction. Since the processes of S401 to S403 and S406 to S408 are the same as those of the first embodiment, the description thereof will be omitted.

S601において、特定部103は、評価すべきバンディング成分の方向を特定する。図6(b)は評価すべきバンディング成分の方向を特定する処理を示すフローチャートである。S611において、特定部103は、評価すべきバンディング成分の方向を特定するための対象領域を画像から切り出す。本実施形態における対象領域は、評価領域の内側にある、ユーザにより指定される領域とするが、予め決められた領域であっても良い。図7に評価領域と対象領域との関係の例を示す。評価領域701の内側に、対象領域702が設定されている。 In S601, the specific unit 103 specifies the direction of the banding component to be evaluated. FIG. 6B is a flowchart showing a process of specifying the direction of the banding component to be evaluated. In S611, the specific unit 103 cuts out a target area for specifying the direction of the banding component to be evaluated from the image. The target area in the present embodiment is an area designated by the user inside the evaluation area, but may be a predetermined area. FIG. 7 shows an example of the relationship between the evaluation area and the target area. The target area 702 is set inside the evaluation area 701.

S612において、特定部103は、切り出した対象領域の画素値に基づいて、1次元データを生成する。具体的には、特定部103は、対象領域の画素値を水平方向と垂直方向とでそれぞれ平均化することにより、水平方向の1次元データと垂直方向の1次元データとを生成する。S613において、特定部103は、水平方向の1次元データと垂直方向の1次元データとに基づいて、画像の水平方向と垂直方向とのどちらの方向にバンディングが発生しているかを判定する。具体的には、特定部103は、1次元データが表す画素値の平均値にばらつきがあるか否かを判定し、平均値にばらつきがある方向にバンディングが発生していると判定し、平均値が略一定である方向にはバンディングが発生していないと判定する。図7に、対象領域702の水平方向の1次元データ703と、垂直方向の1次元データ704と、を示す。この場合、垂直方向の1次元データ704においては画素値の平均値が略一定であり、水平方向の1次元データ703においては画素値の平均値がばらついているため、特定部103は、水平方向にバンディングが発生していると判定する。 In S612, the specific unit 103 generates one-dimensional data based on the pixel value of the cut out target area. Specifically, the specific unit 103 generates one-dimensional data in the horizontal direction and one-dimensional data in the vertical direction by averaging the pixel values of the target region in the horizontal direction and the vertical direction, respectively. In S613, the specific unit 103 determines in which direction the banding occurs in the horizontal direction or the vertical direction of the image, based on the one-dimensional data in the horizontal direction and the one-dimensional data in the vertical direction. Specifically, the specific unit 103 determines whether or not there is a variation in the average value of the pixel values represented by the one-dimensional data, determines that banding occurs in the direction in which the average value varies, and averages. It is determined that no banding has occurred in the direction in which the value is substantially constant. FIG. 7 shows the horizontal one-dimensional data 703 and the vertical one-dimensional data 704 of the target area 702. In this case, since the average value of the pixel values is substantially constant in the one-dimensional data 704 in the vertical direction and the average value of the pixel values varies in the one-dimensional data 703 in the horizontal direction, the specific unit 103 is the horizontal direction. It is determined that banding has occurred in.

<第2実施形態の効果>
以上説明したように、本実施形態における画像処理装置は、画像の画素値に基づいて、評価すべきノイズ成分の方向を特定した。これにより、印刷条件がわからない読取画像やシミュレーション画像に対しても、高精度なノイズの評価に適した、画像の傾きの補正を行うことができる。
<Effect of the second embodiment>
As described above, the image processing apparatus in the present embodiment has specified the direction of the noise component to be evaluated based on the pixel value of the image. As a result, it is possible to correct the tilt of the image, which is suitable for highly accurate noise evaluation, even for the scanned image or the simulated image whose printing conditions are unknown.

<変形例>
本実施形態においては、対象領域における画素の画素値を有する2次元データを1次元データに変換したが、他の方法によりバンディング成分の方向を特定しても良い。例えば、評価領域に対して周波数解析を行うことにより、バンディング成分の方向を特定しても良い。また、傾き補正を行わずに、画像における水平方向のバンディングと垂直方向のバンディングとを評価し、評価値の大きさを基にバンディング成分の方向を特定しても良い。
<Modification example>
In the present embodiment, the two-dimensional data having the pixel values of the pixels in the target region is converted into the one-dimensional data, but the direction of the banding component may be specified by another method. For example, the direction of the banding component may be specified by performing frequency analysis on the evaluation region. Further, the horizontal banding and the vertical banding in the image may be evaluated without tilt correction, and the direction of the banding component may be specified based on the magnitude of the evaluation value.

[その他の実施形態]
上述した実施形態においては、印刷条件や画像を基に、評価すべきバンディング成分の方向を特定したが、ユーザにより指定された方向を評価すべきバンディング成分の方向としても良い。例えば、ユーザが画像の水平方向を指定した場合は、特定部103は、算出部102が算出した複数の傾き角度から、傾き角度Ahを選択して補正角度を決定する。ユーザが画像の垂直方向を指定した場合は、特定部103は、算出部102が算出した複数の傾き角度から、傾き角度Avを選択して補正角度を決定する。また、算出部102は、ユーザにより指定された方向を基準とした傾き角度のみ算出するようにしても良い。
[Other embodiments]
In the above-described embodiment, the direction of the banding component to be evaluated is specified based on the printing conditions and the image, but the direction specified by the user may be the direction of the banding component to be evaluated. For example, when the user specifies the horizontal direction of the image, the specific unit 103 selects the inclination angle Ah from the plurality of inclination angles calculated by the calculation unit 102 to determine the correction angle. When the user specifies the vertical direction of the image, the specific unit 103 selects the inclination angle Av from the plurality of inclination angles calculated by the calculation unit 102 to determine the correction angle. Further, the calculation unit 102 may calculate only the tilt angle with respect to the direction specified by the user.

また、上述した実施形態においては、画像に発生するノイズの例としてバンディングを評価したが、線状のノイズなど、方向性を有するノイズに対してであれば上述した処理を適用することができる。 Further, in the above-described embodiment, banding is evaluated as an example of noise generated in an image, but the above-mentioned processing can be applied to noise having directionality such as linear noise.

また、上述した実施形態においては、ノイズ成分の方向を特定する処理の例をいくつか説明したが、所定の条件に応じて処理の内容を切り替えられるようにしても良い。例えば、画像の印刷条件に関する情報が取得できる場合とできない場合とで、第1実施形態の処理と第2実施形態の処理とを切り替えても良い。また、読取画像かシミュレーション画像かなどの画像の種類に応じて処理を切り替えても良いし、評価すべきノイズや評価方法の種類に応じて処理を切り替えても良い。 Further, in the above-described embodiment, some examples of the process for specifying the direction of the noise component have been described, but the content of the process may be switched according to a predetermined condition. For example, the processing of the first embodiment and the processing of the second embodiment may be switched between the case where the information regarding the printing condition of the image can be acquired and the case where the information cannot be acquired. Further, the processing may be switched according to the type of image such as a scanned image or a simulation image, or the processing may be switched according to the noise to be evaluated and the type of evaluation method.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1 画像処理装置
102 算出部
103 特定部
104 補正部
1 Image processing device 102 Calculation unit 103 Specific unit 104 Correction unit

Claims (13)

ある方向を基準とした入力画像の傾き角度を算出する算出手段と、
前記入力画像に含まれるノイズ成分の方向を特定する特定手段と、
前記傾き角度と前記ノイズ成分の方向とに基づいて、前記入力画像を補正する補正手段と、
を有することを特徴とする画像処理装置。
A calculation method for calculating the tilt angle of an input image with respect to a certain direction,
Specific means for specifying the direction of the noise component contained in the input image, and
A correction means for correcting the input image based on the tilt angle and the direction of the noise component,
An image processing device characterized by having.
前記入力画像は、印刷物を読み取って得られる画像であって、
前記特定手段は、前記印刷物を印刷する際の印刷条件に基づいて、前記ノイズ成分の方向を特定することを特徴とする請求項1に記載の画像処理装置。
The input image is an image obtained by reading a printed matter, and is an image obtained.
The image processing apparatus according to claim 1, wherein the specifying means specifies the direction of the noise component based on the printing conditions when printing the printed matter.
前記印刷条件は、印刷方式と、前記入力画像に対する走査方向と、であることを特徴とする請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the printing conditions are a printing method and a scanning direction with respect to the input image. 前記特定手段は、前記入力画像において、前記入力画像の水平方向と垂直方向とで画素値の平均値を算出し、算出した画素値の平均値に基づいて前記ノイズ成分の方向を特定することを特徴とする請求項1に記載の画像処理装置。 In the input image, the specifying means calculates an average value of pixel values in the horizontal direction and the vertical direction of the input image, and specifies the direction of the noise component based on the calculated average value of the pixel values. The image processing apparatus according to claim 1. 前記特定手段は、ユーザの指示に基づいて、前記ノイズ成分の方向を特定することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the specifying means specifies the direction of the noise component based on a user's instruction. 前記ある方向は、前記入力画像の水平方向と垂直方向とであり、
前記算出手段は、前記水平方向を基準とした傾き角度と、前記垂直方向を基準とした傾き角度と、を算出することを特徴とする請求項1乃至請求項5のいずれか一項に記載の画像処理装置。
The certain direction is the horizontal direction and the vertical direction of the input image.
The calculation means according to any one of claims 1 to 5, wherein the calculation means calculates a tilt angle with respect to the horizontal direction and a tilt angle with reference to the vertical direction. Image processing device.
前記補正手段は、前記ノイズ成分の方向に基づいて、前記水平方向を基準とした傾き角度と、前記垂直方向を基準とした傾き角度と、のいずれかを選択し、選択した傾き角度に基づいて前記入力画像を補正することを特徴とする請求項6に記載の画像処理装置。 The correction means selects either a tilt angle with respect to the horizontal direction or a tilt angle with reference to the vertical direction based on the direction of the noise component, and is based on the selected tilt angle. The image processing apparatus according to claim 6, wherein the input image is corrected. 前記補正手段は、前記ノイズ成分の方向に基づいて、前記水平方向を基準とした傾き角度と、前記垂直方向を基準とした傾き角度と、の重み付け平均を算出し、算出した重み付け平均に基づいて前記入力画像を補正することを特徴とする請求項6に記載の画像処理装置。 The correction means calculates a weighted average of a tilt angle with respect to the horizontal direction and a tilt angle with reference to the vertical direction based on the direction of the noise component, and is based on the calculated weighted average. The image processing apparatus according to claim 6, wherein the input image is corrected. 前記補正手段は、前記入力画像を回転することにより補正することを特徴とする請求項1乃至請求項8のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 8, wherein the correction means corrects the input image by rotating the input image. 前記算出手段は、前記入力画像に含まれるマーカ又は枠線に基づいて、前記傾き角度を算出することを特徴とする請求項1乃至請求項9のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, wherein the calculation means calculates the tilt angle based on a marker or a frame line included in the input image. 前記補正された入力画像に基づいて、前記ノイズ成分を評価する評価手段をさらに有することを特徴とする請求項1乃至請求項10のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, further comprising an evaluation means for evaluating the noise component based on the corrected input image. コンピュータを請求項1乃至請求項11のいずれか一項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the image processing apparatus according to any one of claims 1 to 11. ある方向を基準とした入力画像の傾き角度を算出する算出ステップと、
前記入力画像に含まれるノイズ成分の方向を特定する特定ステップと、
前記傾き角度と前記ノイズ成分の方向とに基づいて、前記入力画像を補正する補正ステップと、
を有することを特徴とする画像処理方法。
A calculation step to calculate the tilt angle of the input image with respect to a certain direction,
A specific step for specifying the direction of the noise component contained in the input image, and
A correction step for correcting the input image based on the tilt angle and the direction of the noise component,
An image processing method characterized by having.
JP2020200519A 2020-12-02 2020-12-02 Image processing system, image processing method and program Pending JP2022088207A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020200519A JP2022088207A (en) 2020-12-02 2020-12-02 Image processing system, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020200519A JP2022088207A (en) 2020-12-02 2020-12-02 Image processing system, image processing method and program

Publications (1)

Publication Number Publication Date
JP2022088207A true JP2022088207A (en) 2022-06-14

Family

ID=81982049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020200519A Pending JP2022088207A (en) 2020-12-02 2020-12-02 Image processing system, image processing method and program

Country Status (1)

Country Link
JP (1) JP2022088207A (en)

Similar Documents

Publication Publication Date Title
US6275600B1 (en) Measuring image characteristics of output from a digital printer
US9310737B2 (en) Image inspection of printed matter with a master image
EP2552097B1 (en) Image processing apparatus, system, and method
EP3113473B1 (en) Image processing apparatus and image processing method
US9019526B2 (en) Image examination apparatus, image examination system, and image examination method
JP2013223039A (en) Image processing device and image processing system and program
JP2017046342A (en) Image processing system and image processing method
JP7487568B2 (en) Image inspection device, display method and program
JP5750093B2 (en) Band-based patch selection with dynamic grid
US9042658B2 (en) Image processing device and pixel interpolation method
JP4140519B2 (en) Image processing apparatus, program, and recording medium
US7925115B2 (en) Image processing device capable of detecting and correcting inclination of image
US8547590B2 (en) Determining a resolution of a device based on a calculated principal spatial frequency response (SFR) selected from a calculated SFR
JP2022088207A (en) Image processing system, image processing method and program
US8330997B2 (en) Image processing apparatus, image forming apparatus and image processing method
JP6326768B2 (en) Image inspection apparatus, image inspection system, and image inspection method
AU2012205245A1 (en) Printing system, image forming apparatus, and printing method
JP2007081793A (en) Image forming apparatus
US11750748B2 (en) Image processing apparatus, method, and storage medium to evaluate printed material with decreased influence of specific characteristic of print medium determined from margin area of printed chart
KR101761744B1 (en) Image processing apparatus, method of controlling the same, and storage medium
US11800019B2 (en) Image inspection apparatus and program product correcting image blur caused by floating paper to increase inspection accuracy of printed image
JP4743899B2 (en) Gradation correction processing method, program for executing the same, and gradation correction processing apparatus
US20240013372A1 (en) Inspection apparatus, inspection method, and storage medium
US20230231962A1 (en) Image processing apparatus, image processing method, and medium
JP2009042814A (en) Image evaluation device and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210108