JP2007034648A - Image evaluation method and image evaluation device and program - Google Patents

Image evaluation method and image evaluation device and program Download PDF

Info

Publication number
JP2007034648A
JP2007034648A JP2005216655A JP2005216655A JP2007034648A JP 2007034648 A JP2007034648 A JP 2007034648A JP 2005216655 A JP2005216655 A JP 2005216655A JP 2005216655 A JP2005216655 A JP 2005216655A JP 2007034648 A JP2007034648 A JP 2007034648A
Authority
JP
Japan
Prior art keywords
spatial frequency
image
unit
streak
frequency band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005216655A
Other languages
Japanese (ja)
Inventor
Yoshitaka Kuwata
良隆 桑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005216655A priority Critical patent/JP2007034648A/en
Publication of JP2007034648A publication Critical patent/JP2007034648A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To calculate an evaluation value corresponding to a feeling of a view without being affected by any background noise in an image evaluation device for evaluating picture quality related to a space frequency. <P>SOLUTION: A featured value acquiring part 22 calculates a stripe featured value Pe as one example of a featured value P related to a space frequency based on input image data processed by a pre-processing part 210. A stripe space frequency band dividing part 286 divides the input image data processed by the pre-processing part 210 into image data with a plurality of space frequency bands. A stripe correction quantity calculating part 288 calculates a stripe correction value Be based on the image data with the plurality of space frequency bands frequency-developed by a space frequency band dividing part 286. A stripe evaluation value calculating part 290 calculates an evaluation value Qe related to the strength of the stripe defect of the space frequency band under consideration based on the stripe featured value Pe calculated by stripe feature value caluculation part 270 and the stripe correction quantity Be calculated by the stripe correction quantity calculating part 288 of the stripe correction quantity acquiring part 280. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、カラープリンタなどの画像出力装置(画像形成装置)より出力された画像の画像品質を評価する画像評価方法および画像評価装置、並びに画像評価処理を電子計算機(コンピュータ)を用いて実行するための画像評価プログラムに関する。より詳細には、粒状性や鮮鋭性やすじ欠陥などの空間周波数と関係した画質を評価するための評価値を求める仕組みに関する。   The present invention executes an image evaluation method and image evaluation apparatus for evaluating the image quality of an image output from an image output apparatus (image forming apparatus) such as a color printer, and an image evaluation process using an electronic computer (computer). The present invention relates to an image evaluation program. More specifically, the present invention relates to a mechanism for obtaining an evaluation value for evaluating an image quality related to a spatial frequency such as graininess, sharpness, and a flaw defect.

カラープリンタや複写装置などの画像形成装置やカラーディスプレイ装置などの画像表示装置(画像形成装置と画像表示装置とを纏めて画像出力装置ともいう)により出力または表示される画像の画像品質を決定する要因については、階調再現性、色再現性、鮮鋭性、解像性、粒状性、光沢、画像欠陥などが知られている。   Determining the image quality of an image output or displayed by an image display device such as a color printer or a copying machine, or an image display device such as a color display device (the image forming device and the image display device are collectively referred to as an image output device) Regarding factors, tone reproducibility, color reproducibility, sharpness, resolution, graininess, gloss, image defects, and the like are known.

本来、均一な明度や色で出力または表示される均一色画像内に生じた一定方向に延びる明度や色の帯状のむら(縦すじや横すじといわれる、いわゆるすじ欠陥)は、装置固有の技術に依存して発生した画像欠陥の1つであり、品質管理を行う上での重要項目の1つとして用いられている。注目する画像要素についての粒状性や鮮鋭性やすじ欠陥に関する特徴量や評価値は、何れも空間周波数と関わりを持つものである。   Originally, the brightness and color band-like unevenness (called vertical stripes and horizontal stripes, so-called streak defects) generated in a uniform color image that is output or displayed with uniform brightness and color is a technology unique to the device. This is one of the image defects generated depending on the image quality, and is used as one of important items in quality control. The feature amount and evaluation value related to the graininess, sharpness, and wrinkle defect of the image element of interest are all related to the spatial frequency.

画像出力装置より出力された画像におけるすじ欠陥などの画像品質を評価する方法としては、画像品質に対し人間の視覚を通して主観的な判断によって評価する主観的評価と、測定器を通して画像品質の特徴量を算出する客観的評価がある。主観的評価は、人による判断のため評価結果にばらつきが生じるなど、評価精度の問題があり、近年では客観的評価方法が数多く提案されている。   There are two methods for evaluating image quality such as streak defects in images output from image output devices: subjective evaluation that evaluates image quality by subjective judgment through human vision, and image quality feature quantities through a measuring instrument. There is an objective evaluation to calculate. Subjective evaluation has a problem of evaluation accuracy, such as variations in evaluation results due to human judgment. In recent years, many objective evaluation methods have been proposed.

たとえば特許文献1〜3には、すじ欠陥についての画像品質を客観的に評価する方法が提案されている。   For example, Patent Documents 1 to 3 propose a method for objectively evaluating the image quality of a streak defect.

特開平09−037310号公報JP 09-037310 A 特開2000−004313号公報JP 2000-004313 A 特開2002−139404号公報JP 2002-139404 A

たとえば特許文献1に記載の技術では、カラーブラウン管の輝度むらを検査する方法として、発光面をテレビカメラで撮像し、撮像した画像の輝度値に対し、投影処理を行なって1次元データにした後、2次微分値を求めて、すじの強さを評価するようにしている。   For example, in the technique described in Patent Document 1, as a method of inspecting luminance unevenness of a color cathode ray tube, a light emitting surface is imaged with a television camera, and after performing projection processing on the luminance value of the captured image to obtain one-dimensional data. A secondary differential value is obtained to evaluate the strength of the streaks.

また、特許文献2に記載の技術では、画像品質に関する欠陥の一種であるバンディングについて、人間が観察する際に知覚する心理量を予測する。具体的には、被評価画像の物理特性量を空間周波数に変換し、予め設定されている物理特性量とこの物理特性量に対応するバンディング知覚特性関数の関係から得られた関数を空間周波数に関して積分し、複数の空間周波数成分を含むバンディング知覚予測値を算出するようにしている。   In the technique described in Patent Literature 2, a psychological amount perceived by a human when observing banding, which is a kind of defect related to image quality, is predicted. Specifically, the physical characteristic amount of the image to be evaluated is converted into a spatial frequency, and the function obtained from the relationship between the preset physical characteristic amount and the banding perceptual characteristic function corresponding to this physical characteristic amount is related to the spatial frequency. Integration is performed to calculate a banding perception prediction value including a plurality of spatial frequency components.

また、特許文献3に記載の技術では、カラーディプレイ装置の輝度むらを評価する方法として、画像を空間周波数スペクトル画像に変換し、1次元化した輝度平均値に周波数の変化で増減する補正係数を乗算して補正された輝度平均値を算出し、補正された輝度平均値から抽出した特徴量と所定の基準とを比較することによって輝度むらを評価するようにしている。   Further, in the technique described in Patent Document 3, as a method for evaluating the luminance unevenness of the color display device, a correction coefficient that converts an image into a spatial frequency spectrum image and increases or decreases it by changing the frequency to a one-dimensional luminance average value. Is used to calculate the corrected luminance average value, and the characteristic unevenness extracted from the corrected luminance average value is compared with a predetermined reference to evaluate the luminance unevenness.

しかしながら、特許文献1〜3に記載の技術では、画像内の注目している空間周波数帯域のすじ欠陥を評価する場合、視感と対応の取れた評価値を算出することができない。具体的には、カラープリンタなどの画像出力装置により出力された画像のすじ欠陥を視感で評価する場合、注目しているすじ欠陥の位置以外に多くのノイズがあり、これら背景ノイズの影響、特に背景ノイズの空間周波数の影響を受けるため、この影響を考慮していない従来技術では、視感と対応の取れた評価値を算出することができない。   However, with the techniques described in Patent Documents 1 to 3, when evaluating a streak defect in a spatial frequency band of interest in an image, it is not possible to calculate an evaluation value corresponding to visual perception. Specifically, when evaluating streak defects in an image output by an image output device such as a color printer, there is a lot of noise other than the position of the streak defect being noticed. In particular, since it is affected by the spatial frequency of background noise, it is impossible to calculate an evaluation value corresponding to visual perception with the conventional technology that does not consider this influence.

たとえば、特許文献1に記載の技術では、すじの強さのみに注目して評価値を算出しているため、すじ以外の背景ノイズの影響を考慮できず、視感と対応の取れたすじ評価値を算出することができない。   For example, in the technique described in Patent Document 1, since the evaluation value is calculated by paying attention only to the strength of the streaks, the influence of the background noise other than the streaks cannot be taken into account, and the streak evaluation that can correspond to the visual feeling. The value cannot be calculated.

また、特許文献2に記載の技術では、複数の空間周波数成分を含む画像欠陥の総合的な評価値を算出しているため、注目している空間周波数帯域の画像欠陥と注目している画像欠陥以外の背景ノイズを分離できず、視感と対応の取れたすじ評価値を算出することができない。   Further, in the technique described in Patent Document 2, since a comprehensive evaluation value of an image defect including a plurality of spatial frequency components is calculated, the image defect in the spatial frequency band of interest and the image defect of interest It is not possible to separate background noise other than, and it is not possible to calculate a streak evaluation value corresponding to visual feeling.

また、特許文献3に記載の技術では、検査対象物の輝度分布から予め登録されている良品周波数パターンの輝度分布を減算して不良品周波数パターンの輝度分布を求め輝度むらを検査しているため、注目している空間周波数帯域の画像欠陥とそれ以外の背景ノイズを分離できるが、注目している画像欠陥の空間周波数帯域と背景ノイズの空間周波数帯域との関わりを考慮していないので、必ずしも、視感と対応の取れたすじ評価値を算出することができない。   In the technique described in Patent Document 3, the luminance distribution of a defective product frequency pattern is obtained by subtracting the luminance distribution of a non-defective product frequency pattern registered in advance from the luminance distribution of the inspection object, and the luminance unevenness is inspected. , The image defect of the spatial frequency band of interest and other background noise can be separated, but the relationship between the spatial frequency band of the image defect of interest and the spatial frequency band of the background noise is not considered, Therefore, it is not possible to calculate a streak evaluation value corresponding to visual perception.

なお、注目している画質要素の空間周波数帯域と背景ノイズの空間周波数帯域との関わりを考慮していないことに起因して視感と対応の取れた評価値を算出することができないという問題は、すじ欠陥に限らず、粒状性や鮮鋭性など、その他の空間周波数と関わりを持つ画質要素についても言えることである。   It should be noted that the problem of not being able to calculate an evaluation value that corresponds to visual perception due to not considering the relationship between the spatial frequency band of the image quality element of interest and the spatial frequency band of background noise. This is also true for image quality elements related to other spatial frequencies such as graininess and sharpness, as well as streak defects.

本発明は、上記事情に鑑みてなされたものであり、空間周波数と関わりを持つ画質をある空間周波数に注目して評価する場合であっても、背景ノイズの影響を受けずに、視感と対応の取れた評価値を算出することができる仕組みを提供することを目的とする。   The present invention has been made in view of the above circumstances, and even when evaluating image quality related to the spatial frequency by paying attention to a certain spatial frequency, it is not affected by background noise, It is an object to provide a mechanism that can calculate a corresponding evaluation value.

本願発明者の実験によれば、空間周波数と関わりを持つ画質をある空間周波数に注目して評価する場合に、背景ノイズの空間周波数が注目している空間周波数に近いほど視感評価に与える影響が大きくなるということが分かった。この点においては、空間周波数と関係した画質と関わりを持つ特徴量(たとえば実空間上のデータに基づいて取得される特徴量)に対して背景ノイズの補正を加えるに当たり、注目している空間周波数の成分を考慮して補正に使用する背景ノイズの成分を取得することが肝要であるということになる。本願発明はこの点に着目してなされたものである。   According to the experiment by the present inventor, when an image quality related to the spatial frequency is evaluated by paying attention to a certain spatial frequency, the influence that the spatial frequency of the background noise is closer to the focused spatial frequency has on the visual evaluation. It turns out that becomes larger. In this regard, when adding background noise correction to feature quantities related to image quality related to spatial frequencies (for example, feature quantities acquired based on data in real space), the spatial frequency of interest Therefore, it is important to acquire the background noise component used for correction in consideration of the above component. The present invention has been made paying attention to this point.

すなわち、本発明に係る仕組みにおいては、入力画像データに基づいて注目する画像要素の空間周波数と関係した画質と関わりを持つ特徴量を取得し、入力画像データを複数の空間周波数帯域成分に周波数展開し、この周波数展開した各空間周波数帯域成分に基づいて注目する画像要素に対しての背景成分を抽出し、特徴量と背景成分とに基づいて注目する画像要素の画質を評価するための評価値を客観的に求めるようにした。   That is, in the mechanism according to the present invention, a feature quantity related to the image quality related to the spatial frequency of the image element of interest is acquired based on the input image data, and the input image data is expanded into a plurality of spatial frequency band components. An evaluation value for extracting the background component for the image element of interest based on each spatial frequency band component that is expanded in frequency and evaluating the image quality of the image element of interest based on the feature amount and the background component Was asked objectively.

要するに、空間周波数と関係した画質を評価する際に、評価値のベースとなる特徴量に対しての背景ノイズの補正に使用される成分に関して、背景成分を複数の帯域成分に周波数展開して、その解析結果に基づいて、より適正な補正量を求める点に特徴を有するのである。   In short, when evaluating the image quality related to the spatial frequency, with regard to the component used to correct the background noise for the feature value that is the base of the evaluation value, the background component is frequency-expanded into a plurality of band components, It is characterized in that a more appropriate correction amount is obtained based on the analysis result.

周波数展開して求めた複数の帯域成分の解析結果に基づいて、より適正な補正量を求めるに当たっては、各帯域成分の内、注目する空間周波数を含む帯域の成分ほど補正量が強くなるように所定の重み付け演算を行なうのがよい。つまり、背景ノイズの補正に使用される補正成分を、注目する空間周波数に対する重み付けを考慮して取得する点に大きな特徴を有するのである。   Based on the analysis results of multiple band components obtained by frequency expansion, when determining a more appropriate correction amount, the correction amount is stronger for the band component including the spatial frequency of interest among the band components. It is preferable to perform a predetermined weighting calculation. That is, it has a great feature in that the correction component used for correcting the background noise is acquired in consideration of the weighting for the spatial frequency of interest.

また従属項に記載された発明は、本発明に係る画像評価の仕組みのさらなる有利な具体例を規定する。さらに、本発明に係るプログラムは、本発明に係る画像評価の仕組みを、電子計算機(コンピュータ)を用いてソフトウェアで実現するために好適なものである。なお、プログラムは、コンピュータ読取り可能な記憶媒体に格納されて提供されてもよいし、有線あるいは無線による通信手段を介した配信により提供されてもよい。   The invention described in the dependent claims defines a further advantageous specific example of the image evaluation mechanism according to the present invention. Furthermore, the program according to the present invention is suitable for realizing the image evaluation mechanism according to the present invention by software using an electronic computer (computer). Note that the program may be provided by being stored in a computer-readable storage medium, or may be provided by distribution via wired or wireless communication means.

本発明によれば、注目する画像要素の空間周波数と関係した画質と関わりを持つ特徴量に対しての背景ノイズの補正に使用される補正成分を、入力画像データを複数の空間周波数帯域成分に周波数展開し、この周波数展開した各空間周波数帯域成分に基づいて抽出するようにしたので、注目する空間周波数に対する重み付けを考慮して補正成分を取得することができるようになり、注目している空間周波数の画質要因が背景ノイズの影響を受け難くい評価値、あるいは受けないような評価値を取得することができる。結果として、粒状性や鮮鋭性やすじ欠陥などの空間周波数と関係した画質を評価するための評価値を、視感と対応が取れるようにして求めることができるようになる。   According to the present invention, the correction component used for correcting the background noise with respect to the feature quantity related to the image quality related to the spatial frequency of the image element of interest is converted into a plurality of spatial frequency band components. Since frequency expansion is performed and extraction is performed based on each spatial frequency band component subjected to frequency expansion, a correction component can be acquired in consideration of weighting for the spatial frequency of interest, and the space of interest It is possible to acquire an evaluation value at which the image quality factor of the frequency is not easily affected by the background noise or an evaluation value at which it is not. As a result, an evaluation value for evaluating the image quality related to the spatial frequency, such as graininess, sharpness, and flaw defect, can be obtained so as to be compatible with visual perception.

以下、図面を参照して本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<システム構成;第1実施形態>
図1は、本発明に係る画像評価装置の第1実施形態を備えた画像評価システム1の概略構成を示すブロック図である。ここでは、処理手順に従った機能ブロック図により示している。
<System Configuration; First Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of an image evaluation system 1 provided with a first embodiment of an image evaluation apparatus according to the present invention. Here, a functional block diagram according to the processing procedure is shown.

図示するように、画像評価システム1は、被評価画像の画像品質を評価する画像評価装置10と、被評価用画像Image を所定の記録媒体上に生成(形成)する画像出力装置(画像形成装置)50と、画像出力装置50が生成した被評価用画像Image を電子化した入力画像データD20を画像評価装置10に入力する画像入力装置70とを備えている。   As shown in the figure, an image evaluation system 1 includes an image evaluation apparatus 10 that evaluates the image quality of an image to be evaluated, and an image output apparatus (image forming apparatus) that generates (forms) an image to be evaluated Image on a predetermined recording medium. ) 50 and an image input device 70 for inputting the input image data D20 obtained by digitizing the image for evaluation Image generated by the image output device 50 to the image evaluation device 10.

画像評価の対象となる被評価用画像Image を生成する画像出力装置50としては、たとえばインクジェット方式や電子写真方式などの画像形成プロセスを用いたカラープリンタが使用される。たとえば、画像評価装置10内に保存されている原画像データD10をRGBやCMYKなどのデバイス依存色空間の色信号に変換して紙などの出力媒体上に画像を形成する。もちろん、画像評価装置10以外から原画像データD10を取得して被評価用画像Image を生成してもよい。   For example, a color printer using an image forming process such as an ink jet method or an electrophotographic method is used as the image output device 50 that generates an image to be evaluated Image to be evaluated. For example, the original image data D10 stored in the image evaluation apparatus 10 is converted into a color signal in a device-dependent color space such as RGB or CMYK to form an image on an output medium such as paper. Of course, the original image data D10 may be acquired from other than the image evaluation apparatus 10 to generate the image for evaluation Image.

また画像入力装置70としては、原画像データD10に対応する入力画像データD20(電子化された画像情報)を生成して画像評価装置10に入力することができればよく、たとえばフラットベッド方式のスキャナなど、画像出力装置50で生成された被評価用画像Image の画素情報を電子化して出力する装置を使用する。たとえば、画像出力装置50により生成された原画像データD10の出力画像(被評価用画像Image )を光学的に読み取り、読み取った入力画像データD20を画像評価装置10に供給する。   The image input device 70 only needs to be able to generate input image data D20 (digitized image information) corresponding to the original image data D10 and input it to the image evaluation device 10, such as a flatbed scanner. A device that digitizes and outputs pixel information of the image to be evaluated Image generated by the image output device 50 is used. For example, the output image (image to be evaluated Image) of the original image data D10 generated by the image output device 50 is optically read, and the read input image data D20 is supplied to the image evaluation device 10.

この場合、画像入力装置70は、入力特性のキャリブレーション、ドライバの調整などがなされていて、粒状性、鮮鋭性、階調特性、および色再現性が、被写体によって変化しないことが望ましい。また、AGCやエッジ強調などの画像入力装置70側で行なわれる自動的な処理はオフにされていることがさらに望ましい。   In this case, the image input apparatus 70 is preferably subjected to input characteristic calibration, driver adjustment, and the like, and it is desirable that the graininess, sharpness, gradation characteristics, and color reproducibility do not change depending on the subject. It is further desirable that automatic processing such as AGC and edge enhancement performed on the image input device 70 side is turned off.

図示を割愛するが、画像評価装置10は、装置内の各機能部を制御する制御部や、装置使用のためのガイダンス情報や所定の情報処理結果や管理情報などを画像情報として通知する表示部や、これらを音声情報として通知する本体内蔵もしくは外部設置の圧電体やスピーカなどで構成された音声通知部や、オペレータからの装置に対する種々の指示入力を受け付けるためのマウスやキーボードなどを有する指示入力部(操作部)を具備したユーザインタフェース部を備えている。   Although not shown, the image evaluation device 10 includes a control unit that controls each functional unit in the device, and a display unit that notifies the user of guidance information, predetermined information processing results, management information, and the like as image information. In addition, a voice notification unit comprising a built-in or externally installed piezoelectric body or speaker that notifies these as voice information, and an instruction input having a mouse or keyboard for receiving various instruction inputs from the operator to the device A user interface unit including a unit (operation unit).

画像評価装置10は、画像評価処理の実行に関わる各機能部として、先ず、画像データの受渡しをするインタフェース機能部としての出力インタフェース部11out および入力インタフェース部11inと、評価対象となる画像出力装置50の評価を行なうために必要な原画像データD10を記憶する原画像記憶部12と、画像入力装置70から供給された入力画像データD20を記憶する入力画像記憶部14とを備えている。なお、出力インタフェース部11out と原画像記憶部12とは、画像出力装置50にて被評価用画像Image を生成するための原画像データD10を画像出力装置50に供給するためのものであり、当該画像評価装置10にこれらを備えていることは必須ではない。   The image evaluation apparatus 10 includes an output interface unit 11out and an input interface unit 11in as interface function units for delivering image data, and an image output device 50 to be evaluated as functional units related to execution of the image evaluation process. The original image storage unit 12 that stores the original image data D10 necessary for the evaluation of the input image and the input image storage unit 14 that stores the input image data D20 supplied from the image input device 70 are provided. The output interface unit 11out and the original image storage unit 12 are for supplying the image output device 50 with original image data D10 for generating the image for evaluation Image in the image output device 50. It is not essential that the image evaluation apparatus 10 includes these.

出力インタフェース部11out は、原画像記憶部12に保存してあるsRGB(standard RGB ),XYZ,Lab(正しくはL***),LCh(正しくはL**°)などのデバイス非依存色空間の色信号で表わされた原画像データD10を装置外の各種機器に出力する。また、入力インタフェース部11inは、装置外の各種機器から入力画像データD20を取り込んで入力画像記憶部14に渡す。 The output interface unit 11out is a device such as sRGB (standard RGB), XYZ, Lab (correctly L * a * b * ) or LCh (correctly L * C * h ° ) stored in the original image storage unit 12. The original image data D10 represented by the color signal of the independent color space is output to various devices outside the apparatus. The input interface unit 11in takes in the input image data D20 from various devices outside the apparatus and passes it to the input image storage unit 14.

ここで、sRGB色空間のデータとは、デジタルカメラ、プリンタ、モニタなど多くのパーソナルコンピュータ用周辺機器などの分野で広く用いられている、IEC(International Electrotechnical Commission;国際電気標準会議 )が定める色空間の国際規格に即した色データである。このsRGBに則った色調整を行なうことで、入力と出力時の色の差異を極力少なくすることができる。   Here, the sRGB color space data is a color space defined by the International Electrotechnical Commission (IEC), which is widely used in the fields of peripheral devices for personal computers such as digital cameras, printers, and monitors. The color data conforms to the international standard. By performing color adjustment according to sRGB, the difference in color between input and output can be minimized.

原画像データD10は、パッチ画像やグラデーション画像のようなパターン画像だけでなく、写真画像のような絵柄画像を用いることができ、本実施形態では画像全面が均一色である場合について説明する。   As the original image data D10, not only a pattern image such as a patch image or a gradation image but also a pattern image such as a photographic image can be used. In the present embodiment, a case where the entire image has a uniform color will be described.

また、すじ欠陥に関する評価値の算出に当たり、たとえば、画像入力装置70より出力する画像チャートとしては、画像全面が均一色である画像チャートを用いることとする。特に本実施形態では、CMY50%の画像チャートを画像入力装置70より出力する場合について説明する。   In calculating the evaluation value related to the streak defect, for example, as an image chart output from the image input device 70, an image chart in which the entire image has a uniform color is used. In particular, in the present embodiment, a case where an image chart of 50% CMY is output from the image input device 70 will be described.

また、画像評価装置10は、デバイス依存色空間の画像データをデバイス非依存色空間の画像データに変換する色信号変換部16と、画像入力装置70から供給された入力画像データD20(画像データ)に基づいて入力画像画質要素評価値Q20を算出する画質要素評価値算出部20とを備えている。   The image evaluation apparatus 10 also includes a color signal conversion unit 16 that converts image data in a device-dependent color space into image data in a device-independent color space, and input image data D20 (image data) supplied from the image input apparatus 70. And an image quality element evaluation value calculation unit 20 for calculating an input image image quality element evaluation value Q20 based on the above.

色信号変換部16は、入力画像データD20を、デバイスに非依存の色空間である均等知覚色空間の色彩データや3刺激値XYZまたは3刺激値XYZに変換可能な色彩データ(纏めて入力画像データD22)に変換する。   The color signal conversion unit 16 converts the input image data D20 into color data of a uniform perceptual color space, which is a device-independent color space, or tristimulus values XYZ or tristimulus values XYZ (collectively input images). Data D22) is converted.

画質要素評価値算出部20は、この色信号変換部16の変換結果(入力画像データD22)を用いて評価値を算出するのがよい。色信号変換部16で色変換された均等知覚色空間の色彩データや3刺激値XYZまたは3刺激値XYZに変換可能なデバイス非依存の色信号(色彩データ;D22)を用いることで、画像入力装置の入力色特性の影響を排除できる。たとえば、ある色(Lab,LCH)を入力しても画像入力装置の違いで様々な入力画像データのRGB値が得られるが、画像入力装置の入力特性プロファイル(色変換プロファイル)を用いるなどして、デバイス非依存のデータに変換することで、画像入力装置が異なっても同じLab,LChが得られるようになる。   The image quality element evaluation value calculation unit 20 may calculate an evaluation value using the conversion result (input image data D22) of the color signal conversion unit 16. Image input by using color data in the uniform perceptual color space converted by the color signal converter 16 and device-independent color signals (color data; D22) that can be converted into tristimulus values XYZ or tristimulus values XYZ The influence of the input color characteristics of the device can be eliminated. For example, even if a certain color (Lab, LCH) is input, RGB values of various input image data can be obtained depending on the image input device. However, an input characteristic profile (color conversion profile) of the image input device is used. By converting to device-independent data, the same Lab and LCh can be obtained even if the image input devices are different.

画質要素評価値算出部20は、被評価用画像Image について、粒状性に関する評価値Qgや鮮鋭性に関する評価値Qsや階調特性に関する評価値Qtや色再現性に関する評価値Qcなどを求めることができるとともに、特に本実施形態の構成においては、被評価用画像Image に存在するすじ欠陥に関わるすじ評価値Qeを求めることができるようになっている。注目する画像要素についての粒状性や鮮鋭性やすじ欠陥に関する特徴量や評価値は、何れも空間周波数と関わりを持つものである。   The image quality element evaluation value calculation unit 20 obtains an evaluation value Qg related to graininess, an evaluation value Qs related to sharpness, an evaluation value Qt related to gradation characteristics, an evaluation value Qc related to color reproducibility, etc. for the image to be evaluated. In addition, particularly in the configuration of the present embodiment, the streak evaluation value Qe related to the streak defect existing in the image to be evaluated Image can be obtained. The feature amount and evaluation value related to the graininess, sharpness, and wrinkle defect of the image element of interest are all related to the spatial frequency.

具体的には、画質要素評価値算出部20は、入力画像データに基づいて注目する画像要素の空間周波数と関係した画質と関わりを持つ所定の特徴量Pを取得する特徴量取得部22と、注目する画像要素についての空間周波数と関わりを持つ画質を評価するための評価値Qを取得する評価値取得部26とを備えている。   Specifically, the image quality element evaluation value calculation unit 20 acquires a predetermined feature amount P having a relationship with the image quality related to the spatial frequency of the image element of interest based on the input image data, An evaluation value acquisition unit 26 is provided for acquiring an evaluation value Q for evaluating the image quality associated with the spatial frequency of the image element of interest.

本実施形態において、特徴量取得部22は、実空間上の画像データに基づいて特徴量Pを取得する。補正量取得部24は、実空間上の画像データを一旦周波数空間上の画像データに変換して所定の帯域処理(いわゆるフィルタリング処理)をし、さらに実空間上の画像データに戻してから補正量Bを取得する。   In the present embodiment, the feature amount acquisition unit 22 acquires a feature amount P based on image data in real space. The correction amount acquisition unit 24 once converts the image data in the real space into image data in the frequency space, performs predetermined band processing (so-called filtering processing), and returns the image data in the real space to the correction amount. B is acquired.

なお、特徴量取得部22は、実空間上の画像データを周波数空間上の画像データに変換し、注目する空間周波数を含む帯域の成分に基づいて特徴量Pを取得するようにしてもよい。ただし、この場合、注目する位置の注目する画質要素のみの特徴量Pを取得することができるように前処理を工夫する必要がある。周波数空間上に画像データを変換すると、位置に拘わらず、同様の周波数成分のものは同じ周波数軸上の成分として現われるからである。この点では、実空間上の画像データから特徴量Pを取得する場合、位置を特定した処理を行なうのは簡単である。   Note that the feature amount acquisition unit 22 may convert the image data in the real space into image data in the frequency space, and acquire the feature amount P based on the band component including the spatial frequency of interest. However, in this case, it is necessary to devise preprocessing so that the feature amount P of only the image quality element of interest at the position of interest can be acquired. This is because when image data is converted into the frequency space, the same frequency component appears as the component on the same frequency axis regardless of the position. In this respect, when the feature amount P is acquired from the image data in the real space, it is easy to perform the process of specifying the position.

また、画質要素評価値算出部20は、本実施形態の特徴部分として、入力画像データを複数の空間周波数帯域の成分に分割して、すなわち1つの入力画像データを複数の空間周波数帯域成分に周波数展開して、この周波数展開した各空間周波数帯域成分に基づいて注目する画像要素に対しての背景成分を抽出し、この抽出した背景成分を特徴量取得部22が取得した特徴量Qに対する補正量Bとする補正量取得部24を備えている。評価値取得部26は、特徴量取得部22により取得された特徴量Pおよび補正量取得部24により取得された補正量Bに基づいて評価値Qを求める。   Further, the image quality element evaluation value calculation unit 20 divides input image data into a plurality of spatial frequency band components, that is, frequency of one input image data as a plurality of spatial frequency band components as a characteristic part of the present embodiment. The background component for the image element of interest is extracted based on each spatial frequency band component that is expanded in frequency, and the correction amount for the feature amount Q acquired by the feature amount acquisition unit 22 is extracted from the extracted background component. A correction amount acquisition unit 24 for B is provided. The evaluation value acquisition unit 26 calculates an evaluation value Q based on the feature amount P acquired by the feature amount acquisition unit 22 and the correction amount B acquired by the correction amount acquisition unit 24.

ここで、本実施形態における画像評価方法のアルゴリズムにおいては、カラープリンタなどの画像出力装置より出力された画像に存在する所定方向の明度むら(いわゆるすじ欠陥)に関わる画像品質を評価する場合について説明する。   Here, in the algorithm of the image evaluation method according to the present embodiment, a case will be described in which the image quality related to brightness unevenness (so-called streak defect) in a predetermined direction existing in an image output from an image output device such as a color printer is evaluated. To do.

このようなすじ欠陥に関わる画像品質を評価するべく、特徴量取得部22は、入力画像データD20もしくは入力画像データD22に対して所定の前処理を施す前処理部210と、前処理部210にて処理された入力画像データに基づいて空間周波数と関わりを持つ特徴量Pの一例であるすじ特徴量Penを算出するすじ特徴量算出部270とを備えている。   In order to evaluate the image quality related to such a streak defect, the feature amount acquisition unit 22 includes a preprocessing unit 210 that performs predetermined preprocessing on the input image data D20 or the input image data D22, and a preprocessing unit 210. And a streak feature amount calculation unit 270 that calculates a streak feature amount Pen, which is an example of the feature amount P related to the spatial frequency, on the basis of the processed input image data.

前処理部210は、入力画像データD20もしくは色信号変換部16で処理されたデバイス非依存色空間の入力画像データD22をすじ欠陥と平行する方向に平均化し1次元のプロファイルに変換する1次元化処理部212と、明度(L*)プロファイルと明度プロファイルの平均線の差分を算出することで明度差分プロファイルを取得する平均線差分算出部214とを備えている。すじ特徴量算出部270は、平均線差分算出部214にて取得される差分プロファイルに基づいてすじ特徴量Peを求める。   The pre-processing unit 210 averages the input image data D20 or the input image data D22 in the device-independent color space processed by the color signal conversion unit 16 in a direction parallel to the streak defect and converts it to a one-dimensional profile. A processing unit 212 and an average line difference calculation unit 214 that acquires a lightness difference profile by calculating a difference between the lightness (L *) profile and the average line of the lightness profile are provided. The streak feature value calculation unit 270 obtains the streak feature value Pe based on the difference profile acquired by the average line difference calculation unit 214.

また、本実施形態の特徴部分である補正量取得部24は、前処理部210にて処理された入力画像データを複数の空間周波数帯域成分に周波数展開して、この周波数展開した各空間周波数帯域成分に基づいて注目する画像要素の画質の一例であるすじ欠陥に対しての背景成分を抽出し、この抽出した背景成分をすじ特徴量算出部270が求めたすじ特徴量Peに対するすじ補正量Beとするすじ補正量取得部280を備えている。   Further, the correction amount acquisition unit 24, which is a characteristic part of the present embodiment, expands the frequency of the input image data processed by the preprocessing unit 210 into a plurality of spatial frequency band components, and each spatial frequency band that has been expanded in frequency. A background component for a streak defect, which is an example of the image quality of an image element of interest, is extracted based on the component, and a streak correction amount Be for the streak feature amount Pe obtained by the streak feature amount calculation unit 270 using the extracted background component. A streak correction amount acquisition unit 280 is provided.

すじ補正量取得部280は、前処理部210にて処理された入力画像データを複数の空間周波数帯域の画像データに分割する空間周波数帯域分割部286と、空間周波数帯域分割部286にて周波数展開された複数の空間周波数帯域の画像データに基づいてすじ補正量Benを算出するすじ補正量算出部288とを備えている。   The streak correction amount acquisition unit 280 divides the input image data processed by the preprocessing unit 210 into image data of a plurality of spatial frequency bands, and the spatial frequency band division unit 286 performs frequency expansion. A streak correction amount calculating unit 288 that calculates a streak correction amount Ben based on the plurality of image data in the plurality of spatial frequency bands.

空間周波数帯域分割部286は、平均線差分算出部214にて取得される差分プロファイルを複数の空間周波数帯域の差分プロファイルに分割(周波数展開)する。すじ補正量算出部288は、空間周波数帯域分割部286で周波数展開された複数の空間周波数帯域の明度差分プロファイルに基づいてすじ補正量Beを求める。   The spatial frequency band division unit 286 divides (differs in frequency) the difference profile acquired by the average line difference calculation unit 214 into a plurality of difference profiles in the spatial frequency band. The streak correction amount calculation unit 288 obtains a streak correction amount Be based on the brightness difference profiles of a plurality of spatial frequency bands that are frequency-expanded by the spatial frequency band division unit 286.

評価値取得部26は、すじ特徴量算出部270により算出されたすじ特徴量Peおよびすじ補正量取得部280のすじ補正量算出部288により算出されたすじ補正量Beに基づいて、すじ欠陥の強さに関する評価値Qeを算出するすじ評価値算出部290を備えている。特に、本実施形態のすじ評価値算出部290は、注目している空間周波数帯域のすじ評価値Qeを算出する点に特徴を有する。   The evaluation value acquisition unit 26 determines a streak defect based on the streak feature amount Pe calculated by the streak feature amount calculation unit 270 and the streak correction amount Be calculated by the streak correction amount calculation unit 288 of the streak correction amount acquisition unit 280. A streak evaluation value calculation unit 290 that calculates an evaluation value Qe related to strength is provided. In particular, the streak evaluation value calculation unit 290 of the present embodiment is characterized in that it calculates a streak evaluation value Qe for the spatial frequency band of interest.

<色信号変換部の構成>
図2は、色信号変換部16の概略構成を説明するブロック図である。ここでは、処理手順に従った機能ブロック図により示している。
<Configuration of color signal converter>
FIG. 2 is a block diagram illustrating a schematic configuration of the color signal conversion unit 16. Here, a functional block diagram according to the processing procedure is shown.

図示するように、色信号変換部16は、入力画像記憶部14に保存されている入力画像データD20を均等知覚色空間の色彩データ(たとえばLab値)あるいは3刺激値XYZまたは3刺激値XYZに変換可能な色彩データなどデバイス非依存の色信号に変換する入力画像データ色変換部164を備えている。   As shown in the figure, the color signal conversion unit 16 converts the input image data D20 stored in the input image storage unit 14 into color data (for example, a Lab value), tristimulus value XYZ, or tristimulus value XYZ in a uniform perceptual color space. An input image data color conversion unit 164 for converting into color signals independent of devices such as convertible color data is provided.

入力画像データ色変換部164は、一例として、入力画像記憶部14から取り込んだRGB値で示された入力画像データD20を、一旦、デバイス非依存色空間の色信号であるXYZ3刺激値に変換した後に、均等色空間であるLab値もしくは色の3属性を構成するL(明度)C(彩度)h(色相)値で示された入力画像データD22に変換する。   As an example, the input image data color conversion unit 164 temporarily converts the input image data D20 indicated by the RGB values captured from the input image storage unit 14 into XYZ tristimulus values that are color signals in a device-independent color space. Later, the image data is converted into input image data D22 indicated by a Lab value that is a uniform color space or L (lightness) C (saturation) h (hue) value constituting three attributes of color.

均等知覚色空間では、色差が人の目で見た場合の色の差と線形に近い関係を持つので、感覚的に分かり易い評価値を算出することができる。たとえばCIEの定める3刺激値XYZやLab値などの均等知覚色空間のデータは、画像入力装置などの装置特性に依存しない絶対的な色の値を表すことができる。   In the uniform perceptual color space, since the color difference has a linear relationship with the color difference when viewed with the human eye, it is possible to calculate an evaluation value that is intuitively understandable. For example, uniform perceptual color space data such as tristimulus values XYZ and Lab values defined by CIE can represent absolute color values that do not depend on device characteristics such as an image input device.

このような絶対的な色を表すXYZ表色系またはこれに変換可能な表色系で入力画像データを作成しておくことにより、画像評価装置10内部では、画像入力装置70の入力色特性を全く考慮しなくても、人間の目の視覚感度に一致した色彩情報として比較が可能になり、視感と対応の取れた評価値を算出することができる。   By creating input image data in such an XYZ color system that represents an absolute color or a color system that can be converted to this, the input color characteristics of the image input device 70 are set in the image evaluation device 10. Even if no consideration is given, it is possible to make comparison as color information that matches the visual sensitivity of the human eye, and it is possible to calculate an evaluation value corresponding to visual perception.

たとえば、入力画像データD20のRGB値はデバイス依存の色信号であるため、入力画像データ色変換部164は、画像入力装置70の入力特性プロファイル(色変換プロファイル)を用いて、デバイス非依存の色信号であるXYZ3刺激値またはLab,LChに変換する。   For example, since the RGB value of the input image data D20 is a device-dependent color signal, the input image data color conversion unit 164 uses the input characteristic profile (color conversion profile) of the image input device 70 to generate a device-independent color. The signal is converted into an XYZ3 stimulation value or Lab, LCh.

また、入力画像データ色変換部164は、画像入力装置70の入力特性を補正するべく、入力画像データD20を、色特性や階調特性だけでなく、空間周波数(MTF)特性についても、フィルタなどで補正しておく。この補正の後に、デバイス非依存の色信号であるXYZ3刺激値またはLab値やLCh値に変換する。すなわち、本実施形態の構成においては、入力画像データ色変換部164が、入力画像から入力画像画質要素評価値を算出するに先立って、入力画像データを生成する入力画像データ生成手段(たとえば入力画像データD20を生成する画像入力装置70)の入力特性を補正する入力特性補正部として機能する。   Further, the input image data color conversion unit 164 corrects the input characteristics of the image input device 70 by filtering the input image data D20 with respect to not only color characteristics and gradation characteristics but also spatial frequency (MTF) characteristics. Correct with. After this correction, it is converted into an XYZ3 stimulus value or Lab value or LCh value which is a device independent color signal. That is, in the configuration of the present embodiment, the input image data color converting unit 164 generates input image data (for example, input image data) before generating the input image quality factor evaluation value from the input image. It functions as an input characteristic correction unit that corrects the input characteristics of the image input device 70) that generates the data D20.

<すじ欠陥の一例>
図3は、本実施形態で取り扱う被評価用画像Image に存在するすじ欠陥の一例を示す図である。図において、上端から下端の方向を垂直方向と呼び、左端から右端の方向を水平方向と呼ぶ。
<Example of streak defects>
FIG. 3 is a diagram showing an example of a streak defect existing in the image to be evaluated Image handled in the present embodiment. In the figure, the direction from the upper end to the lower end is called the vertical direction, and the direction from the left end to the right end is called the horizontal direction.

図示するように、被評価用画像Image におけるには、様々な太さや強度(階調差)の縦すじのノイズが存在している。このような中で、本実施形態では、特に、図中の中央部の矢印で示した位置に存在する垂直方向に延在する縦すじのノイズに注目してこれをすじ欠陥として捉え、その他の領域に存在する縦すじのノイズに関しては、背景ノイズとして取り扱うこととする。なお、図示を割愛するが、水平方向に延在する横すじのノイズに注目することもできる。   As shown in the figure, there are vertical streak noises of various thicknesses and intensities (gradation differences) in the image to be evaluated Image. Under such circumstances, in the present embodiment, in particular, attention is paid to vertical streak noise extending in the vertical direction at the position indicated by the arrow in the center of the figure, and this is regarded as a streak defect. The vertical streak noise existing in the area is treated as background noise. Although illustration is omitted, attention can be paid to horizontal streak noise extending in the horizontal direction.

<1次元化処理部の機能説明>
図4は、1次元化処理部212の機能を説明する図であって、特に、この1次元化処理部212で得られた明度プロファイルの一例を示している。なお、本実施形態では、1次元化処理部212以降の処理はデバイス非依存色空間の信号である明度Lの場合について説明するが、その他の色彩データa,b,C,hなど、デバイス非依存色空間の信号であれば全てに適用できる。
<Description of functions of the one-dimensional processing unit>
FIG. 4 is a diagram for explaining the function of the one-dimensionalization processing unit 212, and particularly shows an example of the brightness profile obtained by the one-dimensionalization processing unit 212. In the present embodiment, the processing after the one-dimensionalization processing unit 212 will be described for the case of lightness L, which is a signal in a device-independent color space, but other non-device data such as other color data a, b, C, and h. It can be applied to all signals in the dependent color space.

1次元化処理部212が取り扱うデバイス非依存色空間の画像データは、図3に示す2次元の被評価用画像Image を表わしたものであり、垂直方向における任意の1行分のデータを全列分含んでいるものである。また、縦すじのノイズ(すじ欠陥)は、水平方向の概ね同一の位置に存在することになる。   The device-independent color space image data handled by the one-dimensional processing unit 212 represents the two-dimensional image Image to be evaluated shown in FIG. It is what contains. In addition, vertical streak noise (streaks defects) exists at substantially the same position in the horizontal direction.

そこで、1次元化処理部16は、2次元の被評価用画像Image を表わすデバイス非依存色空間の画像データ(全列分のデータ)を、すじ欠陥と略平行する方向(本例では水平方向)に平均化する、すなわち同一水平位置の全列分のデータを平均化することで、1次元のプロファイルデータ(本例では明度プロファイルデータ)に変換する。こうすることで、図4に示すような、プロファイルデータが得られる。なお、明度プロファイルデータなどのプロファイルデータは実空間上で表わされる画像データの一例である。   Therefore, the one-dimensional processing unit 16 converts the device-independent color space image data (data for all columns) representing the two-dimensional image to be evaluated Image into a direction substantially parallel to the streak defect (in this example, the horizontal direction). ), I.e., by averaging the data for all columns at the same horizontal position, the data is converted into one-dimensional profile data (lightness profile data in this example). By doing so, profile data as shown in FIG. 4 is obtained. Note that profile data such as lightness profile data is an example of image data represented in real space.

この図4に示すプロファイルデータにおいては、縦すじのノイズを表わす周期の小さな信号成分の他に、左端から右端に向かって漸次データ値が小さくなる大きな周期の成分、すなわち、すじ欠陥を表わすデータよりも大きい周期の、すじ欠陥の評価では影響が少ない明度変動成分が存在している。この大きい周期の明度変動は、後述するように、1次元化処理部212の後段に設けられた平均線差分算出部214で除去される。   In the profile data shown in FIG. 4, in addition to a signal component having a small period representing vertical streak noise, a component having a large period in which the data value gradually decreases from the left end toward the right end, ie, data representing a streak defect. In addition, there is a lightness fluctuation component that is less affected by the evaluation of streak defects with a longer period. The lightness fluctuation of this large period is removed by the average line difference calculation unit 214 provided at the subsequent stage of the one-dimensionalization processing unit 212, as will be described later.

1次元化処理部212における平均化処理において、すじ欠陥と平行でない傾いた方向で平均化すると、1次元のプロファイルのすじ部の値が本来の値よりも小さくなってしまうため、すじ欠陥と略平行する方向で平均化することが望ましい。   In the averaging process in the one-dimensional processing unit 212, if averaging is performed in a tilted direction that is not parallel to the streak defect, the value of the streak part of the one-dimensional profile becomes smaller than the original value. It is desirable to average in parallel directions.

そのため、1次元化処理部212は、すじ欠陥の方向が読み取った入力画像データD20(もしくはD22)に対して垂直方向(または水平方向)になるように、画像入力装置70で被評価用画像Image を読み取るようにすることが望ましい。あるいは、すじ欠陥の方向が読み取った入力画像データD20などに対して垂直方向(または水平方向)からずれて傾いた場合は、1次元化処理部212は、入力画像データD20などのすじ欠陥の方向を検出し、傾いた方向に平均化することで傾き補正を電子的に行なうのが望ましい。   Therefore, the one-dimensionalization processing unit 212 uses the image input device 70 to evaluate the image to be evaluated so that the direction of the streak defect is in the vertical direction (or horizontal direction) with respect to the read input image data D20 (or D22). It is desirable to read. Alternatively, when the direction of the streak defect is inclined with respect to the read input image data D20 or the like and deviated from the vertical direction (or the horizontal direction), the one-dimensional processing unit 212 determines the direction of the streak defect such as the input image data D20. It is desirable that the tilt correction is performed electronically by detecting and averaging in the tilted direction.

<平均線差分算出部の機能説明>
図5は、平均線差分算出部214の機能を説明する図であって、特に、この平均線差分算出部214で得られた明度差分プロファイルの一例を示している。
<Functional Description of Average Line Difference Calculation Unit>
FIG. 5 is a diagram for explaining the function of the average line difference calculation unit 214, and particularly shows an example of the brightness difference profile obtained by the average line difference calculation unit 214.

平均線差分算出部214は先ず、1次元化処理部212により得られた明度プロファイルデータの概要(特徴)を示す特徴線プロファイルデータを求める。特徴線としては、すじ欠陥を表わすデータよりも大きい周期の、すじ欠陥の評価では影響が少ない明度変動成分を表わすものである限り、どのようなものであってもよい。   First, the average line difference calculation unit 214 obtains feature line profile data indicating an outline (feature) of the brightness profile data obtained by the one-dimensional processing unit 212. The feature line may be any characteristic line as long as it represents a lightness fluctuation component having a period larger than that of data representing a line defect and having little influence on the evaluation of the line defect.

たとえば、この特徴線としては、典型的には平均線を用いるのがよい。平均線としては、たとえば、明度プロファイルデータを2次多項式で近似した曲線を用いるのがよい。以下、平均線で説明する。   For example, an average line is typically used as the feature line. As the average line, for example, a curve obtained by approximating lightness profile data with a quadratic polynomial may be used. Hereinafter, the average line will be described.

次に平均線差分算出部214は、この平均線プロファイルデータと、1次元化処理部212により得られた明度プロファイルデータとの差分を算出する。この差分処理を行なうことで、図5に示すような、明度差分プロファイルデータが得られる。なお、明度差分プロファイルデータなどの差分プロファイルデータは実空間上で表わされる画像データの一例である。   Next, the average line difference calculation unit 214 calculates a difference between the average line profile data and the brightness profile data obtained by the one-dimensional processing unit 212. By performing this difference processing, brightness difference profile data as shown in FIG. 5 is obtained. Note that difference profile data such as brightness difference profile data is an example of image data represented in real space.

図5において、平均線に相当するデータが縦軸の“0”の値に統一され、縦すじのノイズを表わす周期の小さな信号成分が、“0”を中心として正負に現われるようになる。これにより、明度差分プロファイルデータにおいては、すじ欠陥を表わすデータよりも大きい周期の、すじ欠陥の評価では影響が少ない明度変動成分が除去される。   In FIG. 5, the data corresponding to the average line is unified with the value “0” on the vertical axis, and a signal component with a small period representing vertical streak noise appears positively and negatively around “0”. Thereby, in the brightness difference profile data, a brightness fluctuation component having a longer period than that of data representing a streak defect and having less influence on the evaluation of the streak defect is removed.

<すじ特徴量算出部の構成>
図6は、すじ特徴量算出部270の概略構成を説明するブロック図である。すじ特徴量算出部270は、平均線差分算出部214にて取得される複数の空間周波数帯域の明度差分プロファイルに基づいてすじ特徴量Penを求める。
<Configuration of streak feature amount calculation unit>
FIG. 6 is a block diagram illustrating a schematic configuration of the streak feature amount calculation unit 270. The streak feature amount calculation unit 270 obtains a streak feature amount Pen based on the brightness difference profiles of a plurality of spatial frequency bands acquired by the average line difference calculation unit 214.

このため、具体的には、すじ特徴量算出部270は、明度差分プロファイルのすじ位置を検出するすじ位置検出部412と、すじ位置検出部412で得られたすじ位置情報と明度差分プロファイルとに基づいてすじ強度を算出するすじ強度算出部414とを有して構成されている。   For this reason, specifically, the streak feature amount calculation unit 270 converts the streak position detection unit 412 that detects the streak position of the brightness difference profile, and the streak position information and the brightness difference profile obtained by the streak position detection unit 412. And a streak strength calculation unit 414 that calculates the streak strength based on this.

すじ位置検出部412は、平均線差分算出部214により得られた明度差分プロファイルに基づいて、すじ欠陥の位置情報を検出する。具体的には、着目するすじ欠陥を表わすであろう大きい縦すじのノイズ成分を検出するべく、明度差分プロファイルデータにおける下限側の閾値Th1から上限側の閾値Th2までの範囲から外れる明度差分プロファイルを検出し、この領域をすじ位置と判断する。   The streak position detection unit 412 detects the position information of the streak defect based on the brightness difference profile obtained by the average line difference calculation unit 214. Specifically, in order to detect a noise component of a large vertical streak that will represent the noticed streak defect, a brightness difference profile deviating from the range from the lower threshold value Th1 to the upper threshold value Th2 in the brightness difference profile data. It is detected and this area is determined as the streak position.

ここで、2つの閾値Th1,TH2は、着目するすじ欠陥の位置を適正に検知できるようにするためのものであるから、視感との関わりをもって規定するのがよい。たとえば、平均線(図5における“0”の値)からの差で正負方向に同じ量を設定し、人間が感じる最小の明度の差を用いることができる。こうすることで、下限側の閾値Th1から上限側の閾値Th2までの範囲内の信号成分を人間が感じない成分として排除し、それよりも大きな人間が感じる成分(本例の場合はすじ欠陥を表わす成分)に着目することができる。図5においては、閾値Th1,Th2を越えた領域は1箇所で、すじ欠陥が1つ存在し、それを適正に検知する状態となっている。   Here, since the two threshold values Th1 and TH2 are used for appropriately detecting the position of the noticeable streak defect, it is preferable that the two threshold values Th1 and TH2 are defined in relation to the visual feeling. For example, the same amount can be set in the positive and negative directions based on the difference from the average line (value of “0” in FIG. 5), and the minimum difference in brightness felt by humans can be used. In this way, signal components within the range from the lower threshold value Th1 to the upper threshold value Th2 are excluded as components that are not felt by humans, and larger components that humans feel (in this example, streak defects are eliminated). It is possible to focus on the component to be expressed. In FIG. 5, there is one region that exceeds the threshold values Th1 and Th2, one streak defect exists, and it is in a state where it is properly detected.

すじ強度算出部414は、すじ位置検出部412により検知されたすじ位置情報と平均線差分算出部214により求められた明度差分プロファイルとに基づいて、すじ欠陥の強度(すじ強度)を算出し、このすじ強度をすじ特徴量Penとする。   The streak strength calculation unit 414 calculates the strength of the streak defect (streak strength) based on the streak position information detected by the streak position detection unit 412 and the brightness difference profile obtained by the average line difference calculation unit 214. This streak intensity is defined as a streak feature amount Pen.

すじ強度(すじ欠陥の特徴を示すすじ特徴量Pen)としては、たとえば、明度差分プロファイルデータにおける閾値Th1から閾値Th2までの範囲から外れるより大きな明度差分プロファイルの最大値(ピーク強度)をすじ強度として用いるのがよい。なお、すじ強度は、着目するすじ欠陥の強さを表わすものであればよく、このような最大値に限らず、たとえば閾値Th1から閾値Th2までの範囲から外れるより大きな明度差分プロファイルの平均値や積分値などを用いることもできる。   As the streak intensity (the streak feature amount Pen indicating the characteristic of the streak defect), for example, the maximum value (peak intensity) of a larger brightness difference profile that falls outside the range from the threshold Th1 to the threshold Th2 in the brightness difference profile data is used as the streak intensity It is good to use. The streak intensity is not limited to such a maximum value as long as it represents the strength of the target streak defect. For example, the average value of a larger brightness difference profile deviating from the range from the threshold Th1 to the threshold Th2 An integral value can also be used.

<空間周波数帯域分割部の構成>
図7は、すじ補正量取得部280に内蔵されている空間周波数帯域分割部286の概略構成を説明するブロック図である。空間周波数帯域分割部286は、平均線差分算出部214にて取得される複数の空間周波数帯域の明度差分プロファイルを複数の空間周波数帯域の明度差分プロファイルに分割する。つまり、1つの明度差分プロファイルを周波数展開することで、それぞれ注目する周波数が異なる複数の明度差分プロファイルを生成する。
<Configuration of spatial frequency band division unit>
FIG. 7 is a block diagram illustrating a schematic configuration of the spatial frequency band dividing unit 286 built in the streak correction amount acquisition unit 280. The spatial frequency band dividing unit 286 divides the brightness difference profiles of the plurality of spatial frequency bands acquired by the average line difference calculation unit 214 into the brightness difference profiles of the plurality of spatial frequency bands. That is, a plurality of brightness difference profiles having different frequencies of interest are generated by frequency-expanding one brightness difference profile.

このため、具体的には、空間周波数帯域分割部286は、平均線差分算出部214にて取得される複数の空間周波数帯域の明度差分プロファイルに対して離散フーリエ変換を行なう離散フーリエ変換部422と、離散フーリエ変換部422により得られた空間周波数成分に帯域フィルタを乗算する帯域フィルタ乗算部424と、帯域フィルタ乗算部424にて帯域フィルタを乗算して得られた複数の帯域の空間周波数成分に対して逆離散フーリエ変換を行なう逆離散フーリエ変換部426とを有して構成されている。   Therefore, specifically, the spatial frequency band dividing unit 286 includes a discrete Fourier transform unit 422 that performs a discrete Fourier transform on the brightness difference profiles of a plurality of spatial frequency bands acquired by the average line difference calculation unit 214. A band filter multiplier 424 that multiplies the spatial frequency component obtained by the discrete Fourier transform unit 422 by a band filter, and a spatial frequency component of a plurality of bands obtained by multiplying the band filter by the band filter multiplier 424. An inverse discrete Fourier transform unit 426 that performs inverse discrete Fourier transform is provided.

離散フーリエ変換部422は、平均線差分算出部214により得られた明度差分プロファイルに対して離散フーリエ変換を行ない、明度差分プロファイルの空間周波数成分(明度差分スペクトル)を算出する。   The discrete Fourier transform unit 422 performs a discrete Fourier transform on the lightness difference profile obtained by the average line difference calculation unit 214, and calculates a spatial frequency component (lightness difference spectrum) of the lightness difference profile.

帯域フィルタ乗算部424は、注目しているすじ欠陥の空間周波数成分を含む複数の帯域フィルタを乗算することで、帯域別明度差分スペクトルを求める。たとえば、注目しているすじ欠陥の空間周波数f0が1.5cycle/mmの場合、4つの帯域フィルタ、f1(0.2cycle/mm以下)、f2(0.2〜1.0cycle/mm)、f3(1.0〜5.0cycle/mm)、f4(5.0cycle/mm以上)のフィルタを乗算する。   The band filter multiplier 424 multiplies a plurality of band filters including the spatial frequency component of the noticed streak defect to obtain a band-by-band brightness difference spectrum. For example, when the spatial frequency f0 of the noticed streak defect is 1.5 cycle / mm, four band-pass filters, f1 (0.2 cycle / mm or less), f2 (0.2 to 1.0 cycle / mm), f3 (1.0 to 5.0 cycle / mm), f4 (5.0 cycle / mm or more) filter is multiplied.

逆離散フーリエ変換部426は、帯域フィルタを乗算して得られた4つの帯域の空間周波数成分に対してそれぞれ逆離散フーリエ変換を行ない、4つの帯域別明度差分プロファイルデータL_f1,L_f2,L_f3,L_f4を算出する。   The inverse discrete Fourier transform unit 426 performs inverse discrete Fourier transform on the spatial frequency components of the four bands obtained by multiplying the band filters, respectively, and the four band brightness difference profile data L_f1, L_f2, L_f3, and L_f4. Is calculated.

このように、本実施形態の空間周波数帯域分割部286は、実空間上の情報である処理対象の画像データをフーリエ変換して周波数空間上の情報に変換し、この周波数空間上の情報に対してフィルタリング処理を加えることで複数の空間周波数帯域成分に展開するとともに、各空間周波数帯域成分から不要なノイズを抑制し、このノイズが抑制された各空間周波数帯域成分を逆フーリエ変換することで、周波数空間上の複数の空間周波数帯域成分を実空間上の情報に戻す。フィルタリング処理に際しては、少なくとも、注目する画質の注目する空間周波数を含む帯域成分とそれ以外の帯域成分とを峻別するようにする。   As described above, the spatial frequency band dividing unit 286 of the present embodiment performs Fourier transform on the processing target image data, which is information in the real space, to convert it into information in the frequency space. By applying filtering processing to expand into a plurality of spatial frequency band components, suppressing unnecessary noise from each spatial frequency band component, by inverse Fourier transforming each spatial frequency band component in which this noise is suppressed, A plurality of spatial frequency band components on the frequency space are returned to information on the real space. In the filtering process, at least the band component including the spatial frequency of interest of the image quality of interest is discriminated from the other band components.

こうすることで、注目する画質の特徴量(本例ではすじ特徴量Pen)に対しての背景成分を、注目する画質の注目する空間周波数を含む帯域成分と、それ以外の帯域成分とに適切に分離できるようになる。   By doing so, the background component for the feature quantity of the image quality of interest (in this example, the streak feature quantity Pen) is appropriate for the band component including the spatial frequency of interest of the image quality of interest and the other band components. Can be separated.

図8および図$a7は、周波数展開することで得られる、注目する周波数が異なる複数の明度差分プロファイル(帯域別明度差分プロファイル)の一例を示す図である。ここでは、図5に示した明度差分プロファイルに対して、空間周波数帯域分割部286にて周波数展開することで得られる、4つの帯域別明度差分プロファイルデータL_f1 ,L_f2 ,L_f3 ,L_f4 の一例を示している。   FIG. 8 and FIG. $ A7 are diagrams illustrating an example of a plurality of brightness difference profiles (brightness difference profiles by band) obtained by frequency expansion and having different frequencies of interest. Here, an example of four band-specific brightness difference profile data L_f 1, L_f 2, L_f 3, and L_f 4 obtained by performing frequency expansion on the brightness difference profile shown in FIG. 5 by the spatial frequency band dividing unit 286 is shown. ing.

たとえば、図8(A)は帯域f1(0.2cycle/mm以下)に注目した明度差分プロファイルデータL_f1 であり、図8(B)は帯域f2(0.2〜1.0cycle/mm)に注目した明度差分プロファイルデータL_f2 であり、図9(A)は帯域f3(1.0〜5.0cycle/mm)に注目した明度差分プロファイルデータL_f3 であり、図9(B)は帯域f4(5.0cycle/mm以上)に注目した明度差分プロファイルデータL_f4 である。   For example, FIG. 8A shows brightness difference profile data L_f1 focused on the band f1 (0.2 cycle / mm or less), and FIG. 8B focused on the band f2 (0.2 to 1.0 cycle / mm). 9A is the brightness difference profile data L_f3 focused on the band f3 (1.0 to 5.0 cycle / mm), and FIG. 9B is the band f4 (5.5). Brightness difference profile data L_f4 focusing on 0 cycle / mm or more).

このように、1つの明度差分プロファイルをそれぞれ異なる帯域に周波数展開することで、入力画像データの空間周波数成分の特徴を知ることができる。たとえば、注目しているすじ欠陥の空間周波数(すじ空間周波数)f0成分を含まない明度差分プロファイルデータL_f1 ,L_f2 ,L_f4 については、周波数空間上でランダムなノイズが存在するが、注目しているすじ欠陥のすじ空間周波数f0成分を含む明度差分プロファイルデータL_f3 では、注目しているすじ欠陥のすじ空間周波数f0である1.5cycle/mmでのデータ値が大きくなり、それ以外の周波数ではランダムなノイズが存在する。   As described above, the characteristics of the spatial frequency component of the input image data can be known by expanding the frequency of one brightness difference profile in different bands. For example, with respect to the brightness difference profile data L_f1, L_f2, and L_f4 that do not include the spatial frequency (straight spatial frequency) f0 component of the noticed streak defect, random noise exists in the frequency space. In the brightness difference profile data L_f3 including the defect streak spatial frequency f0 component, the data value at 1.5 cycle / mm, which is the streak spatial frequency f0 of the noticed streak defect, increases, and random noise is generated at other frequencies. Exists.

<すじ補正量算出部の構成>
図10は、すじ補正量取得部280に内蔵されているすじ補正量算出部288の概略構成を説明するブロック図である。すじ補正量算出部288は、空間周波数帯域分割部286により得られたそれぞれ異なる複数の空間周波数帯域の明度プロファイルに基づいて、すじ補正量Benを算出する。
<Configuration of streak correction amount calculation unit>
FIG. 10 is a block diagram illustrating a schematic configuration of a streak correction amount calculation unit 288 built in the streak correction amount acquisition unit 280. The streak correction amount calculation unit 288 calculates the streak correction amount Ben based on the brightness profiles of a plurality of different spatial frequency bands obtained by the spatial frequency band dividing unit 286.

ここで、すじ補正量Benとは、注目しているすじ欠陥以外の背景ノイズの強さを表す特徴量であり、すじ欠陥の強さに関するすじ評価値Qeを求める際に影響を及ぼす特徴量である。   Here, the streak correction amount Ben is a feature amount representing the intensity of background noise other than the noticed streak defect, and is a feature amount that influences when the streak evaluation value Qe regarding the strength of the streak defect is obtained. is there.

すじ欠陥以外の背景ノイズの強さを適正に求めるに当たっては、各空間周波数帯域成分の特徴量から注目するすじ欠陥の強さの影響を排除する必要がある。このため、具体的には、すじ補正量算出部288は、空間周波数帯域分割部286で得られた複数の空間周波数帯域の明度プロファイルの標準偏差SDを各空間周波数帯域成分の特徴量として算出する標準偏差算出部432と、注目しているすじ欠陥の空間周波数帯域f0とそれ以外の空間周波数帯域とを峻別するすじ空間周波数帯域設定部434とを有して構成されている。   In order to appropriately obtain the intensity of background noise other than streak defects, it is necessary to eliminate the influence of the strength of the streak defect to be noticed from the feature amount of each spatial frequency band component. Therefore, specifically, the streak correction amount calculation unit 288 calculates the standard deviation SD of the brightness profiles of the plurality of spatial frequency bands obtained by the spatial frequency band division unit 286 as the feature amount of each spatial frequency band component. The standard deviation calculating unit 432 and a streak spatial frequency band setting unit 434 that distinguishes the spatial frequency band f0 of the noticed streak defect from other spatial frequency bands are configured.

標準偏差算出部432は、各空間周波数帯域成分の特徴量を取得する帯域特徴量取得部の一例である。すじ空間周波数帯域設定部434は、特徴量取得部22が取得した特徴量Pにおける注目する空間周波数帯域を設定する注目空間周波数帯域設定部の一例である。   The standard deviation calculation unit 432 is an example of a band feature quantity acquisition unit that acquires feature quantities of each spatial frequency band component. The streak spatial frequency band setting unit 434 is an example of an attention spatial frequency band setting unit that sets a spatial frequency band of interest in the feature amount P acquired by the feature amount acquisition unit 22.

また、すじ補正量算出部288は、すじ空間周波数帯域設定部434により峻別・設定されたすじ空間周波数帯域fに基づいて各空間周波数帯域成分の特徴量に対する重み係数kを設定する重み係数設定部436と、標準偏差算出部432により求められた複数の明度プロファイルの各標準偏差SDに対して重み係数設定部436により設定された重み係数kを用いて重み付け演算を行なってすじ補正量Benを算出する重み付け演算部438とを有して構成されている。   Further, the streak correction amount calculation unit 288 is a weighting factor setting unit that sets the weighting factor k for the feature amount of each spatial frequency band component based on the streak spatial frequency band f that is distinct and set by the streak spatial frequency band setting unit 434. 436 and a weighting calculation using the weighting factor k set by the weighting factor setting unit 436 for each standard deviation SD of the plurality of brightness profiles obtained by the standard deviation calculating unit 432, thereby calculating the line correction amount Ben. And a weighting calculation unit 438.

帯域特徴量取得部の一例である標準偏差算出部432は、空間周波数帯域分割部286により得られた複数の空間周波数帯域の明度プロファイルデータL_f1 ,L_f2 ,L_f3 ,L_f4 のそれぞれについて、標準偏差SD_f1 ,SD_f2 ,SD_f3 ,SD_f4 を算出する。   The standard deviation calculation unit 432, which is an example of the band feature quantity acquisition unit, performs standard deviations SD_f1,... For each of the plurality of spatial frequency band brightness profile data L_f1, L_f2, L_f3, and L_f4 obtained by the spatial frequency band division unit 286. SD_f2, SD_f3, and SD_f4 are calculated.

標準偏差を求めることは、全体のばら付きを総合的に評価することを意味し、注目しているすじ欠陥のすじ空間周波数f0成分を含む明度差分プロファイルデータ中に存在する注目しているすじ欠陥の強さの影響を排除できる利点がある。   Obtaining the standard deviation means comprehensive evaluation of the overall variation, and the noticed streak defect existing in the brightness difference profile data including the streak spatial frequency f0 component of the noticed streak defect. There is an advantage that the influence of strength can be eliminated.

図5に示す明度差分プロファイルデータの場合、すじ空間周波数f0成分は1つであるのに対して、それを除くノイズ周波数成分はランダムに多数存在するからである。すなわち、標準偏差を求めると、すじ空間周波数f0やその近傍の周波数成分を特異点として取り扱うことができ、予めすじ空間周波数f0やその近傍の周波数成分を排除してデータ解析を行なわなくても、このすじ空間周波数f0やその近傍の周波数成分の影響を受けない情報を取得できるのである。結果的に、各空間周波数帯域成分の特徴量から注目するすじ欠陥の強さの影響を排除することができる。   This is because in the case of the brightness difference profile data shown in FIG. 5, there is only one streak spatial frequency f0 component, but there are many noise frequency components other than the streak spatial frequency f0 component. That is, when the standard deviation is obtained, the streak spatial frequency f0 and the frequency components in the vicinity thereof can be handled as singular points, and the data can be analyzed without eliminating the streak spatial frequency f0 and the frequency components in the vicinity thereof in advance. Information that is not affected by the streak spatial frequency f0 or the frequency components in the vicinity thereof can be acquired. As a result, it is possible to eliminate the influence of the strength of the line defect to be noticed from the feature amount of each spatial frequency band component.

注目空間周波数帯域設定部の一例であるすじ空間周波数帯域設定部434は、注目しているすじ欠陥のすじ空間周波数f0を含む帯域(すじ欠陥の空間周波数帯域)を設定する。すじ空間周波数帯域は、空間周波数帯域分割部286で周波数展開した空間周波数帯域(f1,f2,f3,f4)と同じものを用いる。すじ空間周波数帯域の設定はオペレータが手動で設定するものであってもよいし、すじ特徴量算出部270にて求められるすじ特徴量Penから推定するなどして自動で設定するものであってもよい。何れにしても、特徴量取得部22が取得した特徴量Pにおける注目する空間周波数帯域を設定することができればよいのである。   The streak spatial frequency band setting unit 434, which is an example of the target spatial frequency band setting unit, sets a band including the streak spatial frequency f0 of the target streak defect (spatial defect spatial frequency band). As the streak spatial frequency band, the same spatial frequency band (f1, f2, f3, f4) developed by the spatial frequency band dividing unit 286 is used. The setting of the streak spatial frequency band may be set manually by the operator, or may be automatically set by estimating from the streak feature amount Pen obtained by the streak feature amount calculation unit 270. Good. In any case, it suffices if the spatial frequency band of interest in the feature quantity P acquired by the feature quantity acquisition unit 22 can be set.

重み係数設定部436は、すじ空間周波数帯域設定部434で峻別・設定したすじ空間周波数帯域(f1,f2,f3,f4の何れか)に応じて、標準偏差算出部432により得られた複数の標準偏差SD_f1 ,SD_f2 ,SD_f3 ,SD_f4 に乗算する各重み係数k1,k2,k3,k4を設定する。   The weight coefficient setting unit 436 has a plurality of lines obtained by the standard deviation calculation unit 432 according to the streak spatial frequency band (any one of f1, f2, f3, and f4) that is distinctly set and set by the streak spatial frequency band setting unit 434. Each weight coefficient k1, k2, k3, k4 to be multiplied by the standard deviations SD_f1, SD_f2, SD_f3, SD_f4 is set.

ここで、重み係数設定部436は、すじ空間周波数帯域設定部434で峻別・設定されるすじ空間周波数帯域(f1,f2,f3,f4の何れか)に応じて異なる数値を各重み係数k1,k2,k3,k4に設定する。   Here, the weighting factor setting unit 436 sets different numerical values according to the streak spatial frequency bands (any one of f1, f2, f3, and f4) that are discriminated and set by the streak spatial frequency band setting unit 434. Set to k2, k3, k4.

このとき、重み係数設定部436は、すじ空間周波数帯域設定部434で設定されたすじ空間周波数帯域、つまりすじ空間周波数f0を含む帯域に近いほど重付けが高くなるような重み係数kを設定する。たとえば、すじ空間周波数帯域設定部434でfnを設定した場合に対応する重み係数knが一番高くなるような数値を設定するのが肝要である。   At this time, the weighting factor setting unit 436 sets a weighting factor k such that the weighting increases as the streak spatial frequency band set by the streak spatial frequency band setting unit 434, that is, the band including the streak spatial frequency f0 is closer. . For example, it is important to set a numerical value that gives the highest weighting factor kn when fn is set by the streak spatial frequency band setting unit 434.

これは、すじ特徴量算出部270により求められるすじ特徴量Penに対して、すじ欠陥の空間周波数帯域f0と同一もしくは近傍周波数の成分の補正をより強く加えることで、すじ欠陥の強さに関するすじ評価値Qeが視感とより対応するようにするためである。   This is because the streak feature amount Pen obtained by the streak feature amount calculation unit 270 is more strongly corrected for a component having the same or near frequency as the spatial frequency band f0 of the streak defect, so that the streak related to the strength of the streak defect is obtained. This is because the evaluation value Qe more closely corresponds to the visual feeling.

たとえば、帯域f1を設定した場合はk1=1.0、k2=0.4、k3=0.2、k4=0.1、帯域f2を設定した場合はk1=0.3、k2=1.0、k3=0.3、k4=0.1、帯域f3を設定した場合はk1=0.1、k2=0.3、k3=1.0、k4=0.3、帯域f4を設定した場合はk1=0.1、k2=0.2、k3=0.4、k4=1.0、の数値を設定する。   For example, when the band f1 is set, k1 = 1.0, k2 = 0.4, k3 = 0.2, k4 = 0.1, and when the band f2 is set, k1 = 0.3, k2 = 1. 0, k3 = 0.3, k4 = 0.1, band f3 is set, k1 = 0.1, k2 = 0.3, k3 = 1.0, k4 = 0.3, band f4 is set In this case, k1 = 0.1, k2 = 0.2, k3 = 0.4, k4 = 1.0 are set.

重み付け演算部438は、標準偏差算出部432により求められた複数の明度プロファイルの各標準偏差SD_f1 ,SD_f2 ,SD_f3 ,SD_f4 に対して、重み係数設定部436により設定された各重み係数k1,k2,k3,k4を用いて重み付け演算を行なうことで、すじ補正量Benを算出する。   The weighting calculation unit 438 applies the weighting factors k1, k2, and k2 set by the weighting factor setting unit 436 to the standard deviations SD_f1, SD_f2, SD_f3, and SD_f4 of the plurality of brightness profiles obtained by the standard deviation calculation unit 432, respectively. The streak correction amount Ben is calculated by performing a weighting operation using k3 and k4.

ここで、重み付け演算に当たっては、たとえば式(1)に示すように、重み係数設定部436により設定されたすじ空間周波数f0に近いほど高くなるような重み係数knと標準偏差算出部432により取得された標準偏差SDnとを掛けて得られる各重付き周波数帯域成分kn*SDnの線形和(重み付け線形和)を使用するのがよい。   Here, in the weighting calculation, for example, as shown in the equation (1), the weight coefficient kn and the standard deviation calculation unit 432 are obtained so as to become higher as the streak spatial frequency f0 set by the weight coefficient setting unit 436 is closer. It is preferable to use a linear sum (weighted linear sum) of each overlapped frequency band component kn * SDn obtained by multiplying the standard deviation SDn.

このような重み付け線形和を使用してすじ補正量Benを求めると、注目しているすじ欠陥の空間周波数帯域に応じて、その注目しているすじ欠陥の強さの影響を受けない適正なすじ補正量Benを算出することができる。   When the streak correction amount Ben is obtained using such a weighted linear sum, an appropriate streak that is not affected by the strength of the noticed streak defect according to the spatial frequency band of the noticed streak defect. The correction amount Ben can be calculated.

なお、本実施形態では、各空間周波数帯域成分の特徴量として標準偏差SDを算出することですじ空間周波数f0やその近傍の周波数成分の影響を受けないようにし、すじ欠陥以外の背景ノイズの強さを適正に求める、つまり注目するすじ欠陥の強さの影響を排除したすじ補正量Benを求めるようにしていたが、注目するすじ欠陥の強さの影響を受けない背景ノイズの強さを表すものである限り、その他の取得手法を用いることもできる。   In this embodiment, the standard deviation SD is calculated as the feature quantity of each spatial frequency band component, so that it is not affected by the spatial frequency f0 or the frequency components in the vicinity thereof, and the background noise other than the streak defect is strong. The streak correction amount Ben is obtained by properly determining the length, that is, eliminating the influence of the strength of the noticeable streak defect, but represents the strength of the background noise that is not affected by the strength of the noticeable streak defect. Other acquisition techniques can be used as long as they are.

たとえば、一般的なデータ解析と同様に、平均値や中央値(メジアン)やスパン(最大値と最小値の差)などを各空間周波数帯域成分の特徴量として用いることも考えられる。ただし、これらの場合には、単純な算出手法では、注目するすじ欠陥の強さの影響を受けないようにすることが難しい。   For example, as in general data analysis, it is also conceivable to use an average value, median value (median), span (difference between the maximum value and the minimum value), etc. as the feature quantity of each spatial frequency band component. However, in these cases, it is difficult to avoid the influence of the strength of the noticeable line defect by a simple calculation method.

たとえば、平均値の場合、単純に平均値を求めたのでは、注目するすじ欠陥の成分をもその算出に含んでしまう。また、中央値やスパンの場合には、注目するすじ欠陥の成分を最大値(もしくは最小値もしくはその両方)として使用して中央値やスパンを求めることになるので、注目するすじ欠陥の強さの影響を大きく受けてしまい、背景成分を適正に求めることが難しい。このため、予めすじ空間周波数f0やその近傍の周波数成分を排除してから(事前の排除処理を行なってから)平均値などを求める必要がある。この点では、標準偏差を使用すれば、このような事前の排除処理を行なわなくても、すじ空間周波数f0やその近傍の周波数成分の影響を受けない情報が得られる点で有利である。   For example, in the case of an average value, if the average value is simply obtained, the noticed line defect component is also included in the calculation. In the case of the median value or span, since the median value or span is obtained using the component of the noticed streak defect as the maximum value (or the minimum value or both), the strength of the noticed streak defect It is difficult to obtain the background component properly. For this reason, it is necessary to obtain an average value or the like after eliminating the streak spatial frequency f0 and the frequency components in the vicinity thereof (after performing a prior elimination process). In this respect, if the standard deviation is used, it is advantageous in that information that is not affected by the streak spatial frequency f0 or the frequency components in the vicinity thereof can be obtained without performing such prior exclusion processing.

また、重み付け演算部438においては、式(1)に示すような重み付け線形和を使用することですじ補正量Benを算出していたが、注目空間周波数帯域設定部の一例であるすじ空間周波数帯域設定部434が設定した注目するすじ空間周波数を含む帯域成分ほど高い重付けがなされたすじ補正量Benを求めることができればよく、その限りにおいて、その他の取得手法を用いることもできる。ただし、特に式(1)に示すような重み付け線形和を使用すると、それ以外の手法に比べて、注目するすじ空間周波数を考慮した適正なすじ補正量Benを非常に簡単に求めることができる。   In addition, the weighting calculation unit 438 calculates the stripe correction amount Ben by using a weighted linear sum as shown in the equation (1), but the streak spatial frequency band which is an example of the spatial frequency band setting unit of interest. As long as the band component including the noticed streak spatial frequency set by the setting unit 434 can be obtained, the streak correction amount Ben weighted higher can be obtained, and other acquisition methods can be used as long as it can be obtained. However, when a weighted linear sum as shown in Equation (1) is used, an appropriate streak correction amount Ben considering the noticed streak spatial frequency can be obtained very easily compared to other methods.

<すじ評価値算出部の構成>
図11は、すじ評価値算出部290の概略構成を説明するブロック図である。すじ評価値算出部290は、すじ特徴量算出部270により算出されたすじ特徴量Penとすじ補正量算出部288より算出されたすじ補正量Benとに基づいて、注目しているすじ欠陥が存在する位置以外のすじ空間周波数f0やその近傍の周波数成分の影響を排除した、その注目しているすじ欠陥の空間周波数帯域のすじ評価値Qeを求める。
<Configuration of streak evaluation value calculation unit>
FIG. 11 is a block diagram illustrating a schematic configuration of the line evaluation value calculation unit 290. The streak evaluation value calculation unit 290 has a noticeable streak defect based on the streak feature amount Pen calculated by the streak feature amount calculation unit 270 and the streak correction amount Ben calculated by the streak correction amount calculation unit 288. A streak evaluation value Qe of the spatial frequency band of the noticed streak defect is obtained by eliminating the influence of the streak spatial frequency f0 other than the position where the streak is located and the frequency components in the vicinity thereof.

具体的には、すじ評価値算出部290は、検出したすじ欠陥ごとに、各すじ欠陥のすじ評価値に関する個別すじ評価値Qenを算出する個別すじ評価値算出部442と、個別すじ評価値算出部442で得られた複数の個別すじ評価値Qenに基づいてすじ欠陥に関する総合的な評価値である総合すじ評価値Qe_allを算出する総合すじ評価値算出部444とを有して構成されている。   Specifically, the streak evaluation value calculation unit 290 calculates an individual streak evaluation value calculation unit 442 that calculates an individual streak evaluation value Qen related to a streak evaluation value of each streak defect, and calculates an individual streak evaluation value. And a total streak evaluation value calculation unit 444 that calculates a total streak evaluation value Qe_all, which is a comprehensive evaluation value related to streak defects, based on a plurality of individual streak evaluation values Qen obtained by the unit 442. .

個別すじ評価値算出部442は、たとえば、すじ特徴量算出部270により得られた各すじ特徴量Penからすじ補正量算出部288により得られたすじ補正量Benを減算することですじ欠陥の強さに関する個別すじ評価値Qenを算出する。   The individual streak evaluation value calculation unit 442 subtracts the streak correction amount Ben obtained by the streak correction amount calculation unit 288 from each streak feature amount Pen obtained by the streak feature amount calculation unit 270, for example. The individual streak evaluation value Qen regarding the length is calculated.

なお個別すじ評価値Qenは、検出したすじ欠陥ごとに、そのすじ欠陥の強さ(度合い)を示すものであればよく、すじ評価値Qeは、このような差分処理により求めることに限らず、たとえば、すじ特徴量Penをすじ補正量Benで除算することにより求めてもよい。差分処理や除算処理の何れにおいても、背景ノイズに対しての注目しているすじ欠陥の強さを求めていることになる。   The individual streak evaluation value Qen only needs to indicate the strength (degree) of the streak defect for each detected streak defect, and the streak evaluation value Qe is not limited to being obtained by such difference processing, For example, it may be obtained by dividing the streak feature amount Pen by the streak correction amount Ben. In any of the difference processing and the division processing, the strength of the line defect that is focused on the background noise is obtained.

総合すじ評価値算出部444は、個別すじ評価値算出部442により得られた複数の個別すじ評価値Qenを積算することで、すじ欠陥に関する総合的な評価値である総合すじ評価値Qe_allを算出し、これをすじ評価値Qeとする。   The total streak evaluation value calculation unit 444 calculates a total streak evaluation value Qe_all that is a comprehensive evaluation value related to streak defects by accumulating a plurality of individual streak evaluation values Qen obtained by the individual streak evaluation value calculation unit 442. This is taken as the line evaluation value Qe.

なお、総合すじ評価値Qe_allは、すじ欠陥の総合的な強さを示すものであればよく、このような積算処理により求めることに限らず、たとえば、複数の個別すじ評価値Qenを平均することで求めてもよい。あるいは、一般的なデータ解析と同様に、中央値(メジアン)やスパン(最大値と最小値の差)などを用いることも考えられる。   Note that the total streak evaluation value Qe_all only needs to indicate the total strength of the streak defect. The total streak evaluation value Qe_all is not limited to being obtained by such integration processing, and for example, a plurality of individual streak evaluation values Qen are averaged. You may ask for. Alternatively, as in general data analysis, it is also possible to use a median value (median), a span (difference between the maximum value and the minimum value), or the like.

図12は、第1実施形態の画像評価装置10により被評価用画像Image として2種類の画像A,Bのすじ欠陥について、すじ評価値Qeを算出した結果を説明する図である。ここで、図12(A)は被評価用画像Aの明度差分プロファイルデータLaであり、図12(B)は被評価用画像Bの明度差分プロファイルデータLbであり、図12(C)は、すじ評価値を算出した結果を示す図表である。なお、図12(C)に示す図表においては、比較として、従来技術のすじ評価値も示している。   FIG. 12 is a diagram for explaining the result of calculating the streak evaluation value Qe for the streak defect of two types of images A and B as the image to be evaluated Image by the image evaluation apparatus 10 of the first embodiment. Here, FIG. 12A shows the lightness difference profile data La of the image A to be evaluated, FIG. 12B shows the lightness difference profile data Lb of the image B to be evaluated, and FIG. It is a graph which shows the result of having calculated the stripe evaluation value. In addition, in the chart shown in FIG. 12C, the streak evaluation value of the prior art is also shown as a comparison.

2種類の被評価用画像Image (画像Aと画像B)は、何れも電子写真方式のカラープリンタで出力した画像であり、それぞれの明度差分プロファイルは図12(A),(B)に示すようになっている。   The two types of images for evaluation Image (image A and image B) are both images output by an electrophotographic color printer, and the brightness difference profiles thereof are as shown in FIGS. 12 (A) and 12 (B). It has become.

従来技術によるすじ評価値は、図12(A),(B)に示す明度差分プロファイルを持つ画像からすじ欠陥のピーク強度とすじ欠陥以外の背景の標準偏差を求め、“ピーク強度−背景の標準偏差”により評価値を算出したものである。   The streak evaluation value according to the prior art is obtained by obtaining the peak intensity of the streak defect and the standard deviation of the background other than the streak defect from the images having the brightness difference profiles shown in FIGS. The evaluation value is calculated by “deviation”.

一方、本実施形態のすじ評価値は、図12(A),(B)に示す明度差分プロファイルを持つ画像から図1に示した画像評価装置10の構成に従って、すじ欠陥のすじ特徴量Pen(ピーク強度)とすじ補正量Ben(4つの空間周波数帯域の標準偏差の重み付け線形和)を求め、“すじ特徴量Pen−すじ補正量Ben”を個別すじ評価値Qenとして算出したものである。   On the other hand, the streak evaluation value of the present embodiment is obtained from the image having the brightness difference profile shown in FIGS. 12A and 12B in accordance with the configuration of the image evaluation apparatus 10 shown in FIG. Peak intensity) and streak correction amount Ben (weighted linear sum of standard deviations of four spatial frequency bands) are obtained, and “streaks feature amount Pen−streas correction amount Ben” is calculated as individual streak evaluation value Qen.

本実施形態のすじ評価値の算出に当たっては、注目しているすじ欠陥の空間周波数が略1.5cycle/mmであるため、空間周波数帯域分割部286では4つの帯域、f1(0.2cycle/mm以下)、f2(0.2〜1.0cycle/mm)、f3(1.0〜5.0cycle/mm)、f4(5.0cycle/mm以上)に分割する。また、すじ補正量算出部288では、すじ空間周波数帯域設定部434で帯域f3をすじ空間周波数f0を含む空間周波数帯域に設定し重み係数設定部436で、重付け演算に用いられる各係数k1〜k4を、k1=0.1,k2=0.3,k3=1.0,k4=0.3に設定した。   In calculating the streak evaluation value of the present embodiment, since the spatial frequency of the noticed streak defect is approximately 1.5 cycle / mm, the spatial frequency band dividing unit 286 has four bands, f1 (0.2 cycle / mm Below), f2 (0.2 to 1.0 cycle / mm), f3 (1.0 to 5.0 cycle / mm), and f4 (5.0 cycle / mm or more). Further, the streak correction amount calculation unit 288 sets the band f3 to a spatial frequency band including the streak spatial frequency f0 by the streak spatial frequency band setting unit 434, and the weighting coefficient setting unit 436 uses the coefficients k1 to k1 used for weighting calculation. k4 was set to k1 = 0.1, k2 = 0.3, k3 = 1.0, k4 = 0.3.

図12(A),(B)に示すように、画像Aおよび画像Bは、すじ欠陥のピーク強度は同じですじ欠陥以外の背景ノイズ(標準偏差)の大きさは画像Bの方が画像Aよりも若干大きく、また、背景ノイズの周波数特性が異なっている。たとえば、画像Aでは、図12(A)に示す明度差分プロファイルから分かるように、すじ欠陥と同程度の空間周波数帯域f3の背景ノイズが大きく、すじ欠陥は目立ち難い。これに対して、画像Bでは、図12(B)に示す明度差分プロファイルから分かるように、すじ欠陥と同程度の空間周波数帯域f3の背景ノイズが小さく、すじ欠陥は目立ち易い。   As shown in FIGS. 12A and 12B, the image A and the image B have the same peak defect peak intensity, and the image A has a larger background noise (standard deviation) than the image defect. And the frequency characteristics of background noise are different. For example, in the image A, as can be seen from the brightness difference profile shown in FIG. 12A, the background noise in the spatial frequency band f3 that is the same level as the streak defect is large, and the streak defect is not noticeable. On the other hand, in the image B, as can be seen from the brightness difference profile shown in FIG. 12B, the background noise in the spatial frequency band f3 which is about the same as the streak defect is small, and the streak defect is easily noticeable.

実際に、視感の評価では、注目するすじ欠陥と同程度の空間周波数帯域の成分が背景ノイズとして周囲に存在すると、注目するすじ欠陥がそれに紛れてしまうので、すじ欠陥と同程度の空間周波数帯域f3の背景ノイズが大きい画像Aよりも、すじ欠陥と同程度の空間周波数帯域f3の背景ノイズが小さい画像Bの方がすじ欠陥の強さが高くなる。   Actually, in visual evaluation, if a component of the same spatial frequency band as the noticeable streak defect exists in the surroundings as background noise, the noticeable streak defect is misunderstood. The strength of the streak defect is higher in the image B in which the background noise in the spatial frequency band f3 is the same as that of the streak defect than in the image A in which the background noise is large in the band f3.

従来技術において、“ピーク強度−背景の標準偏差”のようにしてすじ評価値を算出すると、背景の標準偏差は画像Bの方が画像Aよりも若干大きいため、すじ欠陥の強さを示すすじ評価値Qeは、画像Bの方が画像Aより低く評価される。   In the prior art, when the streak evaluation value is calculated as “peak intensity−background standard deviation”, the standard deviation of the background is slightly larger in the image B than in the image A, and thus the streak indicating the strength of the streak defect is shown. The evaluation value Qe is evaluated lower in the image B than in the image A.

一方、本実施形態においては、すじ補正量算出部288は、すじ欠陥の空間周波数帯域f0と同一もしくは近傍周波数の成分の補正量がより大きくなるように、すじ空間周波数帯域に対して高い重み付けを施してすじ補正量Benを求めている。このため、“すじ特徴量Pen−すじ補正量Ben”に従ってすじ評価値Qeを算出することで背景ノイズの補正を加えると、すじ特徴量算出部270にて求められるすじ特徴量Penが同じ画像であっても、すじ欠陥の空間周波数帯域f0と同一もしくは近傍周波数の成分が大きな画像ほど、すじ評価値算出部290にて求められるすじ評価値Qeが小さくなり、視感の評価と対応の取れたすじ評価値Qeとなる。   On the other hand, in the present embodiment, the streak correction amount calculation unit 288 gives high weighting to the streak spatial frequency band so that the correction amount of the component having the same or nearby frequency as the spatial frequency band f0 of the streak defect becomes larger. The streak correction amount Ben is obtained. For this reason, when the background noise is corrected by calculating the streak evaluation value Qe according to “streaks feature amount Pen−streaks correction amount Ben”, the streak feature amount Pen obtained by the streak feature amount calculation unit 270 is the same image. Even in such an image, the streak evaluation value Qe obtained by the streak evaluation value calculation unit 290 is smaller for an image having the same or close frequency component as the spatial frequency band f0 of the streak defect, and the visual evaluation can be dealt with. The streak evaluation value Qe is obtained.

画像Aと画像Bとの比較で言えば、すじ欠陥のピーク強度が同じであっても、すじ欠陥と同程度の空間周波数帯域f3の背景ノイズが小さい画像Bの方が、すじ欠陥と同程度の空間周波数帯域f3の背景ノイズが大きい画像Aよりも、すじ評価値Qeが大きくなり、画像Bのすじ欠陥は画像Aのすじ欠陥より高く評価されるので、視感と対応の取れたすじ評価値Qeを算出できる。   In comparison between the image A and the image B, even if the peak intensity of the streak defect is the same, the image B having the same background noise in the spatial frequency band f3 as that of the streak defect is similar to the streak defect. The streak evaluation value Qe is larger than that of the image A having a large background noise in the spatial frequency band f3, and the streak defect of the image B is evaluated to be higher than the streak defect of the image A. The value Qe can be calculated.

以上のように、本実施形態の画像評価装置10におけるすじ欠陥に関する評価値(すじ評価値Qe)の取得手法によれば、すじ欠陥に関する特徴量(すじ特徴量Pen)に含まれる背景成分の影響を抑制するための補正成分(すじ補正量Ben)を求めるに当たり、注目するすじ欠陥の空間周波数帯域と同一もしくは近傍周波数の成分のすじ特徴量に対する抑制量をより大きくすることができるようにしたので、注目している空間周波数帯域のすじ欠陥を評価する場合でも、注目しているすじ欠陥以外の背景ノイズの影響を受けず、視感と対応の取れたすじ評価値を算出することができる。   As described above, according to the method for acquiring the evaluation value (streaks evaluation value Qe) regarding the streak defect in the image evaluation apparatus 10 of the present embodiment, the influence of the background component included in the feature amount (streaks feature amount Pen) regarding the streak defect. Since the correction component (streaks correction amount Ben) for suppressing the streak feature can be increased, the suppression amount for the streak feature amount of the component having the same or near frequency as the spatial frequency band of the target streak defect can be increased. Even when a streak defect in the spatial frequency band of interest is evaluated, it is possible to calculate a streak evaluation value that is compatible with visual feeling without being affected by background noise other than the noticed streak defect.

従来の仕組みにおいて、画質を評価するための評価値を客観的に求めるに当たって、周波数解析を利用するものがある(たとえば特許文献3に記載の仕組み)。しかしながら、単純に周波数解析を利用して評価値を求めたのでは、背景ノイズの影響を受け、注目する画像要素の注目する周波数の注目する画質のみの評価値を適正に得ることが難しい。注目する画像要素が存在する位置以外(つまり注目部分の周囲)に、同一もしくは近傍の周波数の成分が存在すると、それを注目するものと峻別することができないからである。   In a conventional mechanism, there is one that uses frequency analysis to objectively obtain an evaluation value for evaluating image quality (for example, a mechanism described in Patent Document 3). However, if the evaluation value is simply obtained by using frequency analysis, it is difficult to obtain an evaluation value of only the image quality of interest of the frequency of interest of the image element of interest due to the influence of background noise. This is because if there is a component having the same or a nearby frequency other than the position where the image element of interest exists (that is, around the portion of interest), it cannot be distinguished from the component of interest.

この点において、空間周波数と関係した画質を評価する際に、評価値のベースとなる特徴量に対しての背景ノイズの補正に使用される成分に関して、背景成分を複数の帯域成分に周波数展開して、その解析結果に基づいて補正量を求めるようにすれば、注目する空間周波数を含む帯域の成分ほど補正量が強くなるように所定の重み付け演算を行なうことができる。   In this regard, when evaluating the image quality related to the spatial frequency, the background component is frequency-expanded into multiple band components for the component used to correct the background noise for the feature value that is the basis of the evaluation value. Thus, if the correction amount is obtained based on the analysis result, a predetermined weighting calculation can be performed so that the correction amount becomes stronger for the band component including the spatial frequency of interest.

そして、このようにして求めた補正量を使って特徴量に対して補正を加えれば、評価値に対しての影響度合いの強い注目する空間周波数帯域成分ほど補正を強く加えることができるようになり、結果として、評価値に対しての影響度合いの強い注目する空間周波数帯域成分の影響を排除し得ることになり、視感と対応の取れた評価値を算出することができるようになる。   Then, if correction is performed on the feature amount using the correction amount obtained in this way, the spatial frequency band component of interest that has a strong influence on the evaluation value can be corrected more strongly. As a result, it is possible to eliminate the influence of the spatial frequency band component of interest that has a strong influence on the evaluation value, and it is possible to calculate an evaluation value that corresponds to the visual feeling.

従来の仕組みでは、空間周波数に対する重み付けを考慮した背景ノイズの補正が施されていないため、視感と対応の取れた評価値を算出することができないのと大きく異なるのである。   In the conventional mechanism, the background noise is not corrected in consideration of the weighting on the spatial frequency, which is greatly different from the case where the evaluation value corresponding to the visual feeling cannot be calculated.

<システム構成;第2実施形態>
図13は、本発明に係る画像評価装置の第2実施形態を備えた画像評価システム1の概略構成を示すブロック図である。ここでは、処理手順に従った機能ブロック図により示している。第2実施形態の画像評価装置10は、特徴量Pや補正量Bを求めるに当たって、予め入力画像データに対して視覚系の空間周波数特性に応じた補正を施し、この補正が施された画像データを使用して特徴量Pや補正量Bを取得するようにした点に特徴を有している。
<System Configuration; Second Embodiment>
FIG. 13 is a block diagram showing a schematic configuration of an image evaluation system 1 including the second embodiment of the image evaluation apparatus according to the present invention. Here, a functional block diagram according to the processing procedure is shown. The image evaluation apparatus 10 according to the second embodiment performs correction according to the spatial frequency characteristics of the visual system on the input image data in advance when obtaining the feature amount P and the correction amount B, and the image data subjected to this correction. The feature amount P and the correction amount B are acquired using the feature.

具体的には、第2実施形態の画像評価装置10は、前処理部210内において、すじ特徴量算出部270や空間周波数帯域分割部286の前段に、入力画像データ(本例では平均線差分算出部214で求められた明度差分プロファイルデータ)に対し、視覚系の空間周波数特性に応じた補正を施す視覚空間周波数特性補正部216を備えている。視覚空間周波数特性補正部216は、平均線差分算出部214により得られた明度差分プロファイルデータに対して、人間の視覚特性に合わせる補正を行なう。   Specifically, the image evaluation apparatus 10 according to the second embodiment includes input image data (average line difference in this example) before the streak feature amount calculation unit 270 and the spatial frequency band division unit 286 in the preprocessing unit 210. A visual spatial frequency characteristic correction unit 216 is provided for correcting the brightness difference profile data obtained by the calculation unit 214 according to the spatial frequency characteristic of the visual system. The visual spatial frequency characteristic correction unit 216 corrects the brightness difference profile data obtained by the average line difference calculation unit 214 according to human visual characteristics.

<視覚空間周波数特性補正部の構成>
図14は、視覚空間周波数特性補正部216の概略構成を説明するブロック図である。視覚空間周波数特性補正部216は、明度差分プロファイルデータに対して離散フーリエ変換を行ない、それに視覚系の空間周波数特性を表す関数を掛け合わせる、すなわち視覚特性フィルタを乗算することで視覚特性の補正を加え、この視覚特性の補正が加えられた空間周波数成分に対して逆離散フーリエ変換を行なうことによって、人間の視覚特性に合致した明度差分プロファイルデータを生成する。
<Configuration of visual spatial frequency characteristic correction unit>
FIG. 14 is a block diagram illustrating a schematic configuration of the visual spatial frequency characteristic correction unit 216. The visual spatial frequency characteristic correction unit 216 performs a discrete Fourier transform on the brightness difference profile data and multiplies it by a function representing the spatial frequency characteristic of the visual system, that is, multiplies the visual characteristic filter to correct the visual characteristic. In addition, by performing inverse discrete Fourier transform on the spatial frequency component to which the correction of the visual characteristic is added, brightness difference profile data matching the human visual characteristic is generated.

このため、具体的には、視覚空間周波数特性補正部216は、平均線差分算出部214により得られた明度差分プロファイルデータに対して離散フーリエ変換を行なう離散フーリエ変換部402と、離散フーリエ変換部402により得られた空間周波数成分に人間の視覚の空間周波数特性に対応した視覚伝達関数VTF(f)(VTF:Visual Transfer Function)を乗算することで視覚特性フィルタ処理を行なう視覚特性フィルタ乗算部404と、視覚特性フィルタ乗算部404により視覚特性フィルタを乗算して得られた空間周波数成分に対して逆離散フーリエ変換を行う逆離散フーリエ変換部406とを有して構成されている。   Therefore, specifically, the visual spatial frequency characteristic correction unit 216 includes a discrete Fourier transform unit 402 that performs discrete Fourier transform on the brightness difference profile data obtained by the average line difference calculation unit 214, and a discrete Fourier transform unit. A visual characteristic filter multiplication unit 404 that performs visual characteristic filter processing by multiplying the spatial frequency component obtained by 402 by a visual transfer function VTF (f) (VTF: Visual Transfer Function) corresponding to the spatial frequency characteristic of human vision. And an inverse discrete Fourier transform unit 406 that performs inverse discrete Fourier transform on the spatial frequency component obtained by multiplying the visual property filter by the visual property filter multiplication unit 404.

離散フーリエ変換部402は、平均線差分算出部214により得られた明度差分プロファイルデータに対して離散フーリエ変換を行ない、明度差分プロファイルの空間周波数成分(明度差分スペクトル)を算出する。   The discrete Fourier transform unit 402 performs a discrete Fourier transform on the lightness difference profile data obtained by the average line difference calculation unit 214, and calculates a spatial frequency component (lightness difference spectrum) of the lightness difference profile.

視覚特性フィルタ乗算部404は、人間の視覚の空間周波数特性に対応した視覚伝達関数VTF(f)として、たとえば式(2)に示すDooleyの近似式を用いることで、視覚特性フィルタ処理を行ない、視感度補正済の明度差分スペクトルを取得する。ここでは、fは空間周波数[cycle/mm]を表す。   The visual characteristic filter multiplication unit 404 performs visual characteristic filter processing by using, for example, a Dooley approximate expression shown in Expression (2) as the visual transfer function VTF (f) corresponding to the spatial frequency characteristic of human vision, A brightness difference spectrum with corrected visibility is acquired. Here, f represents the spatial frequency [cycle / mm].

逆離散フーリエ変換部406は、視覚特性フィルタ乗算部404により視覚特性フィルタを乗算して得られた空間周波数成分(視感度補正済の明度差分スペクトル)に対して逆離散フーリエ変換を行なうことで、人間の視覚特性に合致した視感度補正済の明度差分プロファイルデータL_vtfを算出する。   The inverse discrete Fourier transform unit 406 performs an inverse discrete Fourier transform on the spatial frequency component (luminance difference spectrum after the visual sensitivity correction) obtained by multiplying the visual characteristic filter by the visual characteristic filter multiplication unit 404, Luminance difference profile data L_vtf corrected for visibility matching human visual characteristics is calculated.

視覚空間周波数特性補正部216の後段のすじ特徴量算出部270や空間周波数帯域分割部286は、このようにして視覚系の空間周波数特性に応じた補正が施された明度差分プロファイルデータL_vtfを使用してすじ特徴量Penやすじ補正量Benを求める。   The streak feature quantity calculation unit 270 and the spatial frequency band division unit 286 following the visual spatial frequency characteristic correction unit 216 use the lightness difference profile data L_vtf thus corrected according to the spatial frequency characteristic of the visual system. Then, a streak feature amount Pen and a streak correction amount Ben are obtained.

図15は、第2実施形態の画像評価装置10において、図5に示した明度差分プロファイルデータについて視覚空間周波数特性補正部216にて求めた人間の視覚特性に合致した明度差分プロファイルデータL_vtfの一例を示す図である。図5と図15との比較から分かるように、視覚系の空間周波数特性に応じた補正を施すと、周波数が高く、視感度の低い成分が抑制されるようになる。   FIG. 15 is an example of brightness difference profile data L_vtf that matches the human visual characteristics obtained by the visual spatial frequency characteristic correction unit 216 for the brightness difference profile data shown in FIG. 5 in the image evaluation apparatus 10 of the second embodiment. FIG. As can be seen from the comparison between FIG. 5 and FIG. 15, when correction according to the spatial frequency characteristic of the visual system is performed, components with high frequency and low visibility are suppressed.

この第2実施形態のように、人間の視覚の空間周波数特性に合わせる補正を行なってからすじ特徴量Penやすじ補正量Benを求めてすじ評価値Qeを求めるようにすることで、より視感と対応の取れたすじ評価値Qeを算出することができるようになる。   As in the second embodiment, the line feature value Pen and the line correction amount Ben are obtained after performing the correction in accordance with the spatial frequency characteristics of human vision, thereby obtaining the line evaluation value Qe. It is possible to calculate a streak evaluation value Qe that can correspond to the above.

<電子計算機を利用した構成>
なお、上述した一連の画像評価処理機能は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。すなわち、画像評価処理の実行に関わる各機能部は、それぞれハードウェアにより構成することに限らず、その機能を実現するプログラムコードに基づいて電子計算機(コンピュータ)を用いてソフトウェア的に実現することも可能である。たとえば、一般的なPC(パーソナルコンピュータ)本体の構成と同様に、CPU(Central Processing Unit )、RAM(Random Access Memory)、ROM(Read-Only Memory)などを備えて構成することができる。
<Configuration using an electronic computer>
The series of image evaluation processing functions described above can be executed by hardware, but can also be executed by software. That is, each functional unit related to the execution of the image evaluation process is not limited to being configured by hardware, but may be realized by software using a computer (computer) based on a program code that realizes the function. Is possible. For example, similarly to the configuration of a general PC (personal computer) main body, a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read-Only Memory), and the like can be provided.

上述の画像評価処理の実行に際しては、このコンピュータ構成の画像評価装置に組み込まれたアプリケーションプログラムをCPUが実行することによって実現することができる。よって、本発明に係る画像評価方法や装置を、電子計算機(コンピュータ)を用いてソフトウェアで実現するために好適な画質評価プログラムあるいはこの画質評価プログラムを格納したコンピュータ読取可能な記憶媒体を発明として抽出することもできる。   The execution of the image evaluation process described above can be realized by the CPU executing an application program incorporated in the image evaluation apparatus having the computer configuration. Therefore, an image quality evaluation program suitable for realizing the image evaluation method and apparatus according to the present invention by software using an electronic computer (computer) or a computer-readable storage medium storing the image quality evaluation program is extracted as an invention. You can also

もちろん、このようなコンピュータを用いた構成に限らず、それぞれの機能をなす専用のハードウェアの組合せにより構成することもできる。ソフトウェアにより処理を実行させる仕組みとすることで、ハードウェアの変更を伴うことなく、処理手順や処理条件などを容易に変更できる利点を享受できるようになる。逆に、ハードウェアで構成すれば、高速処理が実現できる。   Of course, the configuration is not limited to such a computer, but may be configured by a combination of dedicated hardware that performs each function. By adopting a mechanism for executing processing by software, it is possible to enjoy the advantage that the processing procedure, processing conditions, and the like can be easily changed without changing hardware. On the contrary, if it is configured by hardware, high-speed processing can be realized.

記録媒体は、コンピュータのハードウェア資源に備えられている読取装置に対して、プログラムの記述内容に応じて、磁気、光、電気などのエネルギの状態変化を引き起こして、それに対応する信号の形式で、読取装置にプログラムの記述内容を伝達できるものである。   The recording medium causes a state change of energy such as magnetism, light, electricity, etc. according to the description contents of the program to the reading device provided in the hardware resource of the computer, and in the form of a signal corresponding to the change. The program description can be transmitted to the reader.

たとえば、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD−ROM(Compact Disc-Read Only Memory )、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc )を含む)、または半導体メモリなどよりなるパッケージメディア(可搬型の記憶媒体)により構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMやハードディスクなどで構成されてもよい。または、ソフトウェアを構成するプログラムが、有線あるいは無線などの通信網を介して提供されてもよい。   For example, a magnetic disc (including a flexible disc), an optical disc (CD-ROM (Compact Disc-Read Only Memory)), a DVD (which is distributed to provide a program to a user separately from a computer, (Including Digital Versatile Disc), magneto-optical disc (including MD (Mini Disc)), or package media (portable storage media) made of semiconductor memory, etc. It may be configured by a ROM, a hard disk, or the like in which a program is recorded that is provided to the user in a state. Or the program which comprises software may be provided via communication networks, such as a wire communication or radio | wireless.

一連の評価値算出処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ(組込みマイコンなど)、あるいは、CPU、論理回路、記憶装置などの機能を1つのチップ上に搭載して所望のシステムを実現するSOC(System On a Chip:システムオンチップ)、または、各種のプログラムをインストールすることで各種の機能を実行することが可能な汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。   When a series of evaluation value calculation processes are executed by software, a program (such as an embedded microcomputer) in which a program constituting the software is incorporated in dedicated hardware, or a CPU, logic circuit, storage device, etc. System on a chip (SOC) that implements a desired system by mounting functions on a single chip, or general-purpose that can execute various functions by installing various programs It is installed from a recording medium in a personal computer or the like.

たとえば、画像評価値算出処理機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、ハードウェアにて構成する場合と同様の効果は達成される。この場合、記憶媒体から読み出されたプログラムコード自体が画像評価値算出処理機能を実現する。   For example, a storage medium in which a program code of software for realizing an image evaluation value calculation processing function is supplied to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code in the storage medium The same effect as that achieved by hardware can also be achieved by reading and executing. In this case, the program code itself read from the storage medium realizes an image evaluation value calculation processing function.

また、コンピュータが読み出したプログラムコードを実行することで、画像評価値算出処理を行なう機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム;基本ソフト)などが実際の処理の一部または全部を行ない、その処理によって画像評価値算出処理を行なう機能が実現される場合であってもよい。   Further, by executing the program code read by the computer, not only the function of performing the image evaluation value calculation process is realized, but also an OS (operating system; operating on the computer) based on the instruction of the program code. Basic software) or the like may perform a part or all of the actual processing, and the function of performing the image evaluation value calculation processing may be realized by the processing.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によって画像評価値算出処理を行なう機能が実現される場合であってもよい。   Further, after the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. There may be a case where the CPU or the like provided in the card or the function expansion unit performs part or all of the actual processing, and the function of performing the image evaluation value calculation processing is realized by the processing.

このような電子計算機には、たとえば、複写アプリケーションやプリンタアプリケーション、ファクシミリ(FAX)アプリケーション、あるいは他のアプリケーション用の処理プログラムなど、従来の画像形成装置(複合機)におけるものと同様のソフトウェアが組み込まれる。また、ネットワーク9を介して外部とのデータを送受信したりするための制御プログラムも組み込まれる。   In such an electronic computer, for example, software similar to that in a conventional image forming apparatus (multifunction machine) such as a copying application, a printer application, a facsimile (FAX) application, or a processing program for other applications is incorporated. . A control program for transmitting and receiving data to and from the outside via the network 9 is also incorporated.

このとき、画像評価値算出処理を行なう機能を実現するプログラムコードを記述したファイルとしてプログラムが提供されるが、この場合、一括のプログラムファイルとして提供されることに限らず、コンピュータで構成されるシステムのハードウェア構成に応じて、個別のプログラムモジュールとして提供されてもよい。たとえば、既存の複写装置制御ソフトやプリンタ制御ソフト(プリンタドライバ)に組み込まれるアドインソフトとして提供されてもよい。   At this time, the program is provided as a file describing a program code for realizing the function of performing the image evaluation value calculation process. In this case, the program is not limited to being provided as a batch program file, and is a system configured by a computer. Depending on the hardware configuration, it may be provided as an individual program module. For example, it may be provided as add-in software incorporated in existing copying apparatus control software or printer control software (printer driver).

図16は、CPUやメモリを利用してソフトウェア的に画像評価装置10を構成する、すなわちパーソナルコンピュータなどの電子計算機を利用して画像評価装置10をソフトウェア的に実現する場合のハードウェア構成の一例を示した図である。   FIG. 16 shows an example of a hardware configuration in which the image evaluation apparatus 10 is configured by software using a CPU and a memory, that is, the image evaluation apparatus 10 is realized by software using an electronic computer such as a personal computer. FIG.

画像評価装置10を構成するコンピュータシステム900は、コントローラー部901と、ハードディスク装置、フレキシブルディスク(FD)ドライブ、あるいはCD−ROM(Compact Disk ROM)ドライブ、半導体メモリコントローラなどの、所定の記憶媒体からデータを読み出したり記録したりするための記録・読取制御部902とを有する。特に、本実施形態においては、ハードディスク装置やその他の記憶媒体を原画像記憶部12や入力画像記憶部14として機能させ、原画像データD10などを格納する。   The computer system 900 constituting the image evaluation apparatus 10 includes data from a controller unit 901 and a predetermined storage medium such as a hard disk device, a flexible disk (FD) drive, a CD-ROM (Compact Disk ROM) drive, or a semiconductor memory controller. And a recording / reading control unit 902 for reading out and recording data. In particular, in the present embodiment, the hard disk device or other storage medium functions as the original image storage unit 12 or the input image storage unit 14 to store the original image data D10 and the like.

コントローラー部901は、CPU(Central Processing Unit )912、読出専用の記憶部であるROM(Read Only Memory)913、随時書込みおよび読出しが可能であるとともに揮発性の記憶部の一例であるRAM(Random Access Memory)915、および不揮発性の記憶部の一例であるRAM(NVRAMと記述する)916を有している。   The controller unit 901 includes a CPU (Central Processing Unit) 912, a ROM (Read Only Memory) 913 which is a read-only storage unit, and a RAM (Random Access) which can be written and read at any time and is an example of a volatile storage unit. Memory) 915 and RAM (described as NVRAM) 916 which is an example of a nonvolatile storage unit.

上記において“揮発性の記憶部”とは、画像出力端末4の電源がオフされた場合には、記憶内容を消滅してしまう形態の記憶部を意味する。一方、“不揮発性の記憶部”とは、装置のメイン電源がオフされた場合でも、記憶内容を保持し続ける形態の記憶部を意味する。記憶内容を保持し続けることができるものであればよく、半導体製のメモリ素子自体が不揮発性を有するものに限らず、バックアップ電源を備えることで、揮発性のメモリ素子を“不揮発性”を呈するように構成するものであってもよい。また、半導体製のメモリ素子により構成することに限らず、磁気ディスクや光ディスクなどの媒体を利用して構成してもよい。   In the above description, the “volatile storage unit” means a storage unit in a form in which the stored contents are lost when the power of the image output terminal 4 is turned off. On the other hand, the “nonvolatile storage unit” means a storage unit in a form that keeps stored contents even when the main power supply of the apparatus is turned off. Any memory device can be used as long as it can retain the stored contents. The semiconductor memory device itself is not limited to a nonvolatile memory device, and a backup power supply is provided to make a volatile memory device “nonvolatile”. You may comprise as follows. Further, the present invention is not limited to a semiconductor memory element, and may be configured using a medium such as a magnetic disk or an optical disk.

また、コンピュータシステム900は、ユーザインタフェースをなす機能部として、キーボードやマウスなどを有する指示入力部903と、操作時のガイダンス画面や処理結果などの所定の情報をユーザに提示する表示出力部904と、処理対象の画像を読み取る画像読取部(スキャナユニット)905と、画像評価装置10における処理済みの画像を所定の出力媒体(たとえば印刷用紙)に出力する画像形成部906と、各機能部との間のインタフェース機能をなすインタフェース部909とを有する。   The computer system 900 also includes an instruction input unit 903 having a keyboard, a mouse, and the like as a function unit that forms a user interface, and a display output unit 904 that presents a user with predetermined information such as a guidance screen and a processing result during operation. An image reading unit (scanner unit) 905 that reads an image to be processed, an image forming unit 906 that outputs a processed image in the image evaluation apparatus 10 to a predetermined output medium (for example, printing paper), and each functional unit And an interface unit 909 that performs an interface function therebetween.

インタフェース部909としては、処理データ(画像データを含む)や制御データの転送経路であるシステムバス991の他、たとえば、画像読取部905とのインタフェース機能をなすスキャナIF部995、画像形成部906や他のプリンタとのインタフェース機能をなすプリンタIF部996、およびインターネットなどのネットワーク9との間の通信データの受け渡しを仲介する通信IF部999を有している。スキャナIF部995と通信IF部999とは入力インタフェース部11inに対応し、プリンタIF部996は出力インタフェース部11out に対応する。なお、記録・読取制御部902も、所定の記憶媒体から画像データを取り込む入力インタフェース部11inの機能を持つ。   Examples of the interface unit 909 include a system bus 991 that is a transfer path of processing data (including image data) and control data, a scanner IF unit 995 that functions as an interface with the image reading unit 905, an image forming unit 906, and the like. It has a printer IF unit 996 that functions as an interface with other printers, and a communication IF unit 999 that mediates transfer of communication data with the network 9 such as the Internet. The scanner IF unit 995 and the communication IF unit 999 correspond to the input interface unit 11in, and the printer IF unit 996 corresponds to the output interface unit 11out. Note that the recording / reading control unit 902 also has a function of the input interface unit 11in that captures image data from a predetermined storage medium.

表示出力部904は、読み取った全体画像やガイダンス情報などの主要な情報を提示するための表示装置を有して構成されている。表示された情報を確認しながら所定の入力を行なう作業を効率的にできるように、表示装置は、指示入力部903の近傍に配置するのがよい。   The display output unit 904 includes a display device for presenting main information such as the read whole image and guidance information. The display device is preferably arranged in the vicinity of the instruction input unit 903 so as to efficiently perform a predetermined input operation while confirming the displayed information.

表示出力部904は、たとえば、表示制御部942とCRT(Cathode Ray Tube;陰極線管)やLCD(Liquid Crystal Display;液晶)などでなるディスプレイ部944とを有する。たとえば、表示制御部942が、ディスプレイ部944上に、ガイダンス情報や画像読取部905が取り込んだ全体画像などを表示させる。なお、表示面上にタッチパネル945を有するディスプレイ部944とすることで、指先やペンなどで所定の情報を入力する指示入力部903を構成することもできる。   The display output unit 904 includes, for example, a display control unit 942 and a display unit 944 made up of a CRT (Cathode Ray Tube) or LCD (Liquid Crystal Display). For example, the display control unit 942 displays guidance information, the entire image captured by the image reading unit 905, and the like on the display unit 944. Note that by using the display unit 944 having the touch panel 945 on the display surface, the instruction input unit 903 for inputting predetermined information with a fingertip or a pen can be configured.

コンピュータシステム900には、画像読取部として、上記実施形態の画像入力装置70に相当するものが接続される。この画像入力装置70は、画像入力端末の機能を備えており、たとえばCCD固体撮像素子の全幅アレイを使用して、読取位置へ送られた原稿に光を照射することで、原稿上の画像を読み取り、この読み取った画像を表す赤R、緑G、青Bのアナログビデオ信号をデジタル信号へ変換する。特に、本実施形態においては、読み取った画像を、ハードディスク装置やその他の記憶媒体(RAM915でもよい)に入力画像データD20として格納する。   The computer system 900 is connected as an image reading unit corresponding to the image input device 70 of the above embodiment. The image input device 70 has the function of an image input terminal. For example, by using a full width array of CCD solid-state imaging devices, the image input device 70 irradiates light on the document sent to the reading position, thereby displaying an image on the document. Read and convert analog video signals of red R, green G and blue B representing the read image into digital signals. In particular, in the present embodiment, the read image is stored as input image data D20 in a hard disk device or other storage medium (or RAM 915).

また、コンピュータシステム900には、画像形成部として、上記実施形態の画像出力装置50に相当するものが接続される。この画像出力装置50は、たとえば画像読取部(画像入力装置70)にて得られた画像信号により表される画像を、電子写真式、感熱式、熱転写式、インクジェット式、あるいは同様な従来の画像形成処理を利用して、普通紙や感熱紙上に可視画像を形成する(印刷する)。   The computer system 900 is connected to an image forming unit corresponding to the image output device 50 of the above embodiment. This image output device 50 is an electrophotographic type, thermal type, thermal transfer type, ink jet type or similar conventional image obtained by, for example, representing an image represented by an image signal obtained by an image reading unit (image input device 70). Using the forming process, a visible image is formed (printed) on plain paper or thermal paper.

このため、画像形成部(画像出力装置50)は、たとえばイエローY,マゼンタM,シアンC,ブラックKの2値化信号などの印刷出力用データを生成する画像処理部52と、画像評価装置10をデジタル印刷システムとして稼働させるためのラスタ出力スキャンベースのプリントエンジン54を備える。   Therefore, the image forming unit (image output device 50) includes, for example, an image processing unit 52 that generates print output data such as binary signals of yellow Y, magenta M, cyan C, and black K, and the image evaluation device 10. Is equipped with a raster output scan-based print engine 54 for operating as a digital printing system.

このような構成において、CPU912は、システムバス991を介してシステム全体の制御を行なう。ROM913は、CPU912の制御プログラムなどを格納する。RAM915は、SRAM(Static Random Access Memory )などで構成され、プログラム制御変数や各種処理のためのデータなどを格納する。また、RAM915は、所定のアプリケーションプログラムによって取得した電子ドキュメント(文字データのみに限らず画像データを含んでよい)や自装置に備えられている画像読取部(画像入力装置70)で取得した画像データ、さらには外部から取得した電子データなどを一時的に格納する領域を含んでいる。   In such a configuration, the CPU 912 controls the entire system via the system bus 991. The ROM 913 stores a control program for the CPU 912 and the like. The RAM 915 is configured by SRAM (Static Random Access Memory) or the like, and stores program control variables, data for various processes, and the like. In addition, the RAM 915 stores an electronic document (not only character data but also image data) acquired by a predetermined application program, and image data acquired by an image reading unit (image input device 70) provided in the own device. In addition, an area for temporarily storing electronic data obtained from the outside is included.

そして、たとえば画像評価値算出処理をコンピュータに実行させるプログラムは、CD−ROMなどの記録媒体を通じて配布される。あるいは、このプログラムは、CD−ROMではなくFDに格納されてもよい。また、MOドライブを設け、MOに前記プログラムを格納してもよく、またフラッシュメモリなどの不揮発性の半導体メモリカードなど、その他の記録媒体にプログラムを格納してもよい。さらに、他のサーバなどからインターネットなどのネットワーク9を経由してプログラムをダウンロードして取得したり、あるいは更新したりしてもよい。   For example, a program that causes a computer to execute an image evaluation value calculation process is distributed through a recording medium such as a CD-ROM. Alternatively, this program may be stored in the FD instead of the CD-ROM. In addition, an MO drive may be provided to store the program in the MO, or the program may be stored in another recording medium such as a nonvolatile semiconductor memory card such as a flash memory. Furthermore, the program may be downloaded and acquired from another server or the like via the network 9 such as the Internet, or may be updated.

なお、プログラムを提供するための記録媒体としては、FDやCD−ROMなどの他にも、DVDなどの光学記録媒体、MDなどの磁気記録媒体、PDなどの光磁気記録媒体、テープ媒体、磁気記録媒体、ICカードやミニチュアカードなどの半導体メモリを用いることができる。記録媒体の一例としてのFDやCD−ROMなどには、画像評価装置10における画像評価値算出処理機能の一部または全ての機能を格納することができる。   As a recording medium for providing the program, in addition to FD and CD-ROM, an optical recording medium such as DVD, a magnetic recording medium such as MD, a magneto-optical recording medium such as PD, a tape medium, and a magnetic medium. A semiconductor memory such as a recording medium, an IC card, or a miniature card can be used. Part or all of the image evaluation value calculation processing function in the image evaluation apparatus 10 can be stored in an FD or CD-ROM as an example of a recording medium.

また、ハードディスク装置は、制御プログラムによる各種処理のためのデータを格納したり、画像読取部(画像入力装置70)で取得した画像データや外部から取得した印刷データなどを大量に一時的に格納したりする領域を含んでいる。また、ハードディスク装置、FDドライブ、あるいはCD−ROMドライブは、たとえば、CPU912にコンテンツ取得やアドレス取得あるいはアドレス設定などの処理をソフトウェアにて実行させるためのプログラムデータを登録するなどのために利用される。   Also, the hard disk device stores data for various processes by the control program, temporarily stores a large amount of image data acquired by the image reading unit (image input device 70), print data acquired from the outside, and the like. Or the area to be. The hard disk device, FD drive, or CD-ROM drive is used, for example, for registering program data for causing the CPU 912 to execute processing such as content acquisition, address acquisition, or address setting by software. .

なお、画像評価装置10の画像評価値算出処理に関わる各機能部分の全ての処理をソフトウェアで行なうのではなく、これら機能部分の一部を専用のハードウェアにて行なう処理回路908を設けてもよい。この場合、図示するように、色信号変換部16に相当する色信号変換部984や画質要素評価値算出部20(その内部の各機能部の任意のもの)に相当する画質要素評価値算出部986などを個別に設けてもよい。   It should be noted that a processing circuit 908 may be provided in which not all processing of each functional part related to the image evaluation value calculation processing of the image evaluation apparatus 10 is performed by software, but a part of these functional parts is performed by dedicated hardware. Good. In this case, as illustrated, an image quality element evaluation value calculation unit corresponding to a color signal conversion unit 984 corresponding to the color signal conversion unit 16 and an image quality element evaluation value calculation unit 20 (arbitrary functional units therein). 986 or the like may be provided individually.

ソフトウェアで行なう仕組みは、並列処理や連続処理に柔軟に対処し得るものの、その処理が複雑になるに連れ、処理時間が長くなるため、処理速度の低下が問題となる。これに対して、ハードウェア処理回路で行なうことで、高速化を図ったアクセラレータシステムを構築することができるようになる。アクセラレータシステムは、処理が複雑であっても、処理速度の低下を防ぐことができ、高いスループットを算出することができる。   Although the mechanism performed by software can flexibly cope with parallel processing and continuous processing, the processing time becomes longer as the processing becomes complicated, so that a reduction in processing speed becomes a problem. On the other hand, it is possible to construct an accelerator system with a higher speed by using a hardware processing circuit. Even if the processing is complicated, the accelerator system can prevent a reduction in processing speed and can calculate a high throughput.

以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態に多様な変更または改良を加えることができ、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれる。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various changes or improvements can be added to the above-described embodiment without departing from the gist of the invention, and embodiments to which such changes or improvements are added are also included in the technical scope of the present invention.

また、上記の実施形態は、クレーム(請求項)にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組合せの全てが発明の解決手段に必須であるとは限らない。前述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組合せにより種々の発明を抽出できる。実施形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られる限りにおいて、この幾つかの構成要件が削除された構成が発明として抽出され得る。   Further, the above embodiments do not limit the invention according to the claims (claims), and all combinations of features described in the embodiments are not necessarily essential to the solution means of the invention. Absent. The embodiments described above include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. Even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, as long as an effect is obtained, a configuration from which these some constituent requirements are deleted can be extracted as an invention.

たとえば、上記実施形態の具体的な仕組みとしては、画質要素として、すじ欠陥に注目して説明したが、これに限らず、粒状性や鮮鋭性など、その他の空間周波数と関わりを持つ画質要素についても、注目する画質と関わりを持つ特徴量に対しての背景ノイズの補正に使用される補正成分を、注目する空間周波数に対する重み付けを考慮して取得するという仕組みを同様に適用することができる。   For example, the specific mechanism of the above embodiment has been described by focusing on the streak defect as an image quality element. However, the present invention is not limited to this, and the image quality element related to other spatial frequencies, such as graininess and sharpness. In addition, a mechanism of acquiring a correction component used for correcting background noise with respect to a feature amount related to the image quality of interest in consideration of weighting of the spatial frequency of interest can be similarly applied.

たとえば、粒状性に関して言えば、注目する粒状性と同程度の空間周波数帯域の成分が背景ノイズとして周囲に存在すると、注目する空間周波数の粒状性がそれに紛れてしまうので、同程度の空間周波数帯域の背景ノイズが大きい画像よりも、同程度の空間周波数帯域の背景ノイズが小さい画像の方が、視感度的には、注目する空間周波数の粒状性の強さが高くなる。   For example, in terms of granularity, if a component in the spatial frequency band similar to the granularity of interest exists in the surroundings as background noise, the granularity of the spatial frequency of interest will be confused with that, so the spatial frequency band of the same degree An image with a small background noise in the same spatial frequency band has a higher granularity of the spatial frequency of interest in terms of visibility than an image with a large background noise.

また、鮮鋭性に関して言えば、注目する鮮鋭性と同程度の空間周波数帯域の成分が背景ノイズとして周囲に存在すると、注目する空間周波数の鮮鋭性がそれに紛れてしまうので、同程度の空間周波数帯域の背景ノイズが大きい画像よりも、同程度の空間周波数帯域の背景ノイズが小さい画像の方が、視感度的には、注目する空間周波数の鮮鋭性の強さが高くなる。   In addition, in terms of sharpness, if a component of the spatial frequency band similar to the sharpness of interest exists in the surroundings as background noise, the sharpness of the spatial frequency of interest will be confused with it. From the viewpoint of visibility, the sharpness of the spatial frequency of interest is higher in an image with a small background noise in the same spatial frequency band than an image with a large background noise.

こういった場合に、注目する空間周波数に対する重み付けを考慮して補正成分を求め、注目する画像要素の空間周波数と関係した画質と関わりを持つ特徴量に対して前記補正成分を使って補正を加えるようにすれば、注目している空間周波数の画質要因から背景ノイズの影響を的確に抑制でき、結果として、粒状性や鮮鋭性などの空間周波数と関係した画質を評価するための評価値を、視感と対応が取れるようにして求めることができるようになる。   In such a case, a correction component is obtained in consideration of weighting for the spatial frequency of interest, and correction is performed using the correction component for the feature quantity related to the image quality related to the spatial frequency of the image element of interest. By doing so, it is possible to accurately suppress the influence of background noise from the image quality factor of the spatial frequency of interest, and as a result, the evaluation value for evaluating the image quality related to the spatial frequency such as graininess and sharpness, It will be possible to find it so that it can be dealt with visually.

なお、すじ欠陥と、それ以外の空間周波数と関連した画質(粒状性や鮮鋭性)とを比べた場合、すじ欠陥は装置固有の技術に依存して発生した画像欠陥の1つであり、すじ欠陥と特定の固有技術の因果関係が比較的分かっているため、画像内の一部のすじに着目して評価することが多いので、特に、すじ欠陥の評価値を求めるに当たって、上記実施形態の仕組みを適用することで得られる効果が高い。   In addition, when a streak defect is compared with an image quality (granularity or sharpness) related to other spatial frequencies, the streak defect is one of image defects generated depending on the apparatus-specific technology. Since the causal relationship between the defect and the specific inherent technology is relatively known, the evaluation is often performed by paying attention to a part of the streaks in the image, and in particular, when the evaluation value of the streak defect is obtained, The effect obtained by applying the mechanism is high.

また、上記実施形態ではカラープリンタなどの画像出力装置から出力された画像の評価方法を例に説明したが、カラープリンタだけではなく、ディスプレイ、電子ペーパー、プロジェクタなどのその他の画像出力装置より出力されたカラー画像の画質を評価する場合にも、表示面をテレビカメラで撮像するなどして画像データを取得するようにすることで、上記実施形態で述べた仕組みが同様に適用できる。   In the above-described embodiment, the method for evaluating an image output from an image output device such as a color printer has been described as an example. However, the output method is not limited to a color printer, but is output from another image output device such as a display, electronic paper, or a projector. Even when the image quality of a color image is evaluated, the mechanism described in the above embodiment can be similarly applied by acquiring image data by, for example, imaging the display surface with a television camera.

本発明に係る画像評価装置の第1実施形態を備えた画像評価システムの概略構成を示すブロック図である。It is a block diagram showing a schematic structure of an image evaluation system provided with a first embodiment of an image evaluation apparatus according to the present invention. 色信号変換部の概略構成を説明するブロック図である。It is a block diagram explaining the schematic structure of a color signal conversion part. 本実施形態で取り扱う被評価用画像に存在するすじ欠陥の一例を示す図である。It is a figure which shows an example of the stripe defect which exists in the image for evaluation handled by this embodiment. 1次元化処理部で得られた明度プロファイルの一例を示す図である。It is a figure which shows an example of the brightness profile obtained in the one-dimensionalization process part. 平均線差分算出部で得られた明度差分プロファイルの一例を示す図である。It is a figure which shows an example of the brightness difference profile obtained in the average line difference calculation part. すじ特徴量算出部の概略構成を説明するブロック図である。It is a block diagram explaining the schematic structure of a streak feature-value calculation part. 空間周波数帯域分割部の概略構成を説明するブロック図である。It is a block diagram explaining schematic structure of a spatial frequency band division part. 帯域別明度差分プロファイルの一例を示す図(その1)である。It is FIG. (1) which shows an example of the brightness difference profile according to zone | band. 帯域別明度差分プロファイルの一例を示す図(その2)である。It is FIG. (2) which shows an example of the brightness difference profile according to zone | band. すじ補正量算出部の概略構成を説明するブロック図である。It is a block diagram explaining the schematic structure of a stripe correction amount calculation part. すじ評価値算出部の概略構成を説明するブロック図である。It is a block diagram explaining the schematic structure of a stripe evaluation value calculation part. 第1実施形態の画像評価装置により2種類の画像A,Bのすじ欠陥についてすじ評価値を算出した結果を説明する図である。It is a figure explaining the result of having calculated the stripe evaluation value about the stripe defect of two kinds of images A and B by the image evaluation device of a 1st embodiment. 本発明に係る画像評価装置の第2実施形態を備えた画像評価システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image evaluation system provided with 2nd Embodiment of the image evaluation apparatus which concerns on this invention. 視覚空間周波数特性補正部の概略構成を説明するブロック図である。It is a block diagram explaining schematic structure of a visual spatial frequency characteristic correction | amendment part. 視覚空間周波数特性補正部にて求めた明度差分プロファイルデータの一例を示す図である。It is a figure which shows an example of the brightness difference profile data calculated | required in the visual spatial frequency characteristic correction | amendment part. パーソナルコンピュータなどの電子計算機を利用して画像評価装置をソフトウェア的に実現する場合のハードウェア構成の一例を示した図である。It is the figure which showed an example of the hardware constitutions in the case of implement | achieving an image evaluation apparatus like software using electronic computers, such as a personal computer.

符号の説明Explanation of symbols

1…画像評価システム、10…画像評価装置、11out …出力インタフェース部、11in…入力インタフェース部、12…原画像記憶部、14…入力画像記憶部、16…色信号変換部、20…画質要素評価値算出部、22…特徴量取得部、24…補正量取得部、26…評価値取得部、50…画像出力装置、70…画像入力装置、164…入力画像データ色変換部、210…前処理部、212…1次元化処理部、214…平均線差分算出部、216…視覚空間周波数特性補正部、270…すじ特徴量算出部、280…すじ補正量取得部、284…すじ特徴量算出部、286…空間周波数帯域分割部、288…すじ補正量算出部、290…すじ評価値算出部、402…離散フーリエ変換部、404…視覚特性フィルタ乗算部、406…逆離散フーリエ変換部、412…すじ位置検出部、414…すじ強度算出部、422…離散フーリエ変換部、424…帯域フィルタ乗算部、426…逆離散フーリエ変換部、432…標準偏差算出部、434…すじ空間周波数帯域設定部、436…重み係数設定部、438…重み付け演算部、442…個別すじ評価値算出部、444…総合すじ評価値算出部   DESCRIPTION OF SYMBOLS 1 ... Image evaluation system, 10 ... Image evaluation apparatus, 11out ... Output interface part, 11in ... Input interface part, 12 ... Original image memory | storage part, 14 ... Input image memory | storage part, 16 ... Color signal conversion part, 20 ... Image quality element evaluation Value calculation unit, 22 ... feature amount acquisition unit, 24 ... correction amount acquisition unit, 26 ... evaluation value acquisition unit, 50 ... image output device, 70 ... image input device, 164 ... input image data color conversion unit, 210 ... pre-processing 212, one-dimensionalization processing unit, 214 ... average line difference calculation unit, 216 ... visual spatial frequency characteristic correction unit, 270 ... streak feature amount calculation unit, 280 ... streak correction amount acquisition unit, 284 ... streak feature amount calculation unit 286: Spatial frequency band dividing unit, 288: Line correction amount calculating unit, 290: Line evaluation value calculating unit, 402: Discrete Fourier transform unit, 404: Visual characteristic filter multiplying unit, 406: Inverse discrete Fourier Conversion unit, 412 ... streak position detection unit, 414 ... streak intensity calculation unit, 422 ... discrete Fourier transform unit, 424 ... band filter multiplication unit, 426 ... inverse discrete Fourier transform unit, 432 ... standard deviation calculation unit, 434 ... streak space Frequency band setting unit, 436 ... weighting factor setting unit, 438 ... weighting calculation unit, 442 ... individual streak evaluation value calculation unit, 444 ... total streak evaluation value calculation unit

Claims (12)

画像における空間周波数と関係した画質を評価する画像評価方法であって、
入力画像データに基づいて注目する画像要素の前記空間周波数と関係した画質と関わりを持つ特徴量を取得し、
入力画像データを複数の空間周波数帯域成分に周波数展開し、この周波数展開した各空間周波数帯域成分に基づいて前記注目する画像要素に対しての背景成分を抽出し、
前記特徴量と前記背景成分とに基づいて前記注目する画像要素の画質を評価するための評価値を求める
ことを特徴とする画像評価方法。
An image evaluation method for evaluating image quality related to spatial frequency in an image,
Obtaining a feature quantity related to the image quality related to the spatial frequency of the image element of interest based on the input image data;
The input image data is frequency-expanded into a plurality of spatial frequency band components, and a background component for the image element of interest is extracted based on each spatial frequency band component subjected to the frequency expansion,
An image evaluation method comprising: obtaining an evaluation value for evaluating an image quality of the image element of interest based on the feature amount and the background component.
注目する空間周波数帯域成分ほど重付けが高くなるようにして前記背景成分を抽出する
ことを特徴とする請求項1に記載の画像評価方法。
The image evaluation method according to claim 1, wherein the background component is extracted such that the weight of the spatial frequency band component of interest is higher.
画像における空間周波数と関係した画質を評価する画像評価装置であって、
入力画像データに基づいて注目する画像要素の前記空間周波数と関係した画質と関わりを持つ特徴量を取得する特徴量取得部と、
入力画像データを複数の空間周波数帯域成分に周波数展開し、この周波数展開した各空間周波数帯域成分に基づいて前記注目する画像要素に対しての背景成分を抽出し、この抽出した背景成分を前記特徴量取得部が取得した特徴量に対する補正量とする補正量取得部と、
前記特徴量取得部により取得された特徴量および前記補正量取得部により取得された補正量に基づいて、前記注目する画像要素の画質を評価するための評価値を取得する評価値取得部と
を備えたことを特徴とする画像評価装置。
An image evaluation apparatus for evaluating image quality related to spatial frequency in an image,
A feature amount acquisition unit that acquires a feature amount related to image quality related to the spatial frequency of the image element of interest based on input image data;
The input image data is frequency-expanded into a plurality of spatial frequency band components, a background component for the image element of interest is extracted on the basis of each spatial frequency band component subjected to the frequency expansion, and the extracted background component is the feature. A correction amount acquisition unit as a correction amount for the feature amount acquired by the amount acquisition unit;
An evaluation value acquisition unit that acquires an evaluation value for evaluating the image quality of the image element of interest based on the feature amount acquired by the feature amount acquisition unit and the correction amount acquired by the correction amount acquisition unit; An image evaluation apparatus comprising:
前記特徴量取得部は、すじ欠陥の強さと関わりを持つすじ特徴量を算出するすじ特徴量算出部を有し、
前記評価値取得部は、前記すじ欠陥の強さに関するすじ評価値を算出するすじ評価値算出部を有する
ことを特徴とする請求項3に記載の画像評価装置。
The feature amount acquisition unit includes a streak feature amount calculation unit that calculates a streak feature amount having a relation with the strength of a streak defect,
The image evaluation apparatus according to claim 3, wherein the evaluation value acquisition unit includes a line evaluation value calculation unit that calculates a line evaluation value related to the strength of the line defect.
前記補正量取得部は、
入力画像データを複数の空間周波数帯域成分に分割する空間周波数帯域分割部と、
前記空間周波数帯域分割部にて周波数展開された複数の空間周波数帯域成分に基づいて前記補正量を算出する補正量算出部と
ことを特徴とする請求項3に記載の画像評価装置。
The correction amount acquisition unit
A spatial frequency band dividing unit that divides input image data into a plurality of spatial frequency band components;
The image evaluation apparatus according to claim 3, further comprising: a correction amount calculation unit that calculates the correction amount based on a plurality of spatial frequency band components frequency-expanded by the spatial frequency band dividing unit.
前記空間周波数帯域分割部は、
画像に対して離散フーリエ変換を行なう離散フーリエ変換部と、
前記離散フーリエ変換部により得られた空間周波数成分に帯域フィルタを乗算する帯域フィルタ乗算部と、
前記帯域フィルタ乗算部にて帯域フィルタを乗算して得られた複数の帯域の空間周波数成分に対して逆離散フーリエ変換を行なう逆離散フーリエ変換部と
を有していることを特徴とする請求項5に記載の画像評価装置。
The spatial frequency band dividing unit is
A discrete Fourier transform unit for performing a discrete Fourier transform on the image;
A band filter multiplier for multiplying the spatial frequency component obtained by the discrete Fourier transform unit by a band filter;
An inverse discrete Fourier transform unit that performs an inverse discrete Fourier transform on spatial frequency components of a plurality of bands obtained by multiplying a bandpass filter by the bandpass filter multiplication unit. 5. The image evaluation apparatus according to 5.
前記補正量算出部は、前記特徴量取得部が取得した特徴量における注目する空間周波数帯域を設定する注目空間周波数帯域設定部と、
前記特徴量取得部が取得する特徴量の強さの影響を排除しつつ、各空間周波数帯域成分の特徴量を取得する帯域特徴量取得部と、
前記注目空間周波数帯域設定部が設定した前記注目する空間周波数帯域に基づいて、前記帯域特徴量取得部により取得される各空間周波数帯域成分の特徴量に対する重み係数を設定する重み係数設定部と、
前記帯域特徴量取得部により取得される各空間周波数帯域成分に対して前記重み係数設定部により設定された重み係数を用いて重み付け演算を行なって前記補正量を算出する重み付け演算部と
を有していることを特徴とする請求項5に記載の画像評価装置。
The correction amount calculation unit is an attention spatial frequency band setting unit that sets a spatial frequency band of interest in the feature amount acquired by the feature amount acquisition unit;
A band feature amount acquisition unit that acquires the feature amount of each spatial frequency band component while eliminating the influence of the strength of the feature amount acquired by the feature amount acquisition unit;
A weighting factor setting unit that sets a weighting factor for the feature quantity of each spatial frequency band component acquired by the band feature quantity acquisition unit, based on the spatial frequency band of interest set by the spatial frequency band setting unit of interest;
A weighting calculation unit that calculates a correction amount by performing a weighting operation on each spatial frequency band component acquired by the band feature amount acquisition unit using a weighting factor set by the weighting factor setting unit. The image evaluation apparatus according to claim 5, wherein:
前記帯域特徴量取得部は、空間周波数帯域成分の標準偏差を前記空間周波数帯域成分の特徴量として取得する
ことを特徴とする請求項7に記載の画像評価装置。
The image evaluation apparatus according to claim 7, wherein the band feature quantity acquisition unit acquires a standard deviation of a spatial frequency band component as a feature quantity of the spatial frequency band component.
前記重み係数設定部は、前記注目空間周波数帯域設定部が設定した前記注目する空間周波数帯域の成分ほど重付けが高くなるように各重み係数を設定する
ことを特徴とする請求項7に記載の画像評価装置。
The weighting factor setting unit sets each weighting factor such that weighting is higher for a component of the spatial frequency band of interest set by the spatial frequency band of interest setting unit. Image evaluation device.
前記重み付け演算部は、前記帯域特徴量取得部により取得される各空間周波数帯域成分に対して前記重み係数設定部により設定された重み係数を掛けて得られる各重付き周波数帯域成分の線形和によって前記補正量を算出する
ことを特徴とする請求項7に記載の画像評価装置。
The weighting calculation unit is configured to obtain a linear sum of each overlapped frequency band component obtained by multiplying each spatial frequency band component acquired by the band feature amount acquisition unit by a weighting factor set by the weighting factor setting unit. The image evaluation apparatus according to claim 7, wherein the correction amount is calculated.
入力画像データに対して視覚系の空間周波数特性に応じた補正を施す視覚空間周波数特性補正部をさらに備え、
前記特徴量取得部は、前記視覚空間周波数特性補正部により前記補正が施された画像データを使用して前記特徴量を取得し、
前記補正量取得部は、前記視覚空間周波数特性補正部により前記補正が施された画像データを使用して前記補正量を取得する
ことを特徴とする請求項3に記載の画像評価装置。
A visual spatial frequency characteristic correction unit that performs correction according to the spatial frequency characteristic of the visual system for the input image data;
The feature amount acquisition unit acquires the feature amount using the image data subjected to the correction by the visual spatial frequency characteristic correction unit,
The image evaluation apparatus according to claim 3, wherein the correction amount acquisition unit acquires the correction amount using the image data subjected to the correction by the visual spatial frequency characteristic correction unit.
画像における空間周波数と関係した画質を評価する画像評価処理をコンピュータを用いて行なうためのプログラムであって、
入力画像データに基づいて注目する画像要素の前記空間周波数と関係した画質と関わりを持つ特徴量を取得する特徴量取得部と、
入力画像データを複数の空間周波数帯域成分に周波数展開し、この周波数展開した各空間周波数帯域成分に基づいて前記注目する画像要素に対しての背景成分を抽出し、この抽出した背景成分を前記特徴量取得部が取得した特徴量に対する補正量とする補正量取得部と、
前記特徴量取得部により取得された特徴量および前記補正量取得部により取得された補正量に基づいて、前記注目する画像要素の画質を評価するための評価値を取得する評価値取得部と
として機能させることを特徴とするプログラム。
A program for performing image evaluation processing for evaluating image quality related to spatial frequency in an image using a computer,
A feature amount acquisition unit that acquires a feature amount related to image quality related to the spatial frequency of the image element of interest based on input image data;
The input image data is frequency-expanded into a plurality of spatial frequency band components, a background component for the image element of interest is extracted on the basis of each spatial frequency band component subjected to the frequency expansion, and the extracted background component is the feature. A correction amount acquisition unit as a correction amount for the feature amount acquired by the amount acquisition unit;
An evaluation value acquisition unit that acquires an evaluation value for evaluating the image quality of the image element of interest based on the feature amount acquired by the feature amount acquisition unit and the correction amount acquired by the correction amount acquisition unit. A program characterized by functioning.
JP2005216655A 2005-07-27 2005-07-27 Image evaluation method and image evaluation device and program Pending JP2007034648A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005216655A JP2007034648A (en) 2005-07-27 2005-07-27 Image evaluation method and image evaluation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005216655A JP2007034648A (en) 2005-07-27 2005-07-27 Image evaluation method and image evaluation device and program

Publications (1)

Publication Number Publication Date
JP2007034648A true JP2007034648A (en) 2007-02-08

Family

ID=37793836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005216655A Pending JP2007034648A (en) 2005-07-27 2005-07-27 Image evaluation method and image evaluation device and program

Country Status (1)

Country Link
JP (1) JP2007034648A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009036592A (en) * 2007-07-31 2009-02-19 Sharp Corp Streaky irregularity evaluator, evaluation method, evaluation program, recording medium, and manufacturing method for color filter
US7889358B2 (en) 2006-04-26 2011-02-15 Sharp Kabushiki Kaisha Color filter inspection method, color filter manufacturing method, and color filter inspection apparatus
JP2013024592A (en) * 2011-07-15 2013-02-04 Dainippon Screen Mfg Co Ltd Image inspection device, image recorder, and image inspection method
WO2015005038A1 (en) 2013-07-12 2015-01-15 富士フイルム株式会社 Test chart-forming method, device and program, test chart, and image correction method
CN104717387A (en) * 2013-12-12 2015-06-17 精工爱普生株式会社 Image evaluation device and image evaluation program
WO2018021114A1 (en) * 2016-07-29 2018-02-01 富士フイルム株式会社 Printed matter inspection apparatus and printed matter inspection method
WO2018087806A1 (en) * 2016-11-08 2018-05-17 日本電気株式会社 Image processing method, image processing apparatus and image processing program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889358B2 (en) 2006-04-26 2011-02-15 Sharp Kabushiki Kaisha Color filter inspection method, color filter manufacturing method, and color filter inspection apparatus
JP2009036592A (en) * 2007-07-31 2009-02-19 Sharp Corp Streaky irregularity evaluator, evaluation method, evaluation program, recording medium, and manufacturing method for color filter
JP2013024592A (en) * 2011-07-15 2013-02-04 Dainippon Screen Mfg Co Ltd Image inspection device, image recorder, and image inspection method
WO2015005038A1 (en) 2013-07-12 2015-01-15 富士フイルム株式会社 Test chart-forming method, device and program, test chart, and image correction method
CN104717387A (en) * 2013-12-12 2015-06-17 精工爱普生株式会社 Image evaluation device and image evaluation program
JP2015114864A (en) * 2013-12-12 2015-06-22 セイコーエプソン株式会社 Image evaluation device and program
CN104717387B (en) * 2013-12-12 2019-06-11 精工爱普生株式会社 Image evaluation apparatus and image evaluation method
WO2018021114A1 (en) * 2016-07-29 2018-02-01 富士フイルム株式会社 Printed matter inspection apparatus and printed matter inspection method
US10775317B2 (en) 2016-07-29 2020-09-15 Fujifilm Corporation Printed matter inspection device and printed matter inspection method
WO2018087806A1 (en) * 2016-11-08 2018-05-17 日本電気株式会社 Image processing method, image processing apparatus and image processing program
JPWO2018087806A1 (en) * 2016-11-08 2019-09-26 日本電気株式会社 Image processing method, image processing apparatus, and image processing program
US10964002B2 (en) 2016-11-08 2021-03-30 Nec Corporation Image processing method, image processing apparatus and image processing program

Similar Documents

Publication Publication Date Title
EP1294178B1 (en) Profile adjustment method, apparatus, and program
US8767232B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP6369019B2 (en) Image evaluation apparatus and image evaluation program
US20020114513A1 (en) Color image processing device and color image processing method
JP4529888B2 (en) Image processing apparatus, image processing method, and image processing program
US8395817B2 (en) Image processing apparatus and method determines attributes of image blocks based on pixel edge intensities relative to normalized and fixed thresholds
US8958116B2 (en) Inspection apparatus, inspection system, inspection method, and storage medium
JP2007034648A (en) Image evaluation method and image evaluation device and program
JP7105737B2 (en) Image processing device, image processing method, and program
US10848644B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US9185265B2 (en) Image processing method and image processing apparatus for performing a tone correction to acquire a combined image
US20150331640A1 (en) Image processing apparatus, image processing method, and storage medium
JP2006234869A (en) Image quality adjusting method, image quality adjusting apparatus, output control apparatus and program
WO2018021114A1 (en) Printed matter inspection apparatus and printed matter inspection method
JP2006237676A (en) Method and apparatus for image evaluation, and program
JP2004312387A (en) Image processing method, image processing device, image forming device, image pickup device, and computer program
US9576341B2 (en) Image-processing system, imaging apparatus and image-processing method
US20190073558A1 (en) Information processing apparatus, information processing method, and computer program
US11108999B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2009005159A (en) Image processor
JP2005174133A (en) Image evaluation device, image evaluation method and program
JP2006074218A (en) Image evaluating device, image evaluating method and program
Lei et al. Composite Target for Camera-Based Document/Object Capture System*.
JP2007280273A (en) Image evaluation apparatus, image evaluation method and program
US11265447B2 (en) Utilizing luminance variation of the white area of the tone chart in tone correction