JP2014048260A - Inspection device, and inspection method - Google Patents
Inspection device, and inspection method Download PDFInfo
- Publication number
- JP2014048260A JP2014048260A JP2012193924A JP2012193924A JP2014048260A JP 2014048260 A JP2014048260 A JP 2014048260A JP 2012193924 A JP2012193924 A JP 2012193924A JP 2012193924 A JP2012193924 A JP 2012193924A JP 2014048260 A JP2014048260 A JP 2014048260A
- Authority
- JP
- Japan
- Prior art keywords
- contour
- contour data
- evaluation image
- image
- inspection apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Accessory Devices And Overall Control Thereof (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像の品質を検査する検査装置に関する。 The present invention relates to an inspection apparatus for inspecting image quality.
従来、画像の品質を検査する方法として次のようなものが知られている。特許文献1に開示された発明は、原画像の特徴をパターンマッチングにより照合し、照合結果に対するスコアを、辞書を用いて検索する。そして、このスコアを用いて品質の評価を行っている。(例えば、特許文献1参照)。
Conventionally, the following methods are known as methods for inspecting image quality. In the invention disclosed in
上記したパターンマッチングの手法を用いる場合、照合精度を高めるためには、対象となる原画像の特徴を高精度に抽出する必要がある。そのため、従来の検査装置では、人の視覚には影響がない、微細な特徴成分を高精度に抽出し、この特徴成分を照合に適用していた。その結果、検査に要する装置や処理が過剰なものとなっていた。 In the case of using the pattern matching method described above, it is necessary to extract the features of the target original image with high accuracy in order to increase the matching accuracy. For this reason, in the conventional inspection apparatus, fine feature components that do not affect human vision are extracted with high accuracy, and these feature components are applied to matching. As a result, the apparatus and processing required for the inspection are excessive.
本発明は、上記課題にかんがみてなされたもので、必要な品質は維持しつつ過剰な検査手法を排除した検査装置、検査方法の提供を目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an inspection apparatus and an inspection method that eliminates an excessive inspection method while maintaining necessary quality.
上記課題を解決するために、本発明では、評価用画像の品質を評価する検査装置であって、前記評価用画像を取得する画像取得手段と、前記取得された評価用画像に含まれる輪郭を示す輪郭データーを抽出する輪郭抽出手段と、前記抽出された輪郭データーを周波数解析し、人の視覚特性の感度が高い周波数帯域におけるスペクトル値に基づいて、前記輪郭データーの特徴を定量化する定量化手段と、を有する。 In order to solve the above problems, in the present invention, an inspection apparatus for evaluating the quality of an evaluation image, the image acquisition means for acquiring the evaluation image, and the contour included in the acquired evaluation image Contour extraction means for extracting the contour data to be shown, and quantification for analyzing the frequency of the extracted contour data and quantifying the characteristics of the contour data based on a spectrum value in a frequency band in which the sensitivity of human visual characteristics is high Means.
上記のように構成された発明では、輪郭抽出手段は、画像取得手段により取得された評価用画像に含まれる輪郭を輪郭データーとして抽出する。そして、定量化手段は、抽出された輪郭データーを周波数解析し、人の視覚特性の感度が高い周波数帯域におけるスペクトル値に基づいて、輪郭データーの特徴を定量化する。
そのため、人の視覚特性に特化した周波数成分をもとに輪郭の特徴を定量化することができる。即ち、人の視覚特性に影響がない微細な特徴を抽出する必要がないため、人の視覚を考慮しつつ、簡易な処理により画質の評価を行うことが可能となる。
In the invention configured as described above, the contour extracting unit extracts the contour included in the evaluation image acquired by the image acquiring unit as the contour data. Then, the quantification means performs frequency analysis on the extracted contour data, and quantifies the characteristics of the contour data based on a spectrum value in a frequency band in which the sensitivity of human visual characteristics is high.
Therefore, contour features can be quantified based on frequency components specialized in human visual characteristics. That is, since it is not necessary to extract fine features that do not affect human visual characteristics, it is possible to evaluate image quality by simple processing while taking human vision into consideration.
また、前記定量化手段は、前記輪郭データーを形成する各線分の相対的な位置関係を所定の周期関数で示し、前記周期関数に対して前記周波数解析を行う構成としてもよい。
上記のように構成された発明では、輪郭データーの各成分の相対的な位置関係を特徴として扱うことができ、輪郭に含まれるがたつきや凹凸を評価することが可能となる。
Further, the quantification unit may be configured to indicate a relative positional relationship of each line segment forming the contour data by a predetermined periodic function and perform the frequency analysis on the periodic function.
In the invention configured as described above, the relative positional relationship of each component of the contour data can be treated as a feature, and rattling and unevenness included in the contour can be evaluated.
そして、前記定量化された前記輪郭データーの特徴は、前記周波数成分におけるスペクトル値の偏差に基づいて取得される構成としてもよい。
上記のように構成された発明では、スペクトル値の偏差を用いることで、より簡易に定量化を行うことができる。
The quantified feature of the contour data may be acquired based on a deviation of a spectrum value in the frequency component.
In the invention configured as described above, the quantification can be performed more easily by using the deviation of the spectrum value.
さらに、前記輪郭抽出手段は、前記評価用画像を多値化して、前記輪郭データーを抽出し、前記多値化で用いられる閾値は、人の視覚特性を考慮して設定される、構成としてもよい。
上記のように構成された発明では、輪郭データーの抽出に人の視覚特性を反映させることで、得られる輪郭データーを人の知覚に適合させたものとすることができる。
Further, the contour extracting unit multi-values the evaluation image to extract the contour data, and the threshold value used in the multi-value conversion is set in consideration of human visual characteristics. Good.
In the invention configured as described above, the contour data obtained can be adapted to human perception by reflecting the human visual characteristics in the extraction of the contour data.
また、前記定量化された前記輪郭データーの特徴に基づいて、前記評価用画像の品質を示す指標値を算出する指標値算出手段を有する構成としてもよい。
上記のように構成された発明では、評価用画像の品質を数値として示すことができるため、画像に対してより客観的な評価を行うことができる。
Moreover, it is good also as a structure which has the index value calculation means which calculates the index value which shows the quality of the said image for evaluation based on the characteristic of the said quantified outline data.
In the invention configured as described above, since the quality of the evaluation image can be shown as a numerical value, a more objective evaluation can be performed on the image.
そして、前記指標値算出手段は、前記定量化された前記輪郭データーの特徴と、前記輪郭で囲まれた部分の濃度特性とに基づいて、前記指標値を算出する構成としてもよい。
上記のように構成された発明では、輪郭データーの特徴に加えて、輪郭で囲まれた部分の濃度特性を用いることで、画像の濃度特性に応じて指標値を算出することができる。
And the said index value calculation means is good also as a structure which calculates the said index value based on the characteristic of the said quantified outline data, and the density | concentration characteristic of the part enclosed by the said outline.
In the invention configured as described above, the index value can be calculated according to the density characteristic of the image by using the density characteristic of the portion surrounded by the outline in addition to the feature of the outline data.
さらに、本発明は、評価用画像を検査する検査方法に対しても適用することができる。 Furthermore, the present invention can also be applied to an inspection method for inspecting an evaluation image.
以下、下記の順序に従って本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described in the following order.
(1)検査装置の概要
図1は、本発明の検査方法を説明する図である。また、図2は、本発明の検査装置1を説明するブロック構成図である。そして、図3は、検査装置1により実行される検査方法を説明するフローチャートである。さらに、図4は、検査装置1により用いられる評価用画像を示す図である。
(1) Outline of Inspection Apparatus FIG. 1 is a diagram for explaining an inspection method of the present invention. FIG. 2 is a block diagram illustrating the
図2に示すように、検査装置1は、プリンター10、スキャナー20、パーソナルコンピューター(PC)30とを備える。この検査装置1では、プリンター10により印刷された評価用画像を用いて、PC30による品質検査が行われる。
As shown in FIG. 2, the
プリンター10は、周知のものを用いることができ、インクジェット式のプリンターであっても良いし、レーザー式のプリンターであってもよい。本実施形態では、プリンター10は、PC30から出力される評価用データーを用いて、評価用画像を印刷する。
A known
評価用画像は、PC30が指標値Ind_qを算出するために用いられる画像である。本実施形態では、図4に示すように、6種類の異なる文字サイズ(40pt、20pt、11pt、10.5pt、8pt、4pt)により記録される文字列を含む評価用画像を使用する。また、この評価用画像に含まれる各文字列を対象画像群と記載する。そして、この対象用画像群に含まれる個々の文字を対象画像とも記載する。なお、評価用画像を構成するものは文字に限定されず、検査用途に応じて適宜選択すればよい。 The evaluation image is an image used for the PC 30 to calculate the index value Ind_q. In the present embodiment, as shown in FIG. 4, an evaluation image including a character string recorded with six different character sizes (40 pt, 20 pt, 11 pt, 10.5 pt, 8 pt, 4 pt) is used. Each character string included in the evaluation image is referred to as a target image group. Each character included in the target image group is also referred to as a target image. In addition, what constitutes the image for evaluation is not limited to characters, and may be appropriately selected according to the inspection application.
スキャナー20は、プリンター10により印刷された評価用画像を読み取り、PC30に出力する。スキャナー20により読み取られた評価用画像は、所定解像度(例えば、1200dpi)の画素により構成され、各画素がsRGB色空間の各色成分値を備える。なお、スキャナー20は、周知のものを用いることができる。
The
PC30は、スキャナー20から出力された評価用画像を評価するための指標値Ind_qを算出する。
PC30は、既存のパーソナルコンピューターであり、プリンター10、及びスキャナー20と接続されている。図2に示すように、PC30は、コントローラー31と、IF32、33と、キーボード34と、外部メモリ35と、ディスプレイ36とを備える。
The PC 30 calculates an index value Ind_q for evaluating the evaluation image output from the
The PC 30 is an existing personal computer, and is connected to the
PC30は、IF32、33を介してプリンター10及びスキャナー20にそれぞれ接続されている。また、IF32、33は、コントローラー31に接続されている。
The PC 30 is connected to the
コントローラー31は、CPU、ROM、RAMを備えて構成される。そして、CPUがROMに記録されたプログラムを実行することで、コントローラー31は、色変換部(画像取得手段)41、輪郭抽出部(輪郭抽出手段)42、特徴取得部(定量化手段)43、指標値算出部(指標値算出手段)44を機能的に備える。
さらに、コントローラー31は、外部メモリ35に記録された図示しないドライバープログラムを実行することで、プリンター10及びスキャナー20の駆動をそれぞれ制御することができる。
The
Furthermore, the
外部メモリ35は、HDDや、SSD等の大容量メモリにより構成される。また、外部メモリ35には、PC20がプリンター10又はスキャナー20を制御するためのプログラムや、指標値Ind_qを算出するために用いられる各種データーやプログラムが記録されている。
The
図1、図3に示すように、PC30により実行される指標値Ind_qの算出は、以下の手法が用いられる。
まず、図3のステップS1では、評価用画像が取得される(図1(a))。また、色変換部41により、評価用画像の色成分の変換が行われる。色変換部41は、評価用画像を構成する画素の色成分値を他の色空間上の値に変換する。具体的には、色変換部41は、評価用画像の画素の色成分値(sRGB色空間)を、L*a*b*値(Lab色空間)に変換する。色変換部41による色成分値の変換は公知の変換式を用いて行われる。ここで、色変換部41が、画素の色成分値をLab色空間上の値に変換することは一例であり、例えば、XYZ色空間上の値(X、Y、Z)に変換するものであってもよい。
As shown in FIGS. 1 and 3, the following method is used to calculate the index value Ind_q executed by the
First, in step S1 of FIG. 3, an evaluation image is acquired (FIG. 1A). In addition, the
ステップS2では、輪郭抽出部42による輪郭データーの抽出が行われる(図1(b))。輪郭データーは、対象画像の境界を規定する画素により構成されるデーターである。本実施形態では、輪郭抽出部42は、輪郭データーを構成する画素の座標(x、y)を取得することで、抽出を行う。
In step S2, the contour data is extracted by the contour extraction unit 42 (FIG. 1B). The contour data is data composed of pixels that define the boundary of the target image. In the present embodiment, the
そして、ステップS3では、特徴取得部43により輪郭データーの特徴が取得される(図1(c))。本実施形態では、輪郭データーの特徴を、輪郭データーを構成する成分間の相対的な位置関係により取得する。輪郭データーにより表される曲線を輪郭線Cとし、画素(点)を結んで、輪郭線Cを折れ線近似する場合を想定する。画素を結んで求められる輪郭線Cの任意の線分が近接成分との関係で直線状である場合、その線分をがたつきや凹凸が低い成分と見なすことができる。一方、任意の線分が近接成分との関係で直線状でない場合、その線分をがたつきや凹凸が高い成分と見なすことができる。即ち、上記したがたつきや凹凸が高い成分を多く含む輪郭線Cは、それだけがたつき度合いが高いと判断することが可能となる。
In step S3, the
そのため、特徴取得部43は、輪郭データーに含まれる各成分の相対的な位置関係を周期関数wとして表現し、この周期関数wに対して周波数解析を行うことで、特徴を取得する。この周期関数wは、輪郭データーで表現される輪郭線Cを、その周囲長を周期とする関数として表現するものである。
Therefore, the
さらに、図1(d)、(e)に示すように、特徴取得部43は、輪郭データーの特徴の内、特定周波数成分のスペクトルのみを取り出し、このスペクトルを元に輪郭データーの特徴を定量化(後述するがたつき量Rag)する。特徴取得部43は、得られたスペクトルの偏差をもとに、特徴を定量化する。
Further, as shown in FIGS. 1D and 1E, the
そして、ステップS4において、定量化の対象となる全ての対象画像に対して定量化が行われるまで実施される(ステップS4:YES)。例えば、評価用画像を構成する20pt、10.5pt、4ptの文字サイズを評価する場合、これら全ての対象画像に対して輪郭データーの特徴が定量化される。 And in step S4, it implements until it quantifies with respect to all the target images used as the object of quantification (step S4: YES). For example, when evaluating the character size of 20pt, 10.5pt, and 4pt constituting the evaluation image, the features of the contour data are quantified for all these target images.
さらに、ステップS5では、指標値算出部44により指標値Ind_qが算出される(図1(f))。この指標値Ind_qは、評価用画像の評価値を示す値であり、定量化された輪郭データーの特徴に基づいて算出される。そのため、この指標値Ind_qを用いることで、評価用画像の評価を行うことが可能となる。また、評価用画像を、指標値Ind_qを用いて評価することで、評価が高い評価用画像を印刷するプリンターは、それだけ性能が高いと見なすことができる。 Further, in step S5, the index value calculation unit 44 calculates the index value Ind_q (FIG. 1 (f)). This index value Ind_q is a value indicating the evaluation value of the evaluation image, and is calculated based on the features of the quantified contour data. Therefore, the evaluation image can be evaluated by using the index value Ind_q. Further, by evaluating the evaluation image using the index value Ind_q, a printer that prints an evaluation image with a high evaluation can be regarded as having high performance.
以下に、検査装置1の一例としての実施例を説明する。
Below, the Example as an example of the
(2)輪郭データーの抽出
まず、図3のステップS2で実行される輪郭データーの抽出方法を説明する。図5は、輪郭抽出部42の構成を説明する図である。また、図6は、ステップS2の処理を詳細に示すフローチャートである。そして、図7は、輪郭データーの抽出を説明する図である。
(2) Extraction of contour data First, the contour data extraction method executed in step S2 of FIG. 3 will be described. FIG. 5 is a diagram illustrating the configuration of the
図5に示すように、輪郭抽出部42は、DFTC(Discrete Fourier Transform Converter)421と、VTF(Visual Transfer Function)適用部422と、IDFTC(Inverse Discrete Fourier Transform Converter)423と、二値化処理部424と、座標抽出部425と、を備える。
As illustrated in FIG. 5, the
図6のステップS21では、DFTC421は、評価用画像を構成する画素を空間周波数特性F(u、v)に変換する(以下、F(u、v)を空間周波数成分とも記載する。)。DFTC421は、下記式(1)に示される離散フーリエ変換を用いて、空間周波数特性F(u,v)を算出する。
ステップS22では、VTF適用部422は、各空間周波数成分に対して、視覚特性に応じた重み付けを行う。人の視覚感度は空間周波数に依存して変化することが知られている。これを、視覚特性関数VTF(u,v)としてグラフ化した場合、図7(a)に示すように、人の視覚感度は、所定の低周波数帯で最も高くなる。VTF適用部422は、画素の空間周波数成分に対して視覚特性に応じた重み付けを行う。VTF適用部422により付与される重みは、視覚特性関数VTF(u、v)により、0から1の間の値で設定される。そのため、例えば、図7(a)に示すように、視覚感度が高い周波数成分に対しては高い重みが付与される。なお、視覚感度を視覚特性関数VTF(u、v)を用いて表すことは一例に過ぎない。例えば、視覚特性を近似した関数(例えば、コントラスト感度関数CSF(Contrast Sensitivity Function))を用いても良い。また、視覚特性は、L*チャンネルのみならず、a*、b*チャンネルにフィルターを適用して用いても良い。更に、L* a* b*の各チャンネルで異なるフィルターを適用して用いるものであってもよい。
In step S22, the
ステップS23では、IDFTC423は、ステップS22で重みが付与された空間周波数成分に対して逆フーリエ変換を行い、実空間上の値に変換する。例えば、IDFTC423は、下記式(2)に示す逆離散フーリエ変換を用いて、空間周波数成分を実空間上の値に変換する。
In step S23, the
ステップS24では、二値化処理部424は、各画素に対して二値化処理を行う。この二値化処理により、評価用画像は、明度L*が閾値Rx以上の画素を「1」、明度L*が閾値Rx以下の画素を「0」とする二値画像に変換される。図7(b)は、一例としての2値化処理に用いられる閾値Rxの設定方法を示す。本実施形態では、2値化処理に用いる閾値Rxの設定方法として変動閾値法を用いる。そのため、閾値Rxは、以下の式(3)をもとに設定される。
ここで、
Rxは、閾値
L*maxは、明度の最大値
L*minは、明度の最小値
xは、視覚特性に応じて設定される値。
In step S24, the
here,
Rx is a threshold value L * max, a lightness maximum value L * min, and a lightness minimum value x is a value set according to visual characteristics.
本実施形態では、xを60%〜70%に設定した。閾値Rxの設定に人の視覚特性を反映させることで、得られる輪郭データーを人の知覚に適合させたものとすることができる。即ち、視覚に影響を与えない成分を除去することが可能となる。 In this embodiment, x is set to 60% to 70%. By reflecting the human visual characteristics in the setting of the threshold value Rx, the obtained contour data can be adapted to human perception. That is, it is possible to remove components that do not affect the vision.
ステップS25では、座標抽出部425により、二値化画像に対して輪郭データーの成分(画素)が抽出される。具体的には、まず、座標抽出部425は、二値化画像に含まれる各対象画像をラベリング処理し、評価用画像から対象画像を分離する。次に、輪郭抽出部42は、ラベリング処理された対象画像に対して輪郭抽出アルゴリズムを適用して、輪郭データーを抽出する。
In step S25, the coordinate
この輪郭抽出アルゴリズムでは、まず、所定対象画像を水平走査し、輪郭探索を行う開始点(画素)を決定する。次に、この開始点を中心とした近傍を反時計周りで探索し、未探索の画素を探索する。本実施形態では、開始点の8近傍を探索した。そして、最初に探索された画素を次の開始点とする。また、探索された画素は輪郭データーの成分としてその座標が記録される。さらに、全ての画素に対して上記処理を繰返す。そのため、座標抽出部425は、輪郭データーの成分となる画素の座標(x、y)を取得することが可能となる。
In this contour extraction algorithm, first, a predetermined target image is horizontally scanned to determine a start point (pixel) for performing contour search. Next, the vicinity centering on this starting point is searched counterclockwise to search for unsearched pixels. In this embodiment, the vicinity of the start point is searched for. Then, the first searched pixel is set as the next start point. The coordinates of the searched pixel are recorded as the contour data component. Further, the above process is repeated for all pixels. Therefore, the coordinate
(3)輪郭データーの特徴の取得
次に、図3のステップS3において実行される輪郭データーの特徴の取得方法を説明する。図8は、特徴取得部43のより詳細な構成を示すブロック構成図である。また、図9は、ステップS3の処理を詳細に示すフローチャートである。そして、図10は、輪郭データーの特徴の取得を説明する図である。
(3) Acquisition of Outline Data Features Next, an outline data feature acquisition method executed in step S3 of FIG. 3 will be described. FIG. 8 is a block configuration diagram showing a more detailed configuration of the
図8に示すように、特徴取得部43は、複素平面展開部431と、周期関数算出部432と、DFTC433と、バンドパスフィルター434と、IDFTC435と、定量化部436と、を備える。
As shown in FIG. 8, the
図9のステップS31では、複素平面展開部431により、輪郭データーの各成分(画素)の座標(x、y)が、複素平面上の座標zに変換される。複素平面は、実部(x)と、虚部(yi)により規定される座標空間である。複素平面展開部431は、輪郭データーの成分の座標(x、y)の内、xを実部(x)とし、yを虚部(yi)として複素平面上の座標に変換する。
In step S31 of FIG. 9, the complex
ステップS32では、周期関数算出部432により、複素平面上の座標zの実部(x)、虚部(yi)のそれぞれに対して、特徴を示す周期関数wが取得される。図10(a)に示すように、輪郭線Cを折れ線近似して示す曲線を構成する点z(j)とz(j+1)との関係は、偏角θ(j)を用いることで、複素数値関数である周期関数w(j)を用いて表すことができる。周期関数w(j)は、下記式(4)により示される。
δはz(j)とz(j+1)との間の距離でありδ=|z(j+1)−z(j)|により算出される。ここで、上記式(4)を用いて得られる周期関数をP表現とも記載する。また、P表現をフーリエ変換して得られるものをP型フーリエ記述子c(k)とも記載する。
In step S <b> 32, the periodic
δ is a distance between z (j) and z (j + 1), and is calculated by δ = | z (j + 1) −z (j) |. Here, the periodic function obtained using the above equation (4) is also referred to as a P expression. In addition, what is obtained by Fourier transforming the P expression is also referred to as a P-type Fourier descriptor c (k).
上記式(4)により、w(j)は、複素平面上の成分(j=1、…n)をサンプル点とする周期関数w(j)として示すことができる。また、上記式(4)から展開された下記式(5)により、輪郭線Cの成分z(j)を周期関数w(r)を用いて表すこともできる。
即ち、輪郭線Cは、周期関数w(j)により表すことができ、両者は1対1の関係を有する。これを、図10(b)(c)を用いて説明する。図10(b)は、複素平面上に展開された輪郭線Cの実部(x)の変化量の推移を示し、図10(c)は、この実部(x)の周期関数w(j)の変化量の推移を示す。なお、図10(b)は、縦軸を実部(x)の座標(x)とし、横軸を画素数としている。また、図10(c)は、縦軸を変化量とし、横軸を画素数とする。本実施形態では、解析対象がデジタル画像であるため、画素間の距離は最大で1となる。そのため、変化量(縦軸)は−1から1となる。図10(b)(c)に示すように、実部(x)のがたつきが多い領域では、周期関数w(j)でも変動が大きい。このことは、周期関数w(j)に対する周波数解析により、輪郭線Cの解析が可能であることを示す。 That is, the contour line C can be represented by a periodic function w (j), and the two have a one-to-one relationship. This will be described with reference to FIGS. FIG. 10B shows the transition of the change amount of the real part (x) of the contour C developed on the complex plane, and FIG. 10C shows the periodic function w (j) of the real part (x). ). In FIG. 10B, the vertical axis represents the coordinates (x) of the real part (x), and the horizontal axis represents the number of pixels. In FIG. 10C, the vertical axis is the amount of change, and the horizontal axis is the number of pixels. In the present embodiment, since the analysis target is a digital image, the distance between pixels is 1 at the maximum. Therefore, the amount of change (vertical axis) is −1 to 1. As shown in FIGS. 10B and 10C, in the region where the real part (x) has a lot of shakiness, the fluctuation is large even in the periodic function w (j). This indicates that the contour C can be analyzed by frequency analysis on the periodic function w (j).
ここで、輪郭データーの成分を例えば8近傍の探索により取得した場合、以下のような修正を行う必要がある。今、8近傍により探索された輪郭データーの成分をz(j’)とする。この場合、各成分z(j’)における複素平面上の距離δは常に一定の値とならない。このことはサンプリング間隔が一定ではないことを意味する。そのため、偏角θの値を満たしつつ、サンプリング間隔が一定となるz(j)を、z(j’)に基づいて再検索し、この求めたz(j)により、周期関数w(j)を近似する。無論、輪郭データーの成分を4近傍探索により探索する場合は、複素平面上の距離δ=1で一定となるため、上記式(4)をそのまま適用して周期関数w(j)を用いることができる。 Here, when the contour data component is acquired by, for example, a search in the vicinity of 8, it is necessary to perform the following correction. Now, let z (j ') be the component of the contour data searched for in the vicinity of eight. In this case, the distance δ on the complex plane in each component z (j ′) is not always a constant value. This means that the sampling interval is not constant. Therefore, z (j) where the sampling interval is constant while satisfying the value of the deflection angle θ is re-searched based on z (j ′), and the periodic function w (j) is obtained from the obtained z (j). Approximate. Of course, when the contour data component is searched by the 4-neighbor search, the distance δ = 1 on the complex plane is constant, and thus the periodic function w (j) is used by applying the above formula (4) as it is. it can.
ステップS33では、DFTC433により、周期関数w(j)の実部(x)及び虚部(yi)のそれぞれのフーリエ記述子c(k)(k=0、…n-1)が取得される。具体的には、DFTC433は、下記式(6)により示されるように、周期関数w(j)に対して離散フーリエ変換を行い、フーリエ記述子c(k)を取得する。
ステップS34では、バンドパスフィルター434により、ステップS34で取得されたフーリエ記述子c(k)(P型フーリエ記述子)の特定周波数成分が抽出される。図10(d)は、周期関数w(j)におけるフーリエ記述子c(k)を示す。図10(d)に示す図では、横軸を周波数とし、縦軸を周波数成分(c(k))としている。
In step S34, the specific frequency component of the Fourier descriptor c (k) (P-type Fourier descriptor) acquired in step S34 is extracted by the
本実施形態では、高周波成分の内、人の視覚特性の感度が高い特定周波数成分を用いて輪郭データーの特徴を抽出している。ここで、人の視覚特性の感度が高い周波数成分として、例えば、(−2〜−12cycle/mm、2〜12cycle/mm)をバンドパスフィルター434により抽出することとした。
In the present embodiment, features of contour data are extracted using a specific frequency component having high sensitivity of human visual characteristics among high frequency components. Here, for example, (−2 to −12 cycle / mm, 2 to 12 cycle / mm) is extracted by the band-
図10(d)に示すように、フーリエ記述子c(k)の低周波成分(例えば、−2.0〜2.0cycle/mm)は、輪郭線Cの概形を示し、高周波成分(例えば、−2.5cycle/mm以下、2.5cycle/mm以上)は細部を示している。そのため、バンドパスフィルター434により抽出される周波数成分は、人の知覚特性の感度が高く、且つ、がたつき度合いの影響を受けやすい周波数成分である。
As shown in FIG. 10D, the low frequency component (for example, −2.0 to 2.0 cycle / mm) of the Fourier descriptor c (k) indicates the outline of the contour C, and the high frequency component (for example, , −2.5 cycle / mm or less, 2.5 cycle / mm or more) indicates details. Therefore, the frequency component extracted by the band-
ステップS35では、IDFTC435により、ステップS34で抽出された特定周波数成分対して逆離散フーリエ変換が行われる。この逆離散フーリエ変換により、輪郭線Cの実部(x)及び虚部(yi)における特定周波数成分に対応したスペクトル変化が取得される。
In step S35, the
図11は、スペクトル変化を示す波形図である。図11から比較されるように、図11(a)に示す実部(x)と虚部(yi)のスペクトル変化が、図11(b)に比べて大きくなっている。即ち、図11(a)に示さされるスペクトルが図11(b)に示されるスペクトルに比べてがたつき度合いが大きいことが解る。 FIG. 11 is a waveform diagram showing a spectrum change. As compared from FIG. 11, the spectrum change of the real part (x) and the imaginary part (yi) shown in FIG. 11A is larger than that of FIG. 11B. That is, it can be understood that the spectrum shown in FIG. 11A has a greater degree of rattling than the spectrum shown in FIG.
そのため、ステップS36では、上記した各スペクトルの変化を定量的に示すために、定量化部436により、実部(x)と虚部(yi)のそれぞれのスペクトルの標準偏差std(x'(t))、std(y'(t))が取得される。例えば、実部(x)における標準偏差は、下記式(7)を用いて算出される。
ここで、lは、ステップS35で取得されたスペクトルを識別する値(l=1 … n’)、s(l)は、スペクトルの値、av(s)は、スペクトルの平均値、を示す。
Therefore, in step S36, in order to quantitatively show the change of each spectrum described above, the
Here, l represents a value (1 = 1... N ′) for identifying the spectrum acquired in step S35, s (l) represents a spectrum value, and av (s) represents an average value of the spectrum.
そして、ステップS37では、定量化部436により、ステップS36で取得された標準偏差(std(x'(t))、std(y'(t)))をもとに、輪郭データーの特徴を示すがたつき量Ragが算出される。このがたつき量Ragは、輪郭データーのがたつき度合いや、凹凸度合いを示す。具体的には、がたつき量Ragは、下記式(8)を用いて算出される。
定量化の手法に、スペクトルの標準偏差を用いることで、より簡易にがたつき量を定量化することが可能となる。
By using the standard deviation of the spectrum as the quantification method, it becomes possible to quantify the amount of rattling more easily.
(4)指標値算出方法
以下、図3のステップS5で実行される指標値算出方法を説明する。
図12は、ステップS5の処理を詳細に示すフローチャートである。また、図13は、指標値の算出の際に使用される主観値を示す図である。
(4) Index Value Calculation Method Hereinafter, the index value calculation method executed in step S5 of FIG. 3 will be described.
FIG. 12 is a flowchart showing in detail the process of step S5. FIG. 13 is a diagram showing subjective values used in calculating the index value.
図12のステップS51では、指標値算出部44によりがたつき量Ragが取得される。本実施形態では、評価用画像に含まれる3種類(20pt、10.5pt、4pt)の各文字スケールのそれぞれに対してがたつき量Ragが取得される。 In step S51 of FIG. 12, the rattling amount Rag is acquired by the index value calculation unit 44. In this embodiment, the rattling amount Rag is acquired for each of the three types (20pt, 10.5pt, 4pt) of character scales included in the evaluation image.
ステップS52では、指標値算出部44により濃度数値が取得される。濃度数値は、例えば、輪郭(輪郭データー)の内側の濃度、輪郭の内側の明度L*、更には紙白とのコントラストのいずれかを輪郭データーの成分(画素)の総数で平均化したものである。 In step S <b> 52, the numerical value of density is acquired by the index value calculation unit 44. The density value is obtained by averaging, for example, the density inside the contour (contour data), the lightness L * inside the contour, or the contrast with paper white by the total number of components (pixels) of the contour data. is there.
ステップS53では、指標値算出部44により指標値Ind_qが算出される。例えば、指標値Ind_qは、以下式(9)により求められる。また、上記例では、3種類の文字スケールに対してそれぞれ指標値Ind_qが算出される。
上記式(9)で示す指標値Ind_qを算出するための係数A1〜A3は、周知の多変量解析を用いて算出される。例えば、複数のプリンターにより評価用画像を印刷させ、後述する主観値を得る。そして、主観値を目的変数とし、がたつき量Rag、濃度数値ODをそれぞれ説明変数とした相関を取得する。そして、この相関をもとに、上記式(9)における係数A1〜A3を取得する。本実施形態では、PC30は、各文字サイズに対して、それぞれの係数A1〜A3を記録している。また、輪郭データーの特徴に加えて、濃度特性を用いることで、評価用画像の個々の濃度特性に応じて指標値を算出することができる。
The coefficients A 1 to A 3 for calculating the index value Ind_q represented by the above formula (9) are calculated using a well-known multivariate analysis. For example, an evaluation image is printed by a plurality of printers, and a subjective value described later is obtained. Then, the correlation is obtained with the subjective value as the objective variable and the backlash amount Rag and the density value OD as the explanatory variables. Based on this correlation, the coefficients A 1 to A 3 in the above equation (9) are acquired. In the present embodiment, the
例えば、主観値は、図13に示すように、任意の12種類のプリンターに対して、主観実験により得られた値(主観値Sbj)として記録されている。図13では、主観値Sbjは、文字サイズ毎に作成され、外部メモリ35に記録されている。また、図13(a)〜(c)では、20pt、10.5pt、4ptの各文字サイズの主観値を示す。この主観値Sbjは、例えば、任意の被験者から1対比較法等を用いた実験により得られた値である。
For example, as shown in FIG. 13, the subjective value is recorded as a value (subjective value Sbj) obtained by a subjective experiment for any 12 types of printers. In FIG. 13, the subjective value Sbj is created for each character size and recorded in the
ステップS54では、指標値算出部44により、算出された指標値Ind_qの評価が行われる。例えば、指標値算出部44は、指標値Ind_qが、所定の規格値に収まるか否かで評価を行う。
また、評価結果は、文字サイズ毎に提示するものであってもよいし、1つでも評価が低い文字サイズが存在する場合を低評価としてもよい。更に、文字サイズ毎の指標値Ind_qを平均化し、平均化された指標値により評価を行うものであってもよい。
In step S54, the index value calculation unit 44 evaluates the calculated index value Ind_q. For example, the index value calculation unit 44 performs evaluation based on whether or not the index value Ind_q falls within a predetermined standard value.
In addition, the evaluation result may be presented for each character size, or the evaluation result may be a low evaluation when there is at least one character size with a low evaluation. Furthermore, the index value Ind_q for each character size may be averaged, and evaluation may be performed using the averaged index value.
以上説明したように、本発明によれば、人の視覚特性を考慮して評価用画像の検査を行うことができるため、必要な品質は保持しつつ、検査に要する処理や装置を簡素化することができる。 As described above, according to the present invention, since the evaluation image can be inspected in consideration of human visual characteristics, the processing and apparatus required for the inspection are simplified while maintaining the necessary quality. be able to.
(5)その他の実施形態
検査装置1をプリンター10、スキャナー20、PC30により構成することは一例にすぎない。例えば、プリンター10単体で、本発明の検査装置1の機能を実現するものであってもよい。更に、検査装置1は、LCD(liquid crystal display)に表示される画像を検査するものであってもよよいし、プロジェクターに投影される画像を検査するものであってもよい。この場合、例えば、LCD又はプロジェクターにより評価用画像を表示し、デジタルカメラ等の撮像装置により表示された画像を撮像する。次に、検査装置1が撮像により得られた撮像画像を評価用画像として撮像装置から取得する。そして、検査装置1は、この評価用画像に対して本発明の処理を行なえば良い。
(5) Other Embodiments Configuring the
また、輪郭データーの特徴をP表現に基づいて取得することは一例にすぎない。他の表現(G表現)や、その他の近似関数をもとに、周波数解析を行うものであってもよい。 In addition, acquiring the characteristics of the contour data based on the P expression is merely an example. Frequency analysis may be performed based on other expressions (G expressions) or other approximate functions.
そして、周波数解析にフーリエ解析を用いることは一例である。例えば、ウェーブレット解析により周波数を解析するものであってもよい。 The use of Fourier analysis for frequency analysis is an example. For example, the frequency may be analyzed by wavelet analysis.
二値化処理において、視覚特性を適用することは一例にすぎない。例えば、通常の2値化処理のみで、輪郭データーを抽出してもよい。更には、輪郭データーの抽出を多値化処理により行うものであってもよい。 Applying visual characteristics in the binarization process is just one example. For example, the contour data may be extracted only by normal binarization processing. Further, the contour data may be extracted by multivalue processing.
なお、本発明は上記実施例に限られるものでないことは言うまでもない。
即ち、上記実施例の中で開示した相互に置換可能な部材および構成等を適宜その組み合わせを変更して適用してもよい。
公知技術であって上記実施例の中で開示した部材および構成等と相互に置換可能な部材および構成等を適宜置換し、またその組み合わせを変更して適用してもよい。
公知技術等に基づいて当業者が上記実施例の中で開示した部材および構成等の代用として想定し得る部材および構成等と適宜置換し、またその組み合わせを変更して適用してもよい。
Needless to say, the present invention is not limited to the above embodiments.
That is, the mutually replaceable members and configurations disclosed in the above embodiments may be applied by appropriately changing the combination.
Members and structures that are known techniques and can be mutually replaced with the members and structures disclosed in the above-described embodiments may be appropriately replaced, and combinations thereof may be changed and applied.
Those skilled in the art may appropriately replace the members and structures that can be assumed as substitutes for the members and structures disclosed in the above-described embodiments based on known techniques and the like, and change the combinations thereof.
1…検査装置、10…プリンター、20…スキャナー、30…パーソナルコンピューター(PC)、31…コントローラー、32、33…IF、34…キーボード、35…外部メモリ、36…ディスプレイ、41…色変換部、42…輪郭抽出部、43…特徴取得部、44…指標値算出部、421…DFTC、422…VTF適用部、423…IDFTC、424…二値化処理部、425…座標抽出部
DESCRIPTION OF
Claims (7)
前記評価用画像を取得する画像取得手段と、
前記取得された評価用画像に含まれる輪郭を示す輪郭データーを抽出する輪郭抽出手段と、
前記抽出された輪郭データーを周波数解析し、人の視覚特性の感度が高い周波数帯域におけるスペクトル値に基づいて、前記輪郭データーの特徴を定量化する定量化手段と、を有する検査装置。 An inspection apparatus for evaluating the quality of an evaluation image,
Image acquisition means for acquiring the evaluation image;
Contour extracting means for extracting contour data indicating a contour included in the acquired evaluation image;
An inspection apparatus comprising: quantification means for performing frequency analysis on the extracted contour data and quantifying characteristics of the contour data based on a spectrum value in a frequency band in which the sensitivity of human visual characteristics is high.
前記多値化で用いられる閾値は、人の視覚特性を考慮して設定される、請求項1から請求項3のいずれか一項に記載の検査装置。 The contour extracting means multi-values the evaluation image to extract the contour data,
The inspection apparatus according to any one of claims 1 to 3, wherein the threshold value used in the multi-value conversion is set in consideration of human visual characteristics.
前記取得された評価用画像に含まれる輪郭を示す輪郭データーを抽出する輪郭抽出工程と、
前記抽出された輪郭データーを周波数解析し、人の視覚特性の感度が高い周波数帯域におけるスペクトル値に基づいて、前記輪郭データーの特徴を定量化する定量化工程と、を有する検査方法。 An image acquisition step of acquiring an evaluation image;
A contour extraction step of extracting contour data indicating a contour included in the acquired evaluation image;
And a quantification step of performing a frequency analysis on the extracted contour data and quantifying the characteristics of the contour data based on a spectrum value in a frequency band in which the sensitivity of human visual characteristics is high.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012193924A JP2014048260A (en) | 2012-09-04 | 2012-09-04 | Inspection device, and inspection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012193924A JP2014048260A (en) | 2012-09-04 | 2012-09-04 | Inspection device, and inspection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014048260A true JP2014048260A (en) | 2014-03-17 |
Family
ID=50608061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012193924A Pending JP2014048260A (en) | 2012-09-04 | 2012-09-04 | Inspection device, and inspection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014048260A (en) |
-
2012
- 2012-09-04 JP JP2012193924A patent/JP2014048260A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11317851B2 (en) | Skin spot evaluation apparatus, skin spot evaluation method and program | |
US11107210B2 (en) | Image data generating apparatus generating image data for inspecting external appearance of product | |
Hosseini et al. | Focus quality assessment of high-throughput whole slide imaging in digital pathology | |
JP7078175B2 (en) | Inspection equipment and method | |
US9697583B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
EP2884457B1 (en) | Image evaluation device and image evaluation program | |
JP6613214B2 (en) | Printed matter inspection apparatus, printed matter inspection method and program | |
JP2014534699A (en) | System and method for digital image signal compression using unique images | |
JP2008252684A (en) | Apparatus and method for evaluating gradation | |
JP2014048260A (en) | Inspection device, and inspection method | |
US11962949B2 (en) | Method of air pollution estimation based on spectral image processing | |
JP2014174658A (en) | Inspection device and inspection method | |
JP2017194421A (en) | Chromatic difference calculation device, chromatic difference calculation method and program | |
JP2006277172A (en) | Image evaluation method, image evaluation support device, image forming device, and image evaluation support program | |
WO2023157238A1 (en) | Inspection device, inspection method, and recording medium | |
US20240169616A1 (en) | Information processing device, information processing method, and non-transitory computer-readable storage medium | |
RU2582065C1 (en) | Method for determining the accessories pages to one act of print | |
JP2009232418A (en) | Color processor, program and image forming apparatus | |
JP2019169910A (en) | Image processing apparatus, image processing method, and program | |
JP2022067173A (en) | Image processing apparatus, image processing method, and program | |
JPH07220083A (en) | Digital image evaluation device | |
JP2023133002A (en) | Gray hair evaluation system and gray hair evaluation method | |
CN117011687A (en) | Full-reference underwater enhanced image quality evaluation method based on paired samples | |
WO2018223514A1 (en) | Printing evaluation method, terminal device and computer-readable storage medium | |
CN118781645A (en) | Face recognition method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150108 |