JP2014048260A - Inspection device, and inspection method - Google Patents

Inspection device, and inspection method Download PDF

Info

Publication number
JP2014048260A
JP2014048260A JP2012193924A JP2012193924A JP2014048260A JP 2014048260 A JP2014048260 A JP 2014048260A JP 2012193924 A JP2012193924 A JP 2012193924A JP 2012193924 A JP2012193924 A JP 2012193924A JP 2014048260 A JP2014048260 A JP 2014048260A
Authority
JP
Japan
Prior art keywords
contour
contour data
evaluation image
image
inspection apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012193924A
Other languages
Japanese (ja)
Inventor
Takashi Kobayashi
崇 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012193924A priority Critical patent/JP2014048260A/en
Publication of JP2014048260A publication Critical patent/JP2014048260A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an inspection device that eliminates excessive inspection techniques while maintaining necessary quality, and an inspection method.SOLUTION: An inspection device evaluating quality of an evaluation image includes: image acquisition means for acquiring the evaluation image; contour extraction means for extracting contour data indicating contours included in the acquired evaluation image; and quantization means for analyzing a frequency of the extracted contour data, and quantizing the feature of the contour data on the basis of a spectrum value in a frequency band where sensitivity of human visual performance is high.

Description

本発明は、画像の品質を検査する検査装置に関する。   The present invention relates to an inspection apparatus for inspecting image quality.

従来、画像の品質を検査する方法として次のようなものが知られている。特許文献1に開示された発明は、原画像の特徴をパターンマッチングにより照合し、照合結果に対するスコアを、辞書を用いて検索する。そして、このスコアを用いて品質の評価を行っている。(例えば、特許文献1参照)。   Conventionally, the following methods are known as methods for inspecting image quality. In the invention disclosed in Patent Document 1, features of an original image are collated by pattern matching, and a score for the collation result is searched using a dictionary. And quality evaluation is performed using this score. (For example, refer to Patent Document 1).

特開2003−145898号公報JP 2003-145898 A

上記したパターンマッチングの手法を用いる場合、照合精度を高めるためには、対象となる原画像の特徴を高精度に抽出する必要がある。そのため、従来の検査装置では、人の視覚には影響がない、微細な特徴成分を高精度に抽出し、この特徴成分を照合に適用していた。その結果、検査に要する装置や処理が過剰なものとなっていた。   In the case of using the pattern matching method described above, it is necessary to extract the features of the target original image with high accuracy in order to increase the matching accuracy. For this reason, in the conventional inspection apparatus, fine feature components that do not affect human vision are extracted with high accuracy, and these feature components are applied to matching. As a result, the apparatus and processing required for the inspection are excessive.

本発明は、上記課題にかんがみてなされたもので、必要な品質は維持しつつ過剰な検査手法を排除した検査装置、検査方法の提供を目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an inspection apparatus and an inspection method that eliminates an excessive inspection method while maintaining necessary quality.

上記課題を解決するために、本発明では、評価用画像の品質を評価する検査装置であって、前記評価用画像を取得する画像取得手段と、前記取得された評価用画像に含まれる輪郭を示す輪郭データーを抽出する輪郭抽出手段と、前記抽出された輪郭データーを周波数解析し、人の視覚特性の感度が高い周波数帯域におけるスペクトル値に基づいて、前記輪郭データーの特徴を定量化する定量化手段と、を有する。   In order to solve the above problems, in the present invention, an inspection apparatus for evaluating the quality of an evaluation image, the image acquisition means for acquiring the evaluation image, and the contour included in the acquired evaluation image Contour extraction means for extracting the contour data to be shown, and quantification for analyzing the frequency of the extracted contour data and quantifying the characteristics of the contour data based on a spectrum value in a frequency band in which the sensitivity of human visual characteristics is high Means.

上記のように構成された発明では、輪郭抽出手段は、画像取得手段により取得された評価用画像に含まれる輪郭を輪郭データーとして抽出する。そして、定量化手段は、抽出された輪郭データーを周波数解析し、人の視覚特性の感度が高い周波数帯域におけるスペクトル値に基づいて、輪郭データーの特徴を定量化する。
そのため、人の視覚特性に特化した周波数成分をもとに輪郭の特徴を定量化することができる。即ち、人の視覚特性に影響がない微細な特徴を抽出する必要がないため、人の視覚を考慮しつつ、簡易な処理により画質の評価を行うことが可能となる。
In the invention configured as described above, the contour extracting unit extracts the contour included in the evaluation image acquired by the image acquiring unit as the contour data. Then, the quantification means performs frequency analysis on the extracted contour data, and quantifies the characteristics of the contour data based on a spectrum value in a frequency band in which the sensitivity of human visual characteristics is high.
Therefore, contour features can be quantified based on frequency components specialized in human visual characteristics. That is, since it is not necessary to extract fine features that do not affect human visual characteristics, it is possible to evaluate image quality by simple processing while taking human vision into consideration.

また、前記定量化手段は、前記輪郭データーを形成する各線分の相対的な位置関係を所定の周期関数で示し、前記周期関数に対して前記周波数解析を行う構成としてもよい。
上記のように構成された発明では、輪郭データーの各成分の相対的な位置関係を特徴として扱うことができ、輪郭に含まれるがたつきや凹凸を評価することが可能となる。
Further, the quantification unit may be configured to indicate a relative positional relationship of each line segment forming the contour data by a predetermined periodic function and perform the frequency analysis on the periodic function.
In the invention configured as described above, the relative positional relationship of each component of the contour data can be treated as a feature, and rattling and unevenness included in the contour can be evaluated.

そして、前記定量化された前記輪郭データーの特徴は、前記周波数成分におけるスペクトル値の偏差に基づいて取得される構成としてもよい。
上記のように構成された発明では、スペクトル値の偏差を用いることで、より簡易に定量化を行うことができる。
The quantified feature of the contour data may be acquired based on a deviation of a spectrum value in the frequency component.
In the invention configured as described above, the quantification can be performed more easily by using the deviation of the spectrum value.

さらに、前記輪郭抽出手段は、前記評価用画像を多値化して、前記輪郭データーを抽出し、前記多値化で用いられる閾値は、人の視覚特性を考慮して設定される、構成としてもよい。
上記のように構成された発明では、輪郭データーの抽出に人の視覚特性を反映させることで、得られる輪郭データーを人の知覚に適合させたものとすることができる。
Further, the contour extracting unit multi-values the evaluation image to extract the contour data, and the threshold value used in the multi-value conversion is set in consideration of human visual characteristics. Good.
In the invention configured as described above, the contour data obtained can be adapted to human perception by reflecting the human visual characteristics in the extraction of the contour data.

また、前記定量化された前記輪郭データーの特徴に基づいて、前記評価用画像の品質を示す指標値を算出する指標値算出手段を有する構成としてもよい。
上記のように構成された発明では、評価用画像の品質を数値として示すことができるため、画像に対してより客観的な評価を行うことができる。
Moreover, it is good also as a structure which has the index value calculation means which calculates the index value which shows the quality of the said image for evaluation based on the characteristic of the said quantified outline data.
In the invention configured as described above, since the quality of the evaluation image can be shown as a numerical value, a more objective evaluation can be performed on the image.

そして、前記指標値算出手段は、前記定量化された前記輪郭データーの特徴と、前記輪郭で囲まれた部分の濃度特性とに基づいて、前記指標値を算出する構成としてもよい。
上記のように構成された発明では、輪郭データーの特徴に加えて、輪郭で囲まれた部分の濃度特性を用いることで、画像の濃度特性に応じて指標値を算出することができる。
And the said index value calculation means is good also as a structure which calculates the said index value based on the characteristic of the said quantified outline data, and the density | concentration characteristic of the part enclosed by the said outline.
In the invention configured as described above, the index value can be calculated according to the density characteristic of the image by using the density characteristic of the portion surrounded by the outline in addition to the feature of the outline data.

さらに、本発明は、評価用画像を検査する検査方法に対しても適用することができる。   Furthermore, the present invention can also be applied to an inspection method for inspecting an evaluation image.

本発明の検査方法を説明する図である。It is a figure explaining the inspection method of the present invention. 本発明の検査装置1を説明するブロック構成図である。It is a block block diagram explaining the inspection apparatus 1 of this invention. 検査装置1により実行される検査方法を説明するフローチャートである。4 is a flowchart for explaining an inspection method executed by the inspection apparatus 1. 検査装置1により用いられる評価用画像を示す図である。It is a figure which shows the image for evaluation used by the test | inspection apparatus 1. FIG. 輪郭抽出部42の構成を説明する図である。It is a figure explaining the structure of the outline extraction part. ステップS2の処理を詳細に示すフローチャートである。It is a flowchart which shows the process of step S2 in detail. 輪郭データーの抽出を説明する図である。It is a figure explaining extraction of outline data. 特徴取得部43のより詳細な構成を示すブロック構成図である。4 is a block configuration diagram showing a more detailed configuration of a feature acquisition unit 43. FIG. ステップS3の処理を詳細に示すフローチャートである。It is a flowchart which shows the process of step S3 in detail. 輪郭データーの特徴の取得を説明する図である。It is a figure explaining acquisition of the feature of outline data. スペクトル変化を示す波形図である。It is a wave form diagram which shows a spectrum change. ステップS5の処理を詳細に示すフローチャートである。It is a flowchart which shows the process of step S5 in detail. 指標値の算出の際に使用される主観値を示す図である。It is a figure which shows the subjective value used in the case of calculation of an index value.

以下、下記の順序に従って本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described in the following order.

(1)検査装置の概要
図1は、本発明の検査方法を説明する図である。また、図2は、本発明の検査装置1を説明するブロック構成図である。そして、図3は、検査装置1により実行される検査方法を説明するフローチャートである。さらに、図4は、検査装置1により用いられる評価用画像を示す図である。
(1) Outline of Inspection Apparatus FIG. 1 is a diagram for explaining an inspection method of the present invention. FIG. 2 is a block diagram illustrating the inspection apparatus 1 of the present invention. FIG. 3 is a flowchart for explaining an inspection method executed by the inspection apparatus 1. Further, FIG. 4 is a diagram showing an evaluation image used by the inspection apparatus 1.

図2に示すように、検査装置1は、プリンター10、スキャナー20、パーソナルコンピューター(PC)30とを備える。この検査装置1では、プリンター10により印刷された評価用画像を用いて、PC30による品質検査が行われる。   As shown in FIG. 2, the inspection apparatus 1 includes a printer 10, a scanner 20, and a personal computer (PC) 30. In the inspection apparatus 1, the quality inspection by the PC 30 is performed using the evaluation image printed by the printer 10.

プリンター10は、周知のものを用いることができ、インクジェット式のプリンターであっても良いし、レーザー式のプリンターであってもよい。本実施形態では、プリンター10は、PC30から出力される評価用データーを用いて、評価用画像を印刷する。   A known printer 10 can be used, and may be an ink jet printer or a laser printer. In the present embodiment, the printer 10 prints an evaluation image using the evaluation data output from the PC 30.

評価用画像は、PC30が指標値Ind_qを算出するために用いられる画像である。本実施形態では、図4に示すように、6種類の異なる文字サイズ(40pt、20pt、11pt、10.5pt、8pt、4pt)により記録される文字列を含む評価用画像を使用する。また、この評価用画像に含まれる各文字列を対象画像群と記載する。そして、この対象用画像群に含まれる個々の文字を対象画像とも記載する。なお、評価用画像を構成するものは文字に限定されず、検査用途に応じて適宜選択すればよい。   The evaluation image is an image used for the PC 30 to calculate the index value Ind_q. In the present embodiment, as shown in FIG. 4, an evaluation image including a character string recorded with six different character sizes (40 pt, 20 pt, 11 pt, 10.5 pt, 8 pt, 4 pt) is used. Each character string included in the evaluation image is referred to as a target image group. Each character included in the target image group is also referred to as a target image. In addition, what constitutes the image for evaluation is not limited to characters, and may be appropriately selected according to the inspection application.

スキャナー20は、プリンター10により印刷された評価用画像を読み取り、PC30に出力する。スキャナー20により読み取られた評価用画像は、所定解像度(例えば、1200dpi)の画素により構成され、各画素がsRGB色空間の各色成分値を備える。なお、スキャナー20は、周知のものを用いることができる。   The scanner 20 reads the evaluation image printed by the printer 10 and outputs it to the PC 30. The evaluation image read by the scanner 20 is composed of pixels having a predetermined resolution (for example, 1200 dpi), and each pixel includes each color component value in the sRGB color space. A known scanner 20 can be used.

PC30は、スキャナー20から出力された評価用画像を評価するための指標値Ind_qを算出する。
PC30は、既存のパーソナルコンピューターであり、プリンター10、及びスキャナー20と接続されている。図2に示すように、PC30は、コントローラー31と、IF32、33と、キーボード34と、外部メモリ35と、ディスプレイ36とを備える。
The PC 30 calculates an index value Ind_q for evaluating the evaluation image output from the scanner 20.
The PC 30 is an existing personal computer, and is connected to the printer 10 and the scanner 20. As shown in FIG. 2, the PC 30 includes a controller 31, IFs 32 and 33, a keyboard 34, an external memory 35, and a display 36.

PC30は、IF32、33を介してプリンター10及びスキャナー20にそれぞれ接続されている。また、IF32、33は、コントローラー31に接続されている。   The PC 30 is connected to the printer 10 and the scanner 20 via IFs 32 and 33, respectively. The IFs 32 and 33 are connected to the controller 31.

コントローラー31は、CPU、ROM、RAMを備えて構成される。そして、CPUがROMに記録されたプログラムを実行することで、コントローラー31は、色変換部(画像取得手段)41、輪郭抽出部(輪郭抽出手段)42、特徴取得部(定量化手段)43、指標値算出部(指標値算出手段)44を機能的に備える。
さらに、コントローラー31は、外部メモリ35に記録された図示しないドライバープログラムを実行することで、プリンター10及びスキャナー20の駆動をそれぞれ制御することができる。
The controller 31 includes a CPU, a ROM, and a RAM. The CPU 31 executes the program recorded in the ROM, so that the controller 31 has a color conversion unit (image acquisition unit) 41, a contour extraction unit (contour extraction unit) 42, a feature acquisition unit (quantification unit) 43, An index value calculation unit (index value calculation means) 44 is functionally provided.
Furthermore, the controller 31 can control driving of the printer 10 and the scanner 20 by executing a driver program (not shown) recorded in the external memory 35.

外部メモリ35は、HDDや、SSD等の大容量メモリにより構成される。また、外部メモリ35には、PC20がプリンター10又はスキャナー20を制御するためのプログラムや、指標値Ind_qを算出するために用いられる各種データーやプログラムが記録されている。   The external memory 35 is configured by a large capacity memory such as an HDD or an SSD. The external memory 35 stores a program for the PC 20 to control the printer 10 or the scanner 20 and various data and programs used to calculate the index value Ind_q.

図1、図3に示すように、PC30により実行される指標値Ind_qの算出は、以下の手法が用いられる。
まず、図3のステップS1では、評価用画像が取得される(図1(a))。また、色変換部41により、評価用画像の色成分の変換が行われる。色変換部41は、評価用画像を構成する画素の色成分値を他の色空間上の値に変換する。具体的には、色変換部41は、評価用画像の画素の色成分値(sRGB色空間)を、L*a*b*値(Lab色空間)に変換する。色変換部41による色成分値の変換は公知の変換式を用いて行われる。ここで、色変換部41が、画素の色成分値をLab色空間上の値に変換することは一例であり、例えば、XYZ色空間上の値(X、Y、Z)に変換するものであってもよい。
As shown in FIGS. 1 and 3, the following method is used to calculate the index value Ind_q executed by the PC 30.
First, in step S1 of FIG. 3, an evaluation image is acquired (FIG. 1A). In addition, the color conversion unit 41 converts the color components of the evaluation image. The color conversion unit 41 converts the color component values of the pixels constituting the evaluation image into values in another color space. Specifically, the color conversion unit 41 converts the color component value (sRGB color space) of the pixel of the evaluation image into an L * a * b * value (Lab color space). The conversion of color component values by the color conversion unit 41 is performed using a known conversion formula. Here, the conversion of the color component value of the pixel into a value in the Lab color space by the color conversion unit 41 is an example. For example, the value is converted into a value (X, Y, Z) in the XYZ color space. There may be.

ステップS2では、輪郭抽出部42による輪郭データーの抽出が行われる(図1(b))。輪郭データーは、対象画像の境界を規定する画素により構成されるデーターである。本実施形態では、輪郭抽出部42は、輪郭データーを構成する画素の座標(x、y)を取得することで、抽出を行う。   In step S2, the contour data is extracted by the contour extraction unit 42 (FIG. 1B). The contour data is data composed of pixels that define the boundary of the target image. In the present embodiment, the contour extraction unit 42 performs extraction by acquiring the coordinates (x, y) of the pixels constituting the contour data.

そして、ステップS3では、特徴取得部43により輪郭データーの特徴が取得される(図1(c))。本実施形態では、輪郭データーの特徴を、輪郭データーを構成する成分間の相対的な位置関係により取得する。輪郭データーにより表される曲線を輪郭線Cとし、画素(点)を結んで、輪郭線Cを折れ線近似する場合を想定する。画素を結んで求められる輪郭線Cの任意の線分が近接成分との関係で直線状である場合、その線分をがたつきや凹凸が低い成分と見なすことができる。一方、任意の線分が近接成分との関係で直線状でない場合、その線分をがたつきや凹凸が高い成分と見なすことができる。即ち、上記したがたつきや凹凸が高い成分を多く含む輪郭線Cは、それだけがたつき度合いが高いと判断することが可能となる。   In step S3, the feature acquisition unit 43 acquires the features of the contour data (FIG. 1 (c)). In the present embodiment, the feature of the contour data is acquired from the relative positional relationship between the components constituting the contour data. A case is assumed in which the curve represented by the contour data is defined as a contour line C, pixels (points) are connected, and the contour line C is approximated by a broken line. When an arbitrary line segment of the contour line C obtained by connecting pixels is linear in relation to the proximity component, the line segment can be regarded as a component with low backlash and unevenness. On the other hand, when an arbitrary line segment is not linear due to the proximity component, the line segment can be regarded as a component with high rattling and unevenness. That is, it is possible to determine that the contour line C including many components having high rattling and unevenness as described above has a high degree of shading.

そのため、特徴取得部43は、輪郭データーに含まれる各成分の相対的な位置関係を周期関数wとして表現し、この周期関数wに対して周波数解析を行うことで、特徴を取得する。この周期関数wは、輪郭データーで表現される輪郭線Cを、その周囲長を周期とする関数として表現するものである。   Therefore, the feature acquisition unit 43 expresses the relative positional relationship of each component included in the contour data as a periodic function w, and acquires a feature by performing frequency analysis on the periodic function w. This periodic function w expresses the contour line C expressed by the contour data as a function having the peripheral length as a cycle.

さらに、図1(d)、(e)に示すように、特徴取得部43は、輪郭データーの特徴の内、特定周波数成分のスペクトルのみを取り出し、このスペクトルを元に輪郭データーの特徴を定量化(後述するがたつき量Rag)する。特徴取得部43は、得られたスペクトルの偏差をもとに、特徴を定量化する。   Further, as shown in FIGS. 1D and 1E, the feature acquisition unit 43 extracts only the spectrum of the specific frequency component from the contour data features, and quantifies the contour data features based on this spectrum. (Rag amount Rag described later). The feature acquisition unit 43 quantifies the feature based on the obtained spectrum deviation.

そして、ステップS4において、定量化の対象となる全ての対象画像に対して定量化が行われるまで実施される(ステップS4:YES)。例えば、評価用画像を構成する20pt、10.5pt、4ptの文字サイズを評価する場合、これら全ての対象画像に対して輪郭データーの特徴が定量化される。   And in step S4, it implements until it quantifies with respect to all the target images used as the object of quantification (step S4: YES). For example, when evaluating the character size of 20pt, 10.5pt, and 4pt constituting the evaluation image, the features of the contour data are quantified for all these target images.

さらに、ステップS5では、指標値算出部44により指標値Ind_qが算出される(図1(f))。この指標値Ind_qは、評価用画像の評価値を示す値であり、定量化された輪郭データーの特徴に基づいて算出される。そのため、この指標値Ind_qを用いることで、評価用画像の評価を行うことが可能となる。また、評価用画像を、指標値Ind_qを用いて評価することで、評価が高い評価用画像を印刷するプリンターは、それだけ性能が高いと見なすことができる。   Further, in step S5, the index value calculation unit 44 calculates the index value Ind_q (FIG. 1 (f)). This index value Ind_q is a value indicating the evaluation value of the evaluation image, and is calculated based on the features of the quantified contour data. Therefore, the evaluation image can be evaluated by using the index value Ind_q. Further, by evaluating the evaluation image using the index value Ind_q, a printer that prints an evaluation image with a high evaluation can be regarded as having high performance.

以下に、検査装置1の一例としての実施例を説明する。   Below, the Example as an example of the inspection apparatus 1 is described.

(2)輪郭データーの抽出
まず、図3のステップS2で実行される輪郭データーの抽出方法を説明する。図5は、輪郭抽出部42の構成を説明する図である。また、図6は、ステップS2の処理を詳細に示すフローチャートである。そして、図7は、輪郭データーの抽出を説明する図である。
(2) Extraction of contour data First, the contour data extraction method executed in step S2 of FIG. 3 will be described. FIG. 5 is a diagram illustrating the configuration of the contour extraction unit 42. FIG. 6 is a flowchart showing in detail the process of step S2. FIG. 7 is a diagram for explaining extraction of contour data.

図5に示すように、輪郭抽出部42は、DFTC(Discrete Fourier Transform Converter)421と、VTF(Visual Transfer Function)適用部422と、IDFTC(Inverse Discrete Fourier Transform Converter)423と、二値化処理部424と、座標抽出部425と、を備える。   As illustrated in FIG. 5, the contour extraction unit 42 includes a DFTC (Discrete Fourier Transform Converter) 421, a VTF (Visual Transfer Function) application unit 422, an IDFTC (Inverse Discrete Fourier Transform Converter) 423, and a binarization processing unit. 424 and a coordinate extraction unit 425.

図6のステップS21では、DFTC421は、評価用画像を構成する画素を空間周波数特性F(u、v)に変換する(以下、F(u、v)を空間周波数成分とも記載する。)。DFTC421は、下記式(1)に示される離散フーリエ変換を用いて、空間周波数特性F(u,v)を算出する。

Figure 2014048260
In step S21 of FIG. 6, the DFTC 421 converts the pixels constituting the evaluation image into the spatial frequency characteristics F (u, v) (hereinafter, F (u, v) is also described as a spatial frequency component). The DFTC 421 calculates the spatial frequency characteristic F (u, v) using the discrete Fourier transform represented by the following formula (1).
Figure 2014048260

ステップS22では、VTF適用部422は、各空間周波数成分に対して、視覚特性に応じた重み付けを行う。人の視覚感度は空間周波数に依存して変化することが知られている。これを、視覚特性関数VTF(u,v)としてグラフ化した場合、図7(a)に示すように、人の視覚感度は、所定の低周波数帯で最も高くなる。VTF適用部422は、画素の空間周波数成分に対して視覚特性に応じた重み付けを行う。VTF適用部422により付与される重みは、視覚特性関数VTF(u、v)により、0から1の間の値で設定される。そのため、例えば、図7(a)に示すように、視覚感度が高い周波数成分に対しては高い重みが付与される。なお、視覚感度を視覚特性関数VTF(u、v)を用いて表すことは一例に過ぎない。例えば、視覚特性を近似した関数(例えば、コントラスト感度関数CSF(Contrast Sensitivity Function))を用いても良い。また、視覚特性は、L*チャンネルのみならず、a*、b*チャンネルにフィルターを適用して用いても良い。更に、L* a* b*の各チャンネルで異なるフィルターを適用して用いるものであってもよい。   In step S22, the VTF application unit 422 weights each spatial frequency component according to visual characteristics. It is known that human visual sensitivity changes depending on spatial frequency. When this is graphed as a visual characteristic function VTF (u, v), as shown in FIG. 7A, the human visual sensitivity is highest in a predetermined low frequency band. The VTF application unit 422 weights the spatial frequency components of the pixels according to visual characteristics. The weight given by the VTF application unit 422 is set to a value between 0 and 1 by the visual characteristic function VTF (u, v). Therefore, for example, as shown in FIG. 7A, a high weight is assigned to a frequency component with high visual sensitivity. Note that the visual sensitivity is represented by using the visual characteristic function VTF (u, v). For example, a function approximating visual characteristics (for example, contrast sensitivity function CSF (Contrast Sensitivity Function)) may be used. Further, the visual characteristics may be used by applying filters to the a * and b * channels as well as the L * channel. Furthermore, a different filter may be applied to each channel of L * a * b *.

ステップS23では、IDFTC423は、ステップS22で重みが付与された空間周波数成分に対して逆フーリエ変換を行い、実空間上の値に変換する。例えば、IDFTC423は、下記式(2)に示す逆離散フーリエ変換を用いて、空間周波数成分を実空間上の値に変換する。

Figure 2014048260

In step S23, the IDFTC 423 performs inverse Fourier transform on the spatial frequency component weighted in step S22 and converts it to a value in real space. For example, the IDFTC 423 converts a spatial frequency component into a value in real space using an inverse discrete Fourier transform represented by the following formula (2).
Figure 2014048260

ステップS24では、二値化処理部424は、各画素に対して二値化処理を行う。この二値化処理により、評価用画像は、明度L*が閾値Rx以上の画素を「1」、明度L*が閾値Rx以下の画素を「0」とする二値画像に変換される。図7(b)は、一例としての2値化処理に用いられる閾値Rxの設定方法を示す。本実施形態では、2値化処理に用いる閾値Rxの設定方法として変動閾値法を用いる。そのため、閾値Rxは、以下の式(3)をもとに設定される。

Figure 2014048260

ここで、
Rxは、閾値
L*maxは、明度の最大値
L*minは、明度の最小値
xは、視覚特性に応じて設定される値。 In step S24, the binarization processing unit 424 performs binarization processing on each pixel. By this binarization processing, the evaluation image is converted into a binary image in which the pixels having the lightness L * of the threshold value Rx or more are “1” and the pixels having the lightness L * of the threshold value Rx or less are “0”. FIG. 7B shows a threshold Rx setting method used for the binarization process as an example. In the present embodiment, the variation threshold method is used as a method for setting the threshold Rx used in the binarization process. Therefore, the threshold value Rx is set based on the following formula (3).
Figure 2014048260

here,
Rx is a threshold value L * max, a lightness maximum value L * min, and a lightness minimum value x is a value set according to visual characteristics.

本実施形態では、xを60%〜70%に設定した。閾値Rxの設定に人の視覚特性を反映させることで、得られる輪郭データーを人の知覚に適合させたものとすることができる。即ち、視覚に影響を与えない成分を除去することが可能となる。   In this embodiment, x is set to 60% to 70%. By reflecting the human visual characteristics in the setting of the threshold value Rx, the obtained contour data can be adapted to human perception. That is, it is possible to remove components that do not affect the vision.

ステップS25では、座標抽出部425により、二値化画像に対して輪郭データーの成分(画素)が抽出される。具体的には、まず、座標抽出部425は、二値化画像に含まれる各対象画像をラベリング処理し、評価用画像から対象画像を分離する。次に、輪郭抽出部42は、ラベリング処理された対象画像に対して輪郭抽出アルゴリズムを適用して、輪郭データーを抽出する。   In step S25, the coordinate extraction unit 425 extracts contour data components (pixels) from the binarized image. Specifically, the coordinate extraction unit 425 first labels each target image included in the binarized image, and separates the target image from the evaluation image. Next, the contour extraction unit 42 extracts contour data by applying a contour extraction algorithm to the labeled target image.

この輪郭抽出アルゴリズムでは、まず、所定対象画像を水平走査し、輪郭探索を行う開始点(画素)を決定する。次に、この開始点を中心とした近傍を反時計周りで探索し、未探索の画素を探索する。本実施形態では、開始点の8近傍を探索した。そして、最初に探索された画素を次の開始点とする。また、探索された画素は輪郭データーの成分としてその座標が記録される。さらに、全ての画素に対して上記処理を繰返す。そのため、座標抽出部425は、輪郭データーの成分となる画素の座標(x、y)を取得することが可能となる。   In this contour extraction algorithm, first, a predetermined target image is horizontally scanned to determine a start point (pixel) for performing contour search. Next, the vicinity centering on this starting point is searched counterclockwise to search for unsearched pixels. In this embodiment, the vicinity of the start point is searched for. Then, the first searched pixel is set as the next start point. The coordinates of the searched pixel are recorded as the contour data component. Further, the above process is repeated for all pixels. Therefore, the coordinate extraction unit 425 can acquire the coordinates (x, y) of the pixel that is the component of the contour data.

(3)輪郭データーの特徴の取得
次に、図3のステップS3において実行される輪郭データーの特徴の取得方法を説明する。図8は、特徴取得部43のより詳細な構成を示すブロック構成図である。また、図9は、ステップS3の処理を詳細に示すフローチャートである。そして、図10は、輪郭データーの特徴の取得を説明する図である。
(3) Acquisition of Outline Data Features Next, an outline data feature acquisition method executed in step S3 of FIG. 3 will be described. FIG. 8 is a block configuration diagram showing a more detailed configuration of the feature acquisition unit 43. FIG. 9 is a flowchart showing in detail the process in step S3. FIG. 10 is a diagram for explaining the acquisition of the characteristics of the contour data.

図8に示すように、特徴取得部43は、複素平面展開部431と、周期関数算出部432と、DFTC433と、バンドパスフィルター434と、IDFTC435と、定量化部436と、を備える。   As shown in FIG. 8, the feature acquisition unit 43 includes a complex plane expansion unit 431, a periodic function calculation unit 432, a DFTC 433, a bandpass filter 434, an IDFTC 435, and a quantification unit 436.

図9のステップS31では、複素平面展開部431により、輪郭データーの各成分(画素)の座標(x、y)が、複素平面上の座標zに変換される。複素平面は、実部(x)と、虚部(yi)により規定される座標空間である。複素平面展開部431は、輪郭データーの成分の座標(x、y)の内、xを実部(x)とし、yを虚部(yi)として複素平面上の座標に変換する。   In step S31 of FIG. 9, the complex plane development unit 431 converts the coordinates (x, y) of each component (pixel) of the contour data into coordinates z on the complex plane. The complex plane is a coordinate space defined by a real part (x) and an imaginary part (yi). The complex plane development unit 431 converts x into a coordinate on the complex plane with x being a real part (x) and y being an imaginary part (yi) among the coordinates (x, y) of the components of the contour data.

ステップS32では、周期関数算出部432により、複素平面上の座標zの実部(x)、虚部(yi)のそれぞれに対して、特徴を示す周期関数wが取得される。図10(a)に示すように、輪郭線Cを折れ線近似して示す曲線を構成する点z(j)とz(j+1)との関係は、偏角θ(j)を用いることで、複素数値関数である周期関数w(j)を用いて表すことができる。周期関数w(j)は、下記式(4)により示される。

Figure 2014048260

δはz(j)とz(j+1)との間の距離でありδ=|z(j+1)−z(j)|により算出される。ここで、上記式(4)を用いて得られる周期関数をP表現とも記載する。また、P表現をフーリエ変換して得られるものをP型フーリエ記述子c(k)とも記載する。 In step S <b> 32, the periodic function calculation unit 432 acquires a periodic function w indicating characteristics for each of the real part (x) and the imaginary part (yi) of the coordinate z on the complex plane. As shown in FIG. 10 (a), the relationship between the points z (j) and z (j + 1) constituting the curve obtained by approximating the contour line C by a polygonal line is a complex number by using the argument θ (j). It can be expressed using a periodic function w (j) which is a value function. The periodic function w (j) is expressed by the following equation (4).
Figure 2014048260

δ is a distance between z (j) and z (j + 1), and is calculated by δ = | z (j + 1) −z (j) |. Here, the periodic function obtained using the above equation (4) is also referred to as a P expression. In addition, what is obtained by Fourier transforming the P expression is also referred to as a P-type Fourier descriptor c (k).

上記式(4)により、w(j)は、複素平面上の成分(j=1、…n)をサンプル点とする周期関数w(j)として示すことができる。また、上記式(4)から展開された下記式(5)により、輪郭線Cの成分z(j)を周期関数w(r)を用いて表すこともできる。

Figure 2014048260
From the above equation (4), w (j) can be expressed as a periodic function w (j) having components (j = 1,..., N) on the complex plane as sample points. Further, the component z (j) of the contour C can be expressed using the periodic function w (r) by the following equation (5) developed from the above equation (4).
Figure 2014048260

即ち、輪郭線Cは、周期関数w(j)により表すことができ、両者は1対1の関係を有する。これを、図10(b)(c)を用いて説明する。図10(b)は、複素平面上に展開された輪郭線Cの実部(x)の変化量の推移を示し、図10(c)は、この実部(x)の周期関数w(j)の変化量の推移を示す。なお、図10(b)は、縦軸を実部(x)の座標(x)とし、横軸を画素数としている。また、図10(c)は、縦軸を変化量とし、横軸を画素数とする。本実施形態では、解析対象がデジタル画像であるため、画素間の距離は最大で1となる。そのため、変化量(縦軸)は−1から1となる。図10(b)(c)に示すように、実部(x)のがたつきが多い領域では、周期関数w(j)でも変動が大きい。このことは、周期関数w(j)に対する周波数解析により、輪郭線Cの解析が可能であることを示す。   That is, the contour line C can be represented by a periodic function w (j), and the two have a one-to-one relationship. This will be described with reference to FIGS. FIG. 10B shows the transition of the change amount of the real part (x) of the contour C developed on the complex plane, and FIG. 10C shows the periodic function w (j) of the real part (x). ). In FIG. 10B, the vertical axis represents the coordinates (x) of the real part (x), and the horizontal axis represents the number of pixels. In FIG. 10C, the vertical axis is the amount of change, and the horizontal axis is the number of pixels. In the present embodiment, since the analysis target is a digital image, the distance between pixels is 1 at the maximum. Therefore, the amount of change (vertical axis) is −1 to 1. As shown in FIGS. 10B and 10C, in the region where the real part (x) has a lot of shakiness, the fluctuation is large even in the periodic function w (j). This indicates that the contour C can be analyzed by frequency analysis on the periodic function w (j).

ここで、輪郭データーの成分を例えば8近傍の探索により取得した場合、以下のような修正を行う必要がある。今、8近傍により探索された輪郭データーの成分をz(j’)とする。この場合、各成分z(j’)における複素平面上の距離δは常に一定の値とならない。このことはサンプリング間隔が一定ではないことを意味する。そのため、偏角θの値を満たしつつ、サンプリング間隔が一定となるz(j)を、z(j’)に基づいて再検索し、この求めたz(j)により、周期関数w(j)を近似する。無論、輪郭データーの成分を4近傍探索により探索する場合は、複素平面上の距離δ=1で一定となるため、上記式(4)をそのまま適用して周期関数w(j)を用いることができる。   Here, when the contour data component is acquired by, for example, a search in the vicinity of 8, it is necessary to perform the following correction. Now, let z (j ') be the component of the contour data searched for in the vicinity of eight. In this case, the distance δ on the complex plane in each component z (j ′) is not always a constant value. This means that the sampling interval is not constant. Therefore, z (j) where the sampling interval is constant while satisfying the value of the deflection angle θ is re-searched based on z (j ′), and the periodic function w (j) is obtained from the obtained z (j). Approximate. Of course, when the contour data component is searched by the 4-neighbor search, the distance δ = 1 on the complex plane is constant, and thus the periodic function w (j) is used by applying the above formula (4) as it is. it can.

ステップS33では、DFTC433により、周期関数w(j)の実部(x)及び虚部(yi)のそれぞれのフーリエ記述子c(k)(k=0、…n-1)が取得される。具体的には、DFTC433は、下記式(6)により示されるように、周期関数w(j)に対して離散フーリエ変換を行い、フーリエ記述子c(k)を取得する。

Figure 2014048260
In step S33, the Fourier descriptors c (k) (k = 0,..., N-1) of the real part (x) and the imaginary part (yi) of the periodic function w (j) are acquired by the DFTC 433. Specifically, as shown by the following formula (6), the DFTC 433 performs a discrete Fourier transform on the periodic function w (j) to obtain a Fourier descriptor c (k).
Figure 2014048260

ステップS34では、バンドパスフィルター434により、ステップS34で取得されたフーリエ記述子c(k)(P型フーリエ記述子)の特定周波数成分が抽出される。図10(d)は、周期関数w(j)におけるフーリエ記述子c(k)を示す。図10(d)に示す図では、横軸を周波数とし、縦軸を周波数成分(c(k))としている。   In step S34, the specific frequency component of the Fourier descriptor c (k) (P-type Fourier descriptor) acquired in step S34 is extracted by the band pass filter 434. FIG. 10 (d) shows the Fourier descriptor c (k) in the periodic function w (j). In the diagram shown in FIG. 10D, the horizontal axis is the frequency, and the vertical axis is the frequency component (c (k)).

本実施形態では、高周波成分の内、人の視覚特性の感度が高い特定周波数成分を用いて輪郭データーの特徴を抽出している。ここで、人の視覚特性の感度が高い周波数成分として、例えば、(−2〜−12cycle/mm、2〜12cycle/mm)をバンドパスフィルター434により抽出することとした。   In the present embodiment, features of contour data are extracted using a specific frequency component having high sensitivity of human visual characteristics among high frequency components. Here, for example, (−2 to −12 cycle / mm, 2 to 12 cycle / mm) is extracted by the band-pass filter 434 as a frequency component having high sensitivity of human visual characteristics.

図10(d)に示すように、フーリエ記述子c(k)の低周波成分(例えば、−2.0〜2.0cycle/mm)は、輪郭線Cの概形を示し、高周波成分(例えば、−2.5cycle/mm以下、2.5cycle/mm以上)は細部を示している。そのため、バンドパスフィルター434により抽出される周波数成分は、人の知覚特性の感度が高く、且つ、がたつき度合いの影響を受けやすい周波数成分である。   As shown in FIG. 10D, the low frequency component (for example, −2.0 to 2.0 cycle / mm) of the Fourier descriptor c (k) indicates the outline of the contour C, and the high frequency component (for example, , −2.5 cycle / mm or less, 2.5 cycle / mm or more) indicates details. Therefore, the frequency component extracted by the band-pass filter 434 is a frequency component that has high sensitivity to human perception characteristics and is easily affected by the degree of rattling.

ステップS35では、IDFTC435により、ステップS34で抽出された特定周波数成分対して逆離散フーリエ変換が行われる。この逆離散フーリエ変換により、輪郭線Cの実部(x)及び虚部(yi)における特定周波数成分に対応したスペクトル変化が取得される。   In step S35, the IDFTC 435 performs inverse discrete Fourier transform on the specific frequency component extracted in step S34. By this inverse discrete Fourier transform, a spectrum change corresponding to the specific frequency component in the real part (x) and the imaginary part (yi) of the contour C is acquired.

図11は、スペクトル変化を示す波形図である。図11から比較されるように、図11(a)に示す実部(x)と虚部(yi)のスペクトル変化が、図11(b)に比べて大きくなっている。即ち、図11(a)に示さされるスペクトルが図11(b)に示されるスペクトルに比べてがたつき度合いが大きいことが解る。   FIG. 11 is a waveform diagram showing a spectrum change. As compared from FIG. 11, the spectrum change of the real part (x) and the imaginary part (yi) shown in FIG. 11A is larger than that of FIG. 11B. That is, it can be understood that the spectrum shown in FIG. 11A has a greater degree of rattling than the spectrum shown in FIG.

そのため、ステップS36では、上記した各スペクトルの変化を定量的に示すために、定量化部436により、実部(x)と虚部(yi)のそれぞれのスペクトルの標準偏差std(x'(t))、std(y'(t))が取得される。例えば、実部(x)における標準偏差は、下記式(7)を用いて算出される。

Figure 2014048260

ここで、lは、ステップS35で取得されたスペクトルを識別する値(l=1 … n’)、s(l)は、スペクトルの値、av(s)は、スペクトルの平均値、を示す。 Therefore, in step S36, in order to quantitatively show the change of each spectrum described above, the quantification unit 436 uses the standard deviation std (x ′ (t) of each spectrum of the real part (x) and the imaginary part (yi). )), Std (y ′ (t)) is acquired. For example, the standard deviation in the real part (x) is calculated using the following formula (7).
Figure 2014048260

Here, l represents a value (1 = 1... N ′) for identifying the spectrum acquired in step S35, s (l) represents a spectrum value, and av (s) represents an average value of the spectrum.

そして、ステップS37では、定量化部436により、ステップS36で取得された標準偏差(std(x'(t))、std(y'(t)))をもとに、輪郭データーの特徴を示すがたつき量Ragが算出される。このがたつき量Ragは、輪郭データーのがたつき度合いや、凹凸度合いを示す。具体的には、がたつき量Ragは、下記式(8)を用いて算出される。

Figure 2014048260
In step S37, the quantification unit 436 shows the characteristics of the contour data based on the standard deviation (std (x ′ (t)), std (y ′ (t))) acquired in step S36. The rattling amount Rag is calculated. The rattling amount Rag indicates the degree of shading or the degree of unevenness of the contour data. Specifically, the backlash amount Rag is calculated using the following equation (8).
Figure 2014048260

定量化の手法に、スペクトルの標準偏差を用いることで、より簡易にがたつき量を定量化することが可能となる。
By using the standard deviation of the spectrum as the quantification method, it becomes possible to quantify the amount of rattling more easily.

(4)指標値算出方法
以下、図3のステップS5で実行される指標値算出方法を説明する。
図12は、ステップS5の処理を詳細に示すフローチャートである。また、図13は、指標値の算出の際に使用される主観値を示す図である。
(4) Index Value Calculation Method Hereinafter, the index value calculation method executed in step S5 of FIG. 3 will be described.
FIG. 12 is a flowchart showing in detail the process of step S5. FIG. 13 is a diagram showing subjective values used in calculating the index value.

図12のステップS51では、指標値算出部44によりがたつき量Ragが取得される。本実施形態では、評価用画像に含まれる3種類(20pt、10.5pt、4pt)の各文字スケールのそれぞれに対してがたつき量Ragが取得される。   In step S51 of FIG. 12, the rattling amount Rag is acquired by the index value calculation unit 44. In this embodiment, the rattling amount Rag is acquired for each of the three types (20pt, 10.5pt, 4pt) of character scales included in the evaluation image.

ステップS52では、指標値算出部44により濃度数値が取得される。濃度数値は、例えば、輪郭(輪郭データー)の内側の濃度、輪郭の内側の明度L*、更には紙白とのコントラストのいずれかを輪郭データーの成分(画素)の総数で平均化したものである。   In step S <b> 52, the numerical value of density is acquired by the index value calculation unit 44. The density value is obtained by averaging, for example, the density inside the contour (contour data), the lightness L * inside the contour, or the contrast with paper white by the total number of components (pixels) of the contour data. is there.

ステップS53では、指標値算出部44により指標値Ind_qが算出される。例えば、指標値Ind_qは、以下式(9)により求められる。また、上記例では、3種類の文字スケールに対してそれぞれ指標値Ind_qが算出される。

Figure 2014048260
In step S53, the index value calculation unit 44 calculates the index value Ind_q. For example, the index value Ind_q is obtained by the following equation (9). In the above example, the index value Ind_q is calculated for each of the three types of character scales.
Figure 2014048260

上記式(9)で示す指標値Ind_qを算出するための係数A〜Aは、周知の多変量解析を用いて算出される。例えば、複数のプリンターにより評価用画像を印刷させ、後述する主観値を得る。そして、主観値を目的変数とし、がたつき量Rag、濃度数値ODをそれぞれ説明変数とした相関を取得する。そして、この相関をもとに、上記式(9)における係数A〜Aを取得する。本実施形態では、PC30は、各文字サイズに対して、それぞれの係数A〜Aを記録している。また、輪郭データーの特徴に加えて、濃度特性を用いることで、評価用画像の個々の濃度特性に応じて指標値を算出することができる。 The coefficients A 1 to A 3 for calculating the index value Ind_q represented by the above formula (9) are calculated using a well-known multivariate analysis. For example, an evaluation image is printed by a plurality of printers, and a subjective value described later is obtained. Then, the correlation is obtained with the subjective value as the objective variable and the backlash amount Rag and the density value OD as the explanatory variables. Based on this correlation, the coefficients A 1 to A 3 in the above equation (9) are acquired. In the present embodiment, the PC 30 records the respective coefficients A 1 to A 3 for each character size. Further, by using the density characteristic in addition to the feature of the contour data, the index value can be calculated according to the individual density characteristic of the evaluation image.

例えば、主観値は、図13に示すように、任意の12種類のプリンターに対して、主観実験により得られた値(主観値Sbj)として記録されている。図13では、主観値Sbjは、文字サイズ毎に作成され、外部メモリ35に記録されている。また、図13(a)〜(c)では、20pt、10.5pt、4ptの各文字サイズの主観値を示す。この主観値Sbjは、例えば、任意の被験者から1対比較法等を用いた実験により得られた値である。   For example, as shown in FIG. 13, the subjective value is recorded as a value (subjective value Sbj) obtained by a subjective experiment for any 12 types of printers. In FIG. 13, the subjective value Sbj is created for each character size and recorded in the external memory 35. 13A to 13C show subjective values of character sizes of 20 pt, 10.5 pt, and 4 pt. This subjective value Sbj is, for example, a value obtained by an experiment using a one-pair comparison method or the like from an arbitrary subject.

ステップS54では、指標値算出部44により、算出された指標値Ind_qの評価が行われる。例えば、指標値算出部44は、指標値Ind_qが、所定の規格値に収まるか否かで評価を行う。
また、評価結果は、文字サイズ毎に提示するものであってもよいし、1つでも評価が低い文字サイズが存在する場合を低評価としてもよい。更に、文字サイズ毎の指標値Ind_qを平均化し、平均化された指標値により評価を行うものであってもよい。
In step S54, the index value calculation unit 44 evaluates the calculated index value Ind_q. For example, the index value calculation unit 44 performs evaluation based on whether or not the index value Ind_q falls within a predetermined standard value.
In addition, the evaluation result may be presented for each character size, or the evaluation result may be a low evaluation when there is at least one character size with a low evaluation. Furthermore, the index value Ind_q for each character size may be averaged, and evaluation may be performed using the averaged index value.

以上説明したように、本発明によれば、人の視覚特性を考慮して評価用画像の検査を行うことができるため、必要な品質は保持しつつ、検査に要する処理や装置を簡素化することができる。   As described above, according to the present invention, since the evaluation image can be inspected in consideration of human visual characteristics, the processing and apparatus required for the inspection are simplified while maintaining the necessary quality. be able to.

(5)その他の実施形態
検査装置1をプリンター10、スキャナー20、PC30により構成することは一例にすぎない。例えば、プリンター10単体で、本発明の検査装置1の機能を実現するものであってもよい。更に、検査装置1は、LCD(liquid crystal display)に表示される画像を検査するものであってもよよいし、プロジェクターに投影される画像を検査するものであってもよい。この場合、例えば、LCD又はプロジェクターにより評価用画像を表示し、デジタルカメラ等の撮像装置により表示された画像を撮像する。次に、検査装置1が撮像により得られた撮像画像を評価用画像として撮像装置から取得する。そして、検査装置1は、この評価用画像に対して本発明の処理を行なえば良い。
(5) Other Embodiments Configuring the inspection apparatus 1 with the printer 10, the scanner 20, and the PC 30 is merely an example. For example, the function of the inspection apparatus 1 of the present invention may be realized by the printer 10 alone. Furthermore, the inspection apparatus 1 may inspect an image displayed on an LCD (liquid crystal display), or may inspect an image projected on a projector. In this case, for example, an evaluation image is displayed by an LCD or a projector, and an image displayed by an imaging device such as a digital camera is captured. Next, the inspection device 1 acquires a captured image obtained by imaging from the imaging device as an evaluation image. And the inspection apparatus 1 should just perform the process of this invention with respect to this image for evaluation.

また、輪郭データーの特徴をP表現に基づいて取得することは一例にすぎない。他の表現(G表現)や、その他の近似関数をもとに、周波数解析を行うものであってもよい。   In addition, acquiring the characteristics of the contour data based on the P expression is merely an example. Frequency analysis may be performed based on other expressions (G expressions) or other approximate functions.

そして、周波数解析にフーリエ解析を用いることは一例である。例えば、ウェーブレット解析により周波数を解析するものであってもよい。   The use of Fourier analysis for frequency analysis is an example. For example, the frequency may be analyzed by wavelet analysis.

二値化処理において、視覚特性を適用することは一例にすぎない。例えば、通常の2値化処理のみで、輪郭データーを抽出してもよい。更には、輪郭データーの抽出を多値化処理により行うものであってもよい。   Applying visual characteristics in the binarization process is just one example. For example, the contour data may be extracted only by normal binarization processing. Further, the contour data may be extracted by multivalue processing.

なお、本発明は上記実施例に限られるものでないことは言うまでもない。
即ち、上記実施例の中で開示した相互に置換可能な部材および構成等を適宜その組み合わせを変更して適用してもよい。
公知技術であって上記実施例の中で開示した部材および構成等と相互に置換可能な部材および構成等を適宜置換し、またその組み合わせを変更して適用してもよい。
公知技術等に基づいて当業者が上記実施例の中で開示した部材および構成等の代用として想定し得る部材および構成等と適宜置換し、またその組み合わせを変更して適用してもよい。
Needless to say, the present invention is not limited to the above embodiments.
That is, the mutually replaceable members and configurations disclosed in the above embodiments may be applied by appropriately changing the combination.
Members and structures that are known techniques and can be mutually replaced with the members and structures disclosed in the above-described embodiments may be appropriately replaced, and combinations thereof may be changed and applied.
Those skilled in the art may appropriately replace the members and structures that can be assumed as substitutes for the members and structures disclosed in the above-described embodiments based on known techniques and the like, and change the combinations thereof.

1…検査装置、10…プリンター、20…スキャナー、30…パーソナルコンピューター(PC)、31…コントローラー、32、33…IF、34…キーボード、35…外部メモリ、36…ディスプレイ、41…色変換部、42…輪郭抽出部、43…特徴取得部、44…指標値算出部、421…DFTC、422…VTF適用部、423…IDFTC、424…二値化処理部、425…座標抽出部   DESCRIPTION OF SYMBOLS 1 ... Inspection apparatus, 10 ... Printer, 20 ... Scanner, 30 ... Personal computer (PC), 31 ... Controller, 32, 33 ... IF, 34 ... Keyboard, 35 ... External memory, 36 ... Display, 41 ... Color conversion part, 42 ... contour extraction unit, 43 ... feature acquisition unit, 44 ... index value calculation unit, 421 ... DFTC, 422 ... VTF application unit, 423 ... IDFTC, 424 ... binarization processing unit, 425 ... coordinate extraction unit

Claims (7)

評価用画像の品質を評価する検査装置であって、
前記評価用画像を取得する画像取得手段と、
前記取得された評価用画像に含まれる輪郭を示す輪郭データーを抽出する輪郭抽出手段と、
前記抽出された輪郭データーを周波数解析し、人の視覚特性の感度が高い周波数帯域におけるスペクトル値に基づいて、前記輪郭データーの特徴を定量化する定量化手段と、を有する検査装置。
An inspection apparatus for evaluating the quality of an evaluation image,
Image acquisition means for acquiring the evaluation image;
Contour extracting means for extracting contour data indicating a contour included in the acquired evaluation image;
An inspection apparatus comprising: quantification means for performing frequency analysis on the extracted contour data and quantifying characteristics of the contour data based on a spectrum value in a frequency band in which the sensitivity of human visual characteristics is high.
前記定量化手段は、前記輪郭データーを形成する各線分の相対的な位置関係を所定の周期関数で示し、前記周期関数に対して前記周波数解析を行う、請求項1に記載の検査装置。   The inspection apparatus according to claim 1, wherein the quantification unit indicates a relative positional relationship of each line segment forming the contour data by a predetermined periodic function, and performs the frequency analysis on the periodic function. 前記定量化された前記輪郭データーの特徴は、前記周波数成分におけるスペクトル値の偏差に基づいて取得される、請求項1又は請求項2のいずれかに記載の検査装置。   The inspection apparatus according to claim 1, wherein the characteristic of the quantified contour data is acquired based on a deviation of a spectrum value in the frequency component. 前記輪郭抽出手段は、前記評価用画像を多値化して、前記輪郭データーを抽出し、
前記多値化で用いられる閾値は、人の視覚特性を考慮して設定される、請求項1から請求項3のいずれか一項に記載の検査装置。
The contour extracting means multi-values the evaluation image to extract the contour data,
The inspection apparatus according to any one of claims 1 to 3, wherein the threshold value used in the multi-value conversion is set in consideration of human visual characteristics.
前記定量化された前記輪郭データーの特徴に基づいて、前記評価用画像の品質を示す指標値を算出する指標値算出手段を有する、請求項1から請求項4のいずれか一項に記載の検査装置。   The inspection according to any one of claims 1 to 4, further comprising index value calculation means for calculating an index value indicating the quality of the evaluation image based on the quantified characteristic of the contour data. apparatus. 前記指標値算出手段は、前記定量化された前記輪郭データーの特徴と、前記輪郭で囲まれた部分の濃度特性とに基づいて、前記指標値を算出する、請求項5に記載の検査装置。   6. The inspection apparatus according to claim 5, wherein the index value calculation means calculates the index value based on the quantified characteristic of the contour data and a density characteristic of a portion surrounded by the contour. 評価用画像を取得する画像取得工程と、
前記取得された評価用画像に含まれる輪郭を示す輪郭データーを抽出する輪郭抽出工程と、
前記抽出された輪郭データーを周波数解析し、人の視覚特性の感度が高い周波数帯域におけるスペクトル値に基づいて、前記輪郭データーの特徴を定量化する定量化工程と、を有する検査方法。
An image acquisition step of acquiring an evaluation image;
A contour extraction step of extracting contour data indicating a contour included in the acquired evaluation image;
And a quantification step of performing a frequency analysis on the extracted contour data and quantifying the characteristics of the contour data based on a spectrum value in a frequency band in which the sensitivity of human visual characteristics is high.
JP2012193924A 2012-09-04 2012-09-04 Inspection device, and inspection method Pending JP2014048260A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012193924A JP2014048260A (en) 2012-09-04 2012-09-04 Inspection device, and inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012193924A JP2014048260A (en) 2012-09-04 2012-09-04 Inspection device, and inspection method

Publications (1)

Publication Number Publication Date
JP2014048260A true JP2014048260A (en) 2014-03-17

Family

ID=50608061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012193924A Pending JP2014048260A (en) 2012-09-04 2012-09-04 Inspection device, and inspection method

Country Status (1)

Country Link
JP (1) JP2014048260A (en)

Similar Documents

Publication Publication Date Title
US11317851B2 (en) Skin spot evaluation apparatus, skin spot evaluation method and program
US11107210B2 (en) Image data generating apparatus generating image data for inspecting external appearance of product
Hosseini et al. Focus quality assessment of high-throughput whole slide imaging in digital pathology
JP7078175B2 (en) Inspection equipment and method
US9697583B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
EP2884457B1 (en) Image evaluation device and image evaluation program
JP6613214B2 (en) Printed matter inspection apparatus, printed matter inspection method and program
JP2014534699A (en) System and method for digital image signal compression using unique images
JP2008252684A (en) Apparatus and method for evaluating gradation
JP2014048260A (en) Inspection device, and inspection method
US11962949B2 (en) Method of air pollution estimation based on spectral image processing
JP2014174658A (en) Inspection device and inspection method
JP2017194421A (en) Chromatic difference calculation device, chromatic difference calculation method and program
JP2006277172A (en) Image evaluation method, image evaluation support device, image forming device, and image evaluation support program
WO2023157238A1 (en) Inspection device, inspection method, and recording medium
US20240169616A1 (en) Information processing device, information processing method, and non-transitory computer-readable storage medium
RU2582065C1 (en) Method for determining the accessories pages to one act of print
JP2009232418A (en) Color processor, program and image forming apparatus
JP2019169910A (en) Image processing apparatus, image processing method, and program
JP2022067173A (en) Image processing apparatus, image processing method, and program
JPH07220083A (en) Digital image evaluation device
JP2023133002A (en) Gray hair evaluation system and gray hair evaluation method
CN117011687A (en) Full-reference underwater enhanced image quality evaluation method based on paired samples
WO2018223514A1 (en) Printing evaluation method, terminal device and computer-readable storage medium
CN118781645A (en) Face recognition method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150108