JP2011191244A - Evaluation method of optical unit - Google Patents

Evaluation method of optical unit Download PDF

Info

Publication number
JP2011191244A
JP2011191244A JP2010059091A JP2010059091A JP2011191244A JP 2011191244 A JP2011191244 A JP 2011191244A JP 2010059091 A JP2010059091 A JP 2010059091A JP 2010059091 A JP2010059091 A JP 2010059091A JP 2011191244 A JP2011191244 A JP 2011191244A
Authority
JP
Japan
Prior art keywords
pixels
image data
optical unit
image
sfr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010059091A
Other languages
Japanese (ja)
Inventor
Yuya Matsuura
裕也 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP2010059091A priority Critical patent/JP2011191244A/en
Publication of JP2011191244A publication Critical patent/JP2011191244A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an evaluation method of an optical unit capable of acquiring accurately an SFR (spatial frequency response) allowing to obtain high reproducibility from an unsharp image. <P>SOLUTION: In the evaluation method of optical unit, image data of a prescribed number of pixels and pixels adjacent to the prescribed number of pixels are rearranged, in the order of a light quantity received by each pixel, and then, each mean value is sequentially calculated in each of the plurality of image data, and an LSF (line spread function) is determined from each mean value. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、光学ユニットの評価方法に関する。   The present invention relates to an optical unit evaluation method.

従来より、光学ユニット(写真撮影用レンズ)の描写性能を評価する方法として、ISO12233(非特許文献1)に規定されているSFR(Spatial Frequency Response:空間周波数応答)計算法が用いられている。   Conventionally, an SFR (Spatial Frequency Response) calculation method defined in ISO12233 (Non-Patent Document 1) has been used as a method for evaluating the rendering performance of an optical unit (photographing lens).

図8を用いて、ISO12233に規定されているSFR計算法を説明する。デジタルカメラのSFRは、傾斜した黒と白のエッジ部を撮像したデジタルカメラの画像データから求められる。   The SFR calculation method prescribed | regulated to ISO12233 is demonstrated using FIG. The SFR of the digital camera is obtained from the image data of the digital camera that images the inclined black and white edge portions.

図8(a)は、傾斜した黒と白のエッジ部を撮像したデジタルカメラの4行8列の画素を示している。図8(a)の例では、1、2列目の画素は黒の部分、4,5列目の画素は白の部分であり、3列目の画素は白、黒の斜めの境界領域である。また、1行目のL1の画素データは黒丸、2行目のL2の画素データは黒四角、3行目のL3の画素データは灰色の丸、4行目のL4の画素データは灰色の丸で示している。以下、次のような手順で計算する。   FIG. 8A shows the pixels in 4 rows and 8 columns of the digital camera that images the inclined black and white edge portions. In the example of FIG. 8A, the pixels in the first and second columns are black portions, the pixels in the fourth and fifth columns are white portions, and the pixels in the third column are white and black diagonal boundary regions. is there. The pixel data of L1 in the first row is a black circle, the pixel data of L2 in the second row is a black square, the pixel data of L3 in the third row is a gray circle, and the pixel data of L4 in the fourth row is a gray circle. Is shown. Hereinafter, calculation is performed according to the following procedure.

1)各行の画素データを微分する。(図8(b)参照)
2)各行のLSF(Line Spread Function:線像分布関数)の重心を通る線を計算する(図8(c)参照)。
1) Differentiate the pixel data of each row. (See FIG. 8 (b))
2) A line passing through the center of gravity of the LSF (Line Spread Function: line image distribution function) of each row is calculated (see FIG. 8C).

3)データを内挿する(図8(d)参照)。   3) Interpolate the data (see FIG. 8D).

4)ノイズ成分を減らすため、ハミングの窓関数を使ってカーブを作成する。   4) Create a curve using a Hamming window function to reduce noise components.

5)拡張された曲線からフーリエ級数の計算を行う。   5) The Fourier series is calculated from the extended curve.

フーリエ級数展開したデータから、撮影画像のSFR(振幅−周波数特性)を求め、光学ユニットを評価することができる。   The optical unit can be evaluated by obtaining the SFR (amplitude-frequency characteristic) of the captured image from the Fourier series developed data.

非特許文献1に開示されている測定方法では、所定の角度傾斜した黒と白のエッジ部を撮像する必要がある。非特許文献1に開示されている以外の方向におけるSFRを計算するため、抽出した関心領域を回転させた後、非特許文献1の処理を行うことにより、あらゆる角度のエッジ部に対応する方法が提案されている(例えば、特許文献1参照)。   In the measurement method disclosed in Non-Patent Document 1, it is necessary to image black and white edge portions inclined at a predetermined angle. In order to calculate SFRs in directions other than those disclosed in Non-Patent Document 1, after extracting the region of interest extracted, the processing of Non-Patent Document 1 is performed, so that there is a method corresponding to edge portions of all angles. It has been proposed (see, for example, Patent Document 1).

特表2008−500529号公報Special table 2008-500529 gazette

ISO12233,”写真−電子静止画像カメラ−解像度測定”、第1版、2001年9月1日出版ISO 12233, "Photograph-Electronic still image camera-Resolution measurement", 1st edition, published September 1, 2001

しかしながら、非特許文献1、特許文献1に開示されている計算方法では、エッジ部分が鮮明な画像が必要であり、ピントのずれた画像や収差による画像歪みのある画像などでは、演算に誤差が生じ、FFT(高速フーリエ変換)時のノイズ成分になってしまう。   However, in the calculation methods disclosed in Non-Patent Document 1 and Patent Document 1, an image with a clear edge portion is required, and an error in calculation is required for an image that is out of focus or an image that is distorted due to aberration. This is a noise component during FFT (Fast Fourier Transform).

図9は、傾斜した白と黒のエッジ部を撮像したデジタルカメラの画像データの理想状態と像がずれた場合を比較する図である。   FIG. 9 is a diagram for comparing the ideal state of image data of a digital camera that captures inclined white and black edge portions with a case where the image is shifted.

図9(a)、(b)は何れも7行×3列の画素のデータであり、図9(a)は理想状態、図9(b)は像がずれた場合である。   FIGS. 9A and 9B are data of pixels of 7 rows × 3 columns, FIG. 9A shows an ideal state, and FIG. 9B shows a case where the image is shifted.

図9(a)のように白と黒のエッジ部5が2列目の2行目から6行目の5つの画素に規則正しく分割された状態が理想的である。このようにすると、理論上この5つの画素はそれぞれ白と黒の中間の5段階の信号を出力するので、見かけ上1つの画素の水平方向を分割し、5つの画素にしたのと同じ効果が得られる。   As shown in FIG. 9A, it is ideal that the white and black edge portions 5 are regularly divided into five pixels in the second column from the second row to the sixth row. In this way, the five pixels theoretically output five levels of signals between white and black, so the same effect is obtained when the horizontal direction of one pixel is apparently divided into five pixels. can get.

実際には、ピントのずれや収差により、図9(b)のようにエッジ部6が曲線になり、3行2列目と3行3列目の画素、6行1列目と6行2列目の画素のように複数の画素にエッジ部6がまたがっている部分がある。   Actually, the edge portion 6 becomes a curve as shown in FIG. 9B due to focus shift and aberration, and the pixels in the 3rd row and the 2nd column and the 3rd row and the 3rd column, the 6th row and the 1st column, and the 6th row and the 2nd row. There is a portion in which the edge portion 6 extends across a plurality of pixels, such as pixels in the column.

このように2画素にまたがっている部分がある画素データから、非特許文献1、特許文献1に開示されている計算方法によってLSFを求めるとノイズが多く、目的とする評価値が得られなかった。また、繰り返し測定を行った場合の再現性も悪かった。   In this way, when the LSF is obtained from the pixel data having a portion extending over two pixels by the calculation method disclosed in Non-Patent Document 1 and Patent Document 1, there is a lot of noise, and the target evaluation value cannot be obtained. . In addition, the reproducibility when repeated measurements were performed was also poor.

本発明は、上記課題に鑑みてなされたものであって、不鮮明な画像から精度良く再現性の高いSFRを求めることができる光学ユニットの評価方法を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an optical unit evaluation method capable of obtaining an SFR with high accuracy and high reproducibility from a blurred image.

上記の課題を解決するため、本発明は以下のような特徴を有するものである。   In order to solve the above problems, the present invention has the following characteristics.

SFR(空間周波数応答)を算出する方向と直交する方向に対して傾いた白黒のエッジ部を備えたチャートを、前記エッジ部が行又は列方向の所定数の画素を斜めに分割するように撮像し、撮像した画像データをフーリエ変換してSFRを算出する光学ユニットの評価方法において、
測定範囲の画素の画像データを、画素が受光した光量順に並べ替えた後、前記測定範囲の画素数を前記所定数+2で割った数の画像データ毎に順次平均値を算出し、前記平均値からLSF(線像分布関数)を求めることを特徴とする光学ユニットの評価方法。
Imaging a chart having black and white edge portions inclined with respect to a direction orthogonal to a direction for calculating SFR (spatial frequency response) so that the edge portions obliquely divide a predetermined number of pixels in the row or column direction In the evaluation method of the optical unit for calculating the SFR by Fourier transforming the captured image data,
After rearranging the image data of the pixels in the measurement range in the order of the amount of light received by the pixels, the average value is sequentially calculated for each number of image data obtained by dividing the number of pixels in the measurement range by the predetermined number +2. LSF (Line Image Distribution Function) is obtained from the optical unit evaluation method.

本発明の光学ユニットの評価方法は、測定範囲の画素の画像データを、画素が受光した光量順に並べ替えた後、測定範囲の画素数を所定数+2で割った数の画像データ毎に順次平均値を算出し、平均値からLSF(線像分布関数)を求める。   In the optical unit evaluation method of the present invention, the image data of the pixels in the measurement range is rearranged in order of the amount of light received by the pixels, and then the average is sequentially obtained for each number of image data obtained by dividing the number of pixels in the measurement range by a predetermined number +2. A value is calculated, and LSF (line image distribution function) is obtained from the average value.

したがって、不鮮明な画像から精度良く再現性の高いSFRを求めることができる光学ユニットの評価方法を提供することができる。   Therefore, it is possible to provide an optical unit evaluation method capable of obtaining a highly reproducible SFR from an unclear image.

実施形態の光学ユニットの評価方法の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the evaluation method of the optical unit of embodiment. SFRの計算範囲を示す図である。It is a figure which shows the calculation range of SFR. 光学ユニットの評価に用いる評価用チャートである。It is an evaluation chart used for evaluation of an optical unit. 評価用チャートを撮像した画像から切り出した測定範囲の図である。It is a figure of the measurement range cut out from the image which imaged the chart for evaluation. SFRの計算を本発明の手順で行った場合と従来の手順で行った場合のシミュレーションの比較である。It is a comparison of the simulation when the calculation of SFR is performed according to the procedure of the present invention and when it is performed according to the conventional procedure. デフォーカス画像の一例である。It is an example of a defocused image. 実験を行ったビデオカメラのデフォーカス量とMTFの計算結果を示すグラフである。It is a graph which shows the defocus amount and MTF calculation result of the video camera which conducted the experiment. ISO12233に規定されているSFR計算法を説明する図である。It is a figure explaining the SFR calculation method prescribed | regulated to ISO12233. 傾斜した白と黒のエッジ部を撮像したデジタルカメラの画像データの理想状態と像がずれた場合を比較する図である。It is a figure which compares the case where the image has shifted | deviated with the ideal state of the image data of the digital camera which imaged the inclined white and black edge part.

以下、本発明に係る実施の一形態を図面に基づいて説明するが、本発明は該実施の形態に限られない。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. However, the present invention is not limited to the embodiment.

図1は、実施形態の光学ユニットの評価方法の手順を説明するフローチャート、図2は、光学ユニットの評価に用いる評価用チャート、図3は、SFRの計算範囲を示す図である。   FIG. 1 is a flowchart for explaining the procedure of the optical unit evaluation method according to the embodiment, FIG. 2 is an evaluation chart used for evaluation of the optical unit, and FIG. 3 is a diagram showing a calculation range of SFR.

図2の評価用チャートは、縦横同時に測定できるよう、正方形とし上下左右のエッジデータを利用できるようにしている。また、ワークのにらみ位置ずれに対応する場合も、チャートを個別調整しなくて良いように、正方形の複数組み合わせた形にしている。本チャートでは、画像処理による重心演算から測定目標に近い像のエッジを利用する。   The evaluation chart of FIG. 2 is made square so that edge data on the top, bottom, left and right can be used so that measurement can be performed simultaneously in the vertical and horizontal directions. Also, when dealing with a glare position shift of the workpiece, the shape of the square is combined so that the chart need not be individually adjusted. In this chart, the edge of the image close to the measurement target is used from the gravity center calculation by image processing.

図1のフローチャートに沿って、本実施形態の光学ユニットの評価方法の手順を説明する。   The procedure of the optical unit evaluation method of this embodiment will be described with reference to the flowchart of FIG.

S101:画像取り込み
カメラにより図2の評価用チャートを撮像する。カメラはCCDなどを用いたデジタルカメラでも、撮像管を用いたアナログカメラでも良い。アナログカメラの場合は、出力されたビデオ信号をサンプリングしてデジタル値に変換する。
S101: Image capturing The evaluation chart of FIG. 2 is imaged by the camera. The camera may be a digital camera using a CCD or the like, or an analog camera using an imaging tube. In the case of an analog camera, the output video signal is sampled and converted into a digital value.

S102:最適閾値計算、2値化重心演算
S101で取り込まれた画像データを2値化する際に最適な閾値を計算する。
S102: Optimal threshold calculation and binarized centroid calculation An optimal threshold is calculated when the image data captured in S101 is binarized.

S103:測定範囲の切り出し
前ステップで求めた閾値に基づいて2値化した画像データから図3のように測定範囲を切り出す。図3(a)は、水平方向のSFRを算出する時に用いる測定範囲11、12を説明する図、図3(b)は、垂直方向のSFRを算出する時に用いる測定範囲14、15を説明する図である。
S103: Extraction of measurement range The measurement range is cut out from the image data binarized based on the threshold obtained in the previous step as shown in FIG. FIG. 3A illustrates the measurement ranges 11 and 12 used when calculating the SFR in the horizontal direction, and FIG. 3B illustrates the measurement ranges 14 and 15 used when calculating the SFR in the vertical direction. FIG.

測定範囲は例えば次の手順で決定する。   The measurement range is determined by the following procedure, for example.

正方形13の外接する正方形を計算し、それより10画素程度大きい範囲の外接正方形10で画像を切り出す。   The circumscribed square of the square 13 is calculated, and the image is cut out by the circumscribed square 10 in a range about 10 pixels larger than that.

S104:エッジ長さ、平均化個数計算
測定範囲11、12、および測定範囲14、15に、それぞれ評価用チャートの白黒のエッジ部が1つ含まれるように、切り出した画像幅の1/3のエリアを測定幅とし、上下(もしくは左右)の大きさを外接正方形10から計算する。
S104: Edge length, averaged number calculation The measurement ranges 11, 12 and the measurement ranges 14, 15 each include one black-and-white edge portion of the evaluation chart. Using the area as the measurement width, the vertical (or left and right) size is calculated from the circumscribed square 10.

図2の評価用チャートを撮像した画像の測定範囲は図4のようになる。図4(a)はピントが合った画像データから測定範囲を切り出した場合、図4(b)はピントがボケた画像データから測定範囲を切り出した場合である。   The measurement range of an image obtained by imaging the evaluation chart of FIG. 2 is as shown in FIG. FIG. 4A shows a case where the measurement range is cut out from the focused image data, and FIG. 4B shows a case where the measurement range is cut out from the out-of-focus image data.

2値化画像データから評価用チャートの傾いた正方形の個数を計測し、各傾いた正方形の位置と大きさを算出する。得られた位置と大きさの情報から、SFRを計算する測定範囲11、12、および測定範囲14、15を図3のように算出する。   The number of inclined squares in the evaluation chart is measured from the binarized image data, and the position and size of each inclined square are calculated. From the obtained position and size information, the measurement ranges 11 and 12 and the measurement ranges 14 and 15 for calculating the SFR are calculated as shown in FIG.

図3は、評価用チャートを撮像した傾いた正方形13と、S103で求めた切り出し範囲10、測定範囲11、12、測定範囲14、15を示している。   FIG. 3 shows a tilted square 13 obtained by imaging the evaluation chart, and the cutout range 10, the measurement ranges 11, 12, and the measurement ranges 14, 15 obtained in S103.

平均化個数は、次ステップで行う平均化演算の個数である。測定範囲11、12、測定範囲14、15の平均化個数は、下記式(1)を用いて計算する。   The averaged number is the number of averaging operations performed in the next step. The averaged number of the measurement ranges 11 and 12 and the measurement ranges 14 and 15 is calculated using the following formula (1).

(平均化個数)=(エッジ部の長手方向の画素数×測定範囲の数)/(1画素分割個数)・・・・・・・(1)
図3のような正方形チャートを評価用チャートとして使用し、例えば測定範囲11、12がそれぞれ水平方向20画素、垂直方向60画素の場合について平均化個数の計算例を説明する。エッジ部の長手方向は、垂直方向であり、測定範囲は2つなので、エッジ部の長手方向の画素数×測定範囲の数は、60×2である。
(Average number) = (Number of pixels in the longitudinal direction of the edge portion × Number of measurement ranges) / (Number of divided pixels) (1)
An example of calculating the average number will be described using a square chart as shown in FIG. 3 as an evaluation chart, for example, when the measurement ranges 11 and 12 are 20 pixels in the horizontal direction and 60 pixels in the vertical direction, respectively. Since the longitudinal direction of the edge portion is the vertical direction and there are two measurement ranges, the number of pixels in the longitudinal direction of the edge portion × the number of measurement ranges is 60 × 2.

図2のようなチャートを撮像すると、理論上は図9(a)のように画素に対して斜めの白と黒のエッジ部5が5つの画素に規則正しく分割されるので、1画素分割個数は5である。   When the chart as shown in FIG. 2 is imaged, theoretically, the white and black edge portions 5 oblique to the pixel are regularly divided into five pixels as shown in FIG. 5.

したがって、
平均化個数=(60×2)/5=24
となる。
Therefore,
Averaged number = (60 × 2) / 5 = 24
It becomes.

平均化個数は整数値とする。図9の例では、(3×7)/(3×5)=1.4であり、平均化個数は1である。   The averaged number is an integer value. In the example of FIG. 9, (3 × 7) / (3 × 5) = 1.4, and the averaged number is 1.

S105:光量順に並び替え、平均化、LSF作成
本発明の光学ユニットの評価方法では、測定範囲の画像データを、画素が受光した光量順に並べ替えた後、3つの画像データ毎に順次平均値Xを算出し、平均値の差分ΔX=Xi+1−XからLSF(線像分布関数)を求める。
S105: Rearrangement in order of light quantity, averaging, LSF creation In the optical unit evaluation method of the present invention, the image data in the measurement range is rearranged in order of the light quantity received by the pixels, and then the average value X is sequentially obtained for each of the three image data. i is calculated, and the LSF (line image distribution function) is obtained from the difference ΔX = X i + 1 −X i of the average values.

図9(b)のように像がずれている場合を例に説明する。   A case where the image is shifted as shown in FIG. 9B will be described as an example.

図9(b)の例では、測定範囲の画素数は水平方向3画素、垂直方向7画素の21画素である。この21の画素データを画素が受光した光量順に並び替える。なお、受光した光量の多い白を表す画像データ値を1、受光した光量の少ない黒を表す画像データ値を7とする。   In the example of FIG. 9B, the number of pixels in the measurement range is 21 pixels of 3 pixels in the horizontal direction and 7 pixels in the vertical direction. These 21 pixel data are rearranged in the order of the amount of light received by the pixels. Note that an image data value representing white with a large amount of received light is 1 and an image data value representing black with a small amount of received light is 7.

理論上白黒のエッジは画素に対して図9(a)のように5つの画素に跨るように傾いているので、エッジ部分の画素データは白、黒以外の5段階の画像データ値2、3、4、56になるはずである。像がずれていると、図9(a)のようにエッジ部分が2画素に跨がす部分があり、理論値とは異なる画像データ値になる。   Theoretically, the black and white edge is inclined with respect to the pixel so as to straddle the five pixels as shown in FIG. 9A. Therefore, the pixel data of the edge portion has five levels of image data values 2, 3 other than white and black. Should be 4,56. When the image is shifted, there is a portion where the edge portion extends over two pixels as shown in FIG. 9A, and the image data value is different from the theoretical value.

次に、並び替えた画像データを平均化する。図9(b)の例では、白、黒以外の5段階の画像データが得られるよう、3画素毎に平均値を算出する。この例では測定範囲の21画素を、白黒を含めて7段階になるよう7で割ると、平均値を算出する画素数3が得られる。   Next, the rearranged image data is averaged. In the example of FIG. 9B, an average value is calculated for every three pixels so that five levels of image data other than white and black can be obtained. In this example, when 21 pixels in the measurement range are divided by 7 so that there are 7 levels including black and white, the number of pixels 3 for calculating the average value is obtained.

平均化したデータからLSFを作成する。隣り合う平均化したデータの差分を求める。   An LSF is created from the averaged data. Find the difference between adjacent averaged data.

表1は、図9(b)の画像データ値を基に算出した、光量順に並び替えたデータと、平均化したデータと、LSFとを示す表である。   Table 1 is a table showing data rearranged in order of light quantity, averaged data, and LSF calculated based on the image data values in FIG. 9B.

1行目は、光量順に並び替えたデータであり、これを3画素毎に平均化すると2行目のように1、1、1.5、3.9、5.5、6.9、7.0になる。   The first row is data rearranged in the order of light quantity. When this is averaged for every three pixels, 1, 1, 1.5, 3.9, 5.5, 6.9, 7 are obtained as in the second row. .0.

次に、平均化した値の1次元配列Xの差分ΔX=Xi+1−Xを順次算出する。表1の例では、1−1=0、1.5−1=0.5、3.9−1.5=2.4・・・というように算出し、3行目の値が求められる。 Next, the difference ΔX = X i + 1 −X i of the one-dimensional array X i of the averaged values is sequentially calculated. In the example of Table 1, it is calculated as 1-1 = 0, 1.5-1 = 0.5, 3.9-1.5 = 2.4, and the value in the third row is obtained. .

S106:LSF×窓関数、OTF演算、Lagrange補間
LSFに窓関数をかけた後、OTF演算を行い、次に公知のLagrange補間を行う。窓関数には公知のハミング窓、ブラックマン窓を用いることができる。窓関数は必ずしも用いなくても良いが、窓関数を用いると低周波成分のフーリエ演算値を改善することができる。
S106: LSF × window function, OTF calculation, Lagrange interpolation After the window function is applied to the LSF, OTF calculation is performed, and then well-known Lagrange interpolation is performed. As the window function, a known Hamming window or Blackman window can be used. Although the window function is not necessarily used, the use of the window function can improve the Fourier calculation value of the low frequency component.

S107:必要周波数のMTF値を選択
必要周波数のMTF値を選択して表示させる。
S107: Select MTF value of necessary frequency Select and display MTF value of necessary frequency.

フローチャートの説明は以上である。   This is the end of the description of the flowchart.

図5は、SFRの計算を本発明の手順で行った場合と従来の手順で行った場合のシミュレーションの比較である。図5(a)、(b)は、本発明の手順で行った場合であり、図5(c)、(d)は、従来の手順で行った場合である。   FIG. 5 is a comparison of simulations when the SFR calculation is performed according to the procedure of the present invention and according to the conventional procedure. FIGS. 5A and 5B show a case where the procedure is performed according to the present invention, and FIGS. 5C and 5D show a case where the procedure is performed according to the conventional procedure.

図5(a)、(b)は、図3(a)に示す測定範囲12のように、縦方向に斜めになったエッジ部を撮像した横方向画素の画素出力である。図5のシミュレーションは、ピントのボケた画像からSFRの計算を行った場合の効果を確認するためのものであり、図5(a)、(b)の横方向画素の画素出力のデータは、白部分では大きかった出力が、エッジ部で徐々に低下して黒部分では小さくなっている。エッジ部で画素出力が低下する割合は、合焦時のように急峻なものではない。   FIGS. 5A and 5B are pixel outputs of horizontal pixels obtained by imaging an edge portion that is slanted in the vertical direction as in the measurement range 12 shown in FIG. The simulation in FIG. 5 is for confirming the effect when the SFR calculation is performed from a blurred image. The pixel output data of the horizontal pixels in FIGS. The output, which was large in the white part, gradually decreases in the edge part and decreases in the black part. The rate at which the pixel output decreases at the edge portion is not as steep as at the time of focusing.

このような画像データから本発明の手順で求めたLSFは、従来の手順で求めた図5(c)に示すLSFよりも図5(a)のように大きく、ノイズが少ない。また、本発明の手順で算出する方が従来の手順と比較して演算時間が短かった。   The LSF obtained from the image data by the procedure of the present invention is larger as shown in FIG. 5A and less noise than the LSF shown in FIG. 5C obtained by the conventional procedure. In addition, the calculation time is shorter in the calculation according to the procedure of the present invention than in the conventional procedure.

図5(b)、(d)は、シミュレーションにより求めた空間周波数とMTFの関係を示すグラフであり、本発明の手順で求めたMTFは、図5(b)のようにノイズが少なく理論値に近い結果が得られた。一方、従来の手順で求めたMTFは、図5(d)のようにノイズが多かった。   FIGS. 5B and 5D are graphs showing the relationship between the spatial frequency and MTF obtained by simulation. The MTF obtained by the procedure of the present invention has less noise as shown in FIG. A result close to was obtained. On the other hand, the MTF obtained by the conventional procedure was noisy as shown in FIG.

次に、本発明の効果を実験で確認した。実験は、図2の評価用チャートをビデオカメラのデフォーカス量を変えながら撮影した画像を用い、本発明の手順でMTFを求めた。   Next, the effect of the present invention was confirmed by experiments. In the experiment, an MTF was obtained by the procedure of the present invention using an image obtained by changing the defocus amount of the video camera from the evaluation chart of FIG.

図6は、デフォーカス画像の一例であり、図7は、実験を行ったビデオカメラのデフォーカス量とMTFの計算結果を示すグラフである。   FIG. 6 is an example of a defocused image, and FIG. 7 is a graph showing the calculation result of the defocus amount and MTF of the video camera on which the experiment was performed.

図7の縦軸はMTF、横軸はビデオカメラのデフォーカス量であり、図中央の0は合焦位置を示す。また、図中LUは評価用チャートの左上を、LDは左下を、RUは右上を、RDは右下を示す。   The vertical axis in FIG. 7 is the MTF, the horizontal axis is the defocus amount of the video camera, and 0 in the center of the figure indicates the in-focus position. In the figure, LU indicates the upper left of the evaluation chart, LD indicates the lower left, RU indicates the upper right, and RD indicates the lower right.

実験は、LU、LD、RU、RDのそれぞれの条件でデフォーカス量−100μm〜+100μmの範囲で行い、LSFを求めて算出したSFRのデータから、45本/mmの空間周波数のデータを図7に示している。   The experiment was performed in the range of defocus amount of −100 μm to +100 μm under the respective conditions of LU, LD, RU, and RD. From the SFR data calculated by calculating the LSF, the spatial frequency data of 45 lines / mm is shown in FIG. It shows.

このように、本発明の手順によるとデフォーカス量−100μm〜+100μmの範囲でSFRを算出できることが確認できた。また、画面位置の何れでもほぼ同じ値が得られることが確認できた。   Thus, according to the procedure of the present invention, it was confirmed that the SFR can be calculated in the range of the defocus amount −100 μm to +100 μm. It was also confirmed that almost the same value was obtained at any screen position.

以上このように、本発明によれば、不鮮明な画像から精度良く再現性の高いSFRを求めることができる光学ユニットの評価方法を提供することができる。   As described above, according to the present invention, it is possible to provide an optical unit evaluation method capable of obtaining an SFR with high accuracy and high reproducibility from a blurred image.

5 エッジ部
6 エッジ部
10 外接正方形
11 測定範囲
12 測定範囲
13 チャート像
14 測定範囲
13 測定範囲
20 水平方向
60 垂直方向
5 Edge part 6 Edge part 10 circumscribed square 11 Measurement range 12 Measurement range 13 Chart image 14 Measurement range 13 Measurement range 20 Horizontal direction 60 Vertical direction

Claims (1)

SFR(空間周波数応答)を算出する方向と直交する方向に対して傾いた白黒のエッジ部を備えたチャートを、前記エッジ部が行又は列方向の所定数の画素を斜めに分割するように撮像し、撮像した画像データをフーリエ変換してSFRを算出する光学ユニットの評価方法において、
測定範囲の画素の画像データを、画素が受光した光量順に並べ替えた後、前記測定範囲の画素数を前記所定数+2で割った数の画像データ毎に順次平均値を算出し、前記平均値からLSF(線像分布関数)を求めることを特徴とする光学ユニットの評価方法。
Imaging a chart having black and white edge portions inclined with respect to a direction orthogonal to a direction for calculating SFR (spatial frequency response) so that the edge portions obliquely divide a predetermined number of pixels in the row or column direction In the evaluation method of the optical unit for calculating the SFR by Fourier transforming the captured image data,
After rearranging the image data of the pixels in the measurement range in the order of the amount of light received by the pixels, the average value is sequentially calculated for each number of image data obtained by dividing the number of pixels in the measurement range by the predetermined number +2. LSF (Line Image Distribution Function) is obtained from the optical unit evaluation method.
JP2010059091A 2010-03-16 2010-03-16 Evaluation method of optical unit Pending JP2011191244A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010059091A JP2011191244A (en) 2010-03-16 2010-03-16 Evaluation method of optical unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010059091A JP2011191244A (en) 2010-03-16 2010-03-16 Evaluation method of optical unit

Publications (1)

Publication Number Publication Date
JP2011191244A true JP2011191244A (en) 2011-09-29

Family

ID=44796324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010059091A Pending JP2011191244A (en) 2010-03-16 2010-03-16 Evaluation method of optical unit

Country Status (1)

Country Link
JP (1) JP2011191244A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018013344A (en) * 2016-07-19 2018-01-25 日本放送協会 Mtf measuring device and program thereof
JP2019194577A (en) * 2018-04-27 2019-11-07 日本放送協会 Mtf measurement device and program
CN113936059A (en) * 2021-09-02 2022-01-14 广东工业大学 SFR (Small form factor response) measuring method and device based on improved slit inclination angle detection

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018013344A (en) * 2016-07-19 2018-01-25 日本放送協会 Mtf measuring device and program thereof
JP2019194577A (en) * 2018-04-27 2019-11-07 日本放送協会 Mtf measurement device and program
JP7257231B2 (en) 2018-04-27 2023-04-13 日本放送協会 MTF measuring device and its program
CN113936059A (en) * 2021-09-02 2022-01-14 广东工业大学 SFR (Small form factor response) measuring method and device based on improved slit inclination angle detection
CN113936059B (en) * 2021-09-02 2024-06-07 广东工业大学 SFR (small form factor pluggable) measuring method and device based on improved detection slit inclination angle

Similar Documents

Publication Publication Date Title
EP2510680B1 (en) Auto-focus image system
JP5840008B2 (en) Image processing apparatus, image processing method, and program
KR20070057998A (en) Imaging arrangements and methods therefor
US8630504B2 (en) Auto-focus image system
JP5369564B2 (en) Shape measuring device
US9689668B2 (en) Image processing apparatus and image processing method
JP4538421B2 (en) Charged particle beam equipment
JP6353233B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2011191244A (en) Evaluation method of optical unit
JP6529360B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
US10304172B2 (en) Optical center detection in plenoptic imaging systems
JP2009047734A (en) Imaging apparatus and image processing program
KR100843433B1 (en) Method for measuring amount of blurring of micro camera module
JP6105960B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP2014504375A5 (en)
AU2011340207A1 (en) Auto-focus image system
KR101334527B1 (en) Auto focus apparatus and method for auto focusing
JP2009047735A (en) Imaging apparatus and image processing program
JP6238673B2 (en) Image processing apparatus, imaging apparatus, imaging system, image processing method, image processing program, and storage medium
AU2011340208A1 (en) Auto-focus image system
KR100843432B1 (en) Method for calculating chromatic aberration correction coefficient of micro camera module
JP2017219737A (en) Imaging device, control method of the same and program thereof, and recording medium
JP6604737B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP2017118293A (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP2017092800A (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130415