JP2011047808A - Method and apparatus for measuring image - Google Patents

Method and apparatus for measuring image Download PDF

Info

Publication number
JP2011047808A
JP2011047808A JP2009196763A JP2009196763A JP2011047808A JP 2011047808 A JP2011047808 A JP 2011047808A JP 2009196763 A JP2009196763 A JP 2009196763A JP 2009196763 A JP2009196763 A JP 2009196763A JP 2011047808 A JP2011047808 A JP 2011047808A
Authority
JP
Japan
Prior art keywords
image
moire
display panel
flat display
chart
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009196763A
Other languages
Japanese (ja)
Inventor
Kentaro Oku
健太郎 奥
Yoshiteru Tomizuka
佳輝 富塚
Akira Tobe
明良 戸辺
Takashi Kuwabara
隆史 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Display Inc
Original Assignee
Hitachi Displays Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Displays Ltd filed Critical Hitachi Displays Ltd
Priority to JP2009196763A priority Critical patent/JP2011047808A/en
Publication of JP2011047808A publication Critical patent/JP2011047808A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing Of Optical Devices Or Fibers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve an apparatus for subjectively evaluating moire generated on a flat display panel. <P>SOLUTION: On a screen of the display panel 6, there are formed many display elements. On an image sensor built in a digital camera 1, there are formed many imaging pixels. The imaging pixels of the image sensor are smaller than the display pixels of the display panel 6. A plurality of points of the display pixels of the display panel are imaged by the imaging pixels of the image sensor. With respect to all display pixels of the display panel 6, a brightness evaluation is performed by a personal computer 5 to synthesize moire patterns. Thus, only the moire of the display image can be evaluated without being affected by moire between the display panel and the image sensor. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は画像測定方法に係り、特に、モアレを客観的に評価することが出来る画像測定方法および画像測定装置に関する。   The present invention relates to an image measurement method, and more particularly to an image measurement method and an image measurement apparatus that can objectively evaluate moire.

メガネなしの3Dディスプレイではモアレが発生するのでそれを抑制するため対策が必要である。そのため、メガネなしの3Dディスプレイの開発には、モアレのコントラスだけでなく、モアレの全体的な形状、細かなテキスチャーの計測が重要である。また、3Dディスプレイの実用化には、モアレと解像度との妥協設計を行なうことが多く、モアレだけでなく解像度も同時に計測する方法の開発が望まれていた。   In 3D displays without glasses, moire occurs, so measures are needed to suppress it. Therefore, in developing 3D displays without glasses, it is important to measure not only the moire contrast but also the overall shape of moire and fine texture. For practical use of 3D displays, there is often a compromise design between moiré and resolution, and the development of a method for simultaneously measuring not only moiré but also resolution is desired.

さらに、通常の液晶表示装置(Liquid Crystal Displays 以後LCD)においてもバックライトのプリズムアレイと液晶セルの周期構造との干渉によって発生するモアレを抑制することが必要で、そのためモアレ一般について計測する手法の確立が重要であった。しかし、モアレの縞の方向、コントラスト、ピッチ、全体的な形状、細かなテキスチャーまで含めて計測して定量化する適切な手段はなかった。   Furthermore, it is necessary to suppress moiré caused by interference between the prism array of the backlight and the periodic structure of the liquid crystal cell even in a normal liquid crystal display (hereinafter referred to as “LCD”). Establishment was important. However, there was no appropriate means to measure and quantify the direction of moire stripes, contrast, pitch, overall shape, and even fine textures.

2層式LCDによる3Dディスプレイでは、背面、前面に2枚の液晶パネルをある距離だけ隔てて2重に配置し、前面に液晶パネルと背面の液晶パネルとの画像の明るさの比を変えることによって、前面と背面の液晶パネルの間に立体画像が存在するような錯視を与えることができ、3次元の立体画像が表示できる。   In a 3D display using a two-layer LCD, two liquid crystal panels are placed on the back and front and separated by a certain distance to change the image brightness ratio between the front and back liquid crystal panels. Thus, an illusion that a stereoscopic image exists between the front and back liquid crystal panels can be given, and a three-dimensional stereoscopic image can be displayed.

この装置では、液晶パネルを2枚重ねており、視差の違いによって2枚のパネルの網膜に写る倍率が少しだけ異なるため、網膜に結像された2枚のパネル像の周期構造の干渉によってモアレが発生する。それを低減するため、クロスレンチキュラーレンズ、ハエの目レンズアレイ、ないしは拡散層等を用いている。これによってモアレが低減するものの解像度は劣化する。2層式のディスプレイに対するモアレ対策については、例えば「非特許文献1」あるいは「非特許文献2」に述べられている。また、2層式の表示装置において、モアレを対策する構成を記載したものとして「特許文献1」が挙げられる。   In this apparatus, two liquid crystal panels are stacked, and the magnification that appears on the retinas of the two panels is slightly different due to the difference in parallax. Therefore, moire is caused by the interference of the periodic structure of the two panel images formed on the retina. Will occur. In order to reduce this, a cross lenticular lens, a fly-eye lens array, or a diffusion layer is used. As a result, although the moire is reduced, the resolution is deteriorated. For example, “Non-Patent Document 1” or “Non-Patent Document 2” describes countermeasures against moire for a two-layer display. In addition, “Patent Document 1” is cited as a configuration in which a moiré countermeasure is described in a two-layer display device.

また、単層式でレンチキュラーレンズを用いたメガネなし(Autostereoscopic)の3Dディスプレイの開発も広く進められている。この3Dディスプレイでは、液晶パネル、PDP(プラズマディスプレイパネル)、ないしは有機ELパネルにレンチキュラーレンズを張り付けて、メガネなしで3次元画像を視認することができる。最近では、このレンチキュラーレンズをパネルの画素に対して斜めに張り付ける多眼式3Dディスプレイも発表されるようになっている。   In addition, the development of an autostereoscopic 3D display using a single-layer type lenticular lens has been widely promoted. In this 3D display, a lenticular lens can be attached to a liquid crystal panel, a PDP (plasma display panel), or an organic EL panel, and a three-dimensional image can be viewed without glasses. Recently, a multi-view 3D display in which this lenticular lens is obliquely attached to the panel pixels has been announced.

以上のように2層式であれ、単層式であれ、メガネなしの3Dディスプレイにおいてはモアレの対策が必要な場合が多く、それには光拡散層を付加する等のFPDの解像度を犠牲にした対策に頼ることが多い。したがって、メガネなしの3Dディスプレイの設計開発にはモアレと解像度の評価を同時に行なう必要がある。また、異なる方式の3Dディスプレイの優劣を比較するには、モアレと解像度を同時に計測して定量化することが重要である。   As described above, whether it is a two-layer type or a single-layer type, a 3D display without glasses often requires moiré countermeasures, which sacrifices the resolution of the FPD, such as the addition of a light diffusion layer. We often rely on countermeasures. Therefore, the design and development of a 3D display without glasses requires simultaneous evaluation of moire and resolution. In addition, in order to compare the superiority and inferiority of different types of 3D displays, it is important to simultaneously measure and quantify moiré and resolution.

従来、モアレ、または解像度の計測はスポット輝度測定装置を平行移動させて一次元輝度分布を計測し、その分布からモアレのコントラスト、または振幅変調度から解像度を求めることがなされている。ただし、測定装置も大掛かりで高価なものであるにも拘らず、このスポット輝度計測によるモアレ計測法では画像のノイズに埋もれている微弱なモアレの計測は困難である。このため、強いモアレのコントラストは計測できるが、人間の目で視認できるモアレでも弱いものは評価できないという問題があった。また、この方法ではモアレの全体的な形状、細かなテキスチャーを表現することはできないという問題もあった。   Conventionally, in measuring moiré or resolution, a spot luminance measuring device is translated to measure a one-dimensional luminance distribution, and the resolution is obtained from the moire contrast or amplitude modulation degree from the distribution. However, although the measuring apparatus is large and expensive, it is difficult to measure the weak moire buried in the noise of the image by the moire measurement method based on the spot luminance measurement. For this reason, although the contrast of a strong moire can be measured, there is a problem that a weak moire that can be visually recognized by human eyes cannot be evaluated. In addition, this method has a problem that the overall shape of moire and a fine texture cannot be expressed.

なお、2層式の3Dディスプレイではスポット輝度測定装置を平行移動での計測では無限遠点から2層式の3Dディスプレイを観察することになり、有限距離から見た際の人の視認するモアレは計測できない。光学的に表示画像を結像させ、結像画像からスポット輝度測定装置を平行移動させて計測は可能であるが、さらに大掛かりで高価な装置となる。しかも、この場合にもモアレの全体的な形状、細かなテキスチャーを表現することはできないし、コントラストのかなり強いモアレしか評価できないのも自明であり、新しいモアレ計測法の確立が望まれていた。   In the case of a two-layer 3D display, a spot luminance measurement device is used to measure a two-layer 3D display from an infinite point when measuring in parallel movement. Cannot measure. The display image can be optically imaged, and the spot luminance measuring device can be translated from the imaged image for measurement. However, this is a larger and expensive device. Moreover, in this case as well, it is obvious that the overall shape and fine texture of the moire cannot be expressed, and it is obvious that only a moire with a very strong contrast can be evaluated, and establishment of a new moire measurement method has been desired.

さらには、フラットパネルディスプレイ(以後FPD)における種種の原因によって発生するモアレを計測できる汎用性の高い手法の開発が望まれていた。特に、液晶表示装置(以後LCD)のバックライトと液晶セル構造との干渉によって発生するモアレをその縞の方向、コントラスト、ピッチ、モアレの全体的な形状、細かなテキスチャーまで含めて計測して定量化する適切な手段はなく、これらをも計測できる新しいモアレ計測法の実現が望まれていた。   Furthermore, it has been desired to develop a versatile method capable of measuring moire generated due to various causes in a flat panel display (hereinafter referred to as FPD). In particular, moiré caused by interference between the backlight of a liquid crystal display (LCD) and the liquid crystal cell structure is measured and quantified, including the direction of the stripes, contrast, pitch, overall shape of the moire, and fine texture. There is no appropriate means to achieve this, and it has been desired to realize a new moire measurement method capable of measuring these.

ところで、デジタルカメラ(以後デジカメ)でLCD、プラズマディスプレイパネル(以後PDP)、有機EL表示装置等のFPD画像を撮像してモアレを計測することも考えられるが、イメージセンサの画素構造とFPD画素構造との干渉があり、撮像された画像には不要なモアレが現れるという問題がある。いくらズームレンズの倍率を変化させたり、撮像距離を変えたりしても、イメージセンサの画素構造とFPD画素構造との干渉が残ってしまい、大きなピッチでコントラストの強いモアレの撮像ぐらいにしか使用できなかった。   By the way, it is conceivable to measure the moiré by taking FPD images of LCD, plasma display panel (hereinafter PDP), organic EL display devices, etc. with a digital camera (hereinafter digital camera), but the image sensor pixel structure and FPD pixel structure There is a problem that unnecessary moire appears in the captured image. No matter how much the zoom lens magnification is changed or the imaging distance is changed, the interference between the pixel structure of the image sensor and the FPD pixel structure remains, and it can only be used for imaging high-contrast moire with a large pitch. There wasn't.

特許第3,335,998号Patent 3,335,998

K.Oku, et al., “Analysis and Reduction of Moire in Two-Layered 3D Display”, SID2007 Digest, pp.437-440, 2007.K.Oku, et al., “Analysis and Reduction of Moire in Two-Layered 3D Display”, SID2007 Digest, pp.437-440, 2007. K.Oku, et al., “Ergo 3D Display”, ED electronic display 2008 conference, Feb.27-28 2008, Proceedings & Conference materials.K.Oku, et al., “Ergo 3D Display”, ED electronic display 2008 conference, Feb.27-28 2008, Proceedings & Conference materials. 宮川洋 監修 “テレビジョン画像の評価技術” 社団法人テレビジョン学会編、91−93頁.Supervised by Hiroshi Miyagawa “Evaluation Technology for Television Images”, The Institute of Television Engineers, 91-93.

以上説明したように、微弱なモアレを正確に定量評価する手法がなかったため、モアレの評価は人間の目に頼るしかなく、被験者のサンプル数を増やして、評価尺度法や系列範疇法等の統計的な扱いによってしかモアレの定量化はできなかった。なお、評価尺度法や系列範疇法は「非特許文献3」に記載があり、被験者を多くして、客観性を担保する必要があり、厄介な方法を実施するのは困難であった。   As explained above, since there was no method for accurately quantitatively assessing weak moiré, moiré evaluation has to rely on the human eye, and the number of subjects increased, and statistics such as evaluation scale method and series category method increased. Moiré could only be quantified by practical treatment. Note that the evaluation scale method and the series category method are described in “Non-patent Document 3”, and it is necessary to increase the number of subjects to ensure objectivity, and it is difficult to implement a troublesome method.

そのため方式の異なるメガネなしの3Dディスプレイのモアレ・解像度の比較評価が為されたという報告は未だにない。また、従来様々な方式のメガネなしの3Dディスプレイが提案されているが、それらのモアレと解像度特性を同じ土俵で統一的に比較することができなく、このため3Dディスプレイの統一規格ができず、3Dディスプレイの開発・普及が妨げられている。モアレの計測は厄介なものであり、微弱なモアレの評価法の確立が3Dディスプレイの開発・普及には重要であり、その評価法の開発が必要である。   For this reason, there has been no report that the moire and resolution of 3D displays without glasses that have different methods have been evaluated. In addition, various types of 3D displays without glasses have been proposed in the past, but their moiré and resolution characteristics cannot be compared uniformly on the same ground, and therefore, a unified standard for 3D displays cannot be established. Development and popularization of 3D displays has been hindered. Measurement of moiré is troublesome, and establishment of an evaluation method for weak moiré is important for the development and popularization of 3D displays, and development of the evaluation method is necessary.

以上のように、3Dディスプレイの開発等には、モアレのコントラストだけでなく、モアレの全体的な形状、細かなテキスチャーを表現する新しい計測手段の開発が望まれていた。また、モアレと解像度との妥協設計を行なうことが多く、モアレだけでなく解像度も同時に計測する方法の開発が望まれていた。さらには、バックライトのプリズムアレイとLCDの画素の周期構造によって発生するモアレの定量評価と対策にも、使い勝手の良い簡易なモアレの測定装置の実用化が望まれていた。   As described above, for the development of a 3D display and the like, development of a new measuring means for expressing not only the contrast of moire but also the overall shape and fine texture of moire has been desired. Further, there are many compromise designs between moire and resolution, and it has been desired to develop a method for measuring not only moire but also resolution at the same time. Furthermore, it is desired to put to practical use a simple and easy-to-use moire measuring device for quantitative evaluation and countermeasures for moire generated by the prism structure of the backlight and the periodic structure of the LCD pixels.

本発明の課題は、以上の様々な問題を同時に解決するために、FPD画素構造とイメージセンサ画素構造とのモアレの発生を抑えたFPD表示画像の撮像方法を実現することである。また、このモアレの発生を抑えたFPD表示画像の撮像方法を利用することによって、デジカメの画像データを用いたモアレと解像度の同時計測法を実現することである。これによって、モアレを、人間の感覚のみにたよらず、客観的に評価する評価方法を実現することである。   An object of the present invention is to realize an imaging method of an FPD display image in which the occurrence of moire between the FPD pixel structure and the image sensor pixel structure is suppressed in order to solve the above various problems simultaneously. In addition, by using an FPD display image capturing method that suppresses the occurrence of moire, a simultaneous moire and resolution measurement method using digital camera image data is realized. This is to realize an evaluation method that objectively evaluates moire without depending only on human senses.

以上のような課題は、イメージセンサのx、y画素番号に対して、各FPD画素の位置を正確に求めて、各FPD画素の内部の輝度の平均値を求めて、FPD画素構造とイメージセンサ画素構造とのモアレの発生を抑えた画像を得ることで実現できる。また、本発明の他の側面では、本発明の実現に使用する新規に開発したテストチャート群もこの発明の一部を構成する。   The above problems are to obtain the position of each FPD pixel accurately with respect to the x and y pixel numbers of the image sensor, to obtain the average value of the internal brightness of each FPD pixel, and to determine the FPD pixel structure and the image sensor. This can be realized by obtaining an image in which the occurrence of moire with the pixel structure is suppressed. In another aspect of the present invention, a newly developed test chart group used to realize the present invention also constitutes a part of the present invention.

FPDのモアレ、解像度を同時にデジカメのショットで測定する測定装置を実現することが出来る。また、FPDを3Dディスプレイに適用する際の設計・開発の効率を向上させる安価な測定装置を提供でき、メガネなし3Dディスプレイの統一規格を可能とする。   It is possible to realize a measuring device that measures the FPD moire and resolution simultaneously with a digital camera shot. In addition, it is possible to provide an inexpensive measurement device that improves the efficiency of design and development when FPD is applied to a 3D display, and enables a unified standard for 3D displays without glasses.

すなわち、従来のモアレ、または解像度の計測はスポット輝度測定装置を平行移動させて一次元輝度分布を計測し、その分布からモアレのコントラスト、または振幅変調度から解像度を求めることがなされていた。ただし、この方法ではモアレの全体的な形状、細かなテキスチャーを表現することはできないという問題があり、装置も高価なものとなる。また、スポット輝度計測ではノイズが多く、コントラストの弱いモアレ信号はノイズレベルに埋没して、計測が困難という問題もあった。   That is, in the conventional moire or resolution measurement, a spot luminance measuring apparatus is moved in parallel to measure a one-dimensional luminance distribution, and the resolution is obtained from the moire contrast or the amplitude modulation degree from the distribution. However, this method has a problem that the overall shape and fine texture of the moire cannot be expressed, and the apparatus is expensive. Further, spot luminance measurement has a problem that there is a lot of noise, and a moire signal with low contrast is buried in the noise level, making measurement difficult.

本発明を用いれば、デジカメ、デジカメ固定用の三脚、今回開発した画像処理プログラムを内蔵したPCさえあれば、デジカメのショットでモアレのコントラスト、または振幅変調度(解像度)を求めることができる。また、2次元分布の画像データをある方向に積分し、線広がり関数(Line Spread Function)を用いるためモアレ信号がノイズレベルに埋もれることもなく、弱いレベルのモアレでも計測できるようになった。   By using the present invention, a digital camera shot, a tripod for fixing the digital camera, and a PC incorporating the image processing program developed this time can obtain the moire contrast or amplitude modulation degree (resolution) with a digital camera shot. Further, since the image data of the two-dimensional distribution is integrated in a certain direction and a line spread function is used, the moire signal is not buried in the noise level, and measurement can be performed even with a weak moire.

従って、本発明を利用すれば、安価で使い勝手の良いモアレと解像度の同時計測装置を実用化できる。また、この装置の実用化によって、様々な方式のメガネなしの3Dディスプレイのモアレと解像度特性を同じ土俵で統一的に比較することができ、3Dディスプレイの開発・普及の促進にも寄与できる。   Therefore, by using the present invention, an inexpensive and easy-to-use moiré and resolution simultaneous measurement device can be put into practical use. In addition, the practical use of this device makes it possible to uniformly compare the moiré and resolution characteristics of 3D displays without glasses of various methods in the same manner, and contribute to the promotion of the development and popularization of 3D displays.

本発明のモアレ評価装置の模式図である。It is a schematic diagram of the moire evaluation apparatus of this invention. 本発明におけるモアレと解像度計測のフローチャートである。It is a flowchart of the moire and resolution measurement in this invention. 本発明におけるストライプ&グレイスケールチャートである。It is a stripe & gray scale chart in the present invention. クロスハッチチャートである。It is a cross hatch chart. 白チャートである。It is a white chart. 黒チャートである。It is a black chart. x方向の線広がり関数(LSF)の例である。It is an example of a line spread function (LSF) in the x direction. x方向輝度分布の累積増減数である。This is the cumulative increase / decrease number of the x-direction luminance distribution. x方向輝度分布の累積増減量である。This is the cumulative increase / decrease amount of the luminance distribution in the x direction. 重心で求めたクロス点を折れ線で結んだ図である。It is the figure which connected the cross point calculated | required with the gravity center with the broken line. クロス点の計測誤差を推定する標準偏差である。This is the standard deviation that estimates the measurement error at the cross point. FPDの画素位置の導出に用いるクロスハッチの格子点である。It is a cross hatch lattice point used for deriving the pixel position of the FPD. FPDセル内での輝度の積分を和で近似する内点である。This is an inner point that approximates the integral of luminance in the FPD cell with a sum. 画像処理した後のクロスハッチチャートである。It is a cross hatch chart after image processing. 画像処理後の白チャートである。It is a white chart after image processing. 画像処理したストライプ&グレイスケールチャートである。It is the stripe & gray scale chart which processed the image. グレイスケールレベルとスケール内平均輝度の関係である。This is the relationship between the gray scale level and the average luminance within the scale. 滑らかな曲線で結んだグレイスケールレベルとスケール内平均輝度の関係である。This is the relationship between the gray scale level connected by a smooth curve and the average luminance within the scale. γ補正を行った画像処理したストライプ&グレイスケールチャートである。6 is an image-processed stripe and gray scale chart subjected to γ correction. 白チャート撮像のγ補正した処理画像である。It is the processed image which carried out (gamma) correction of white chart imaging. 垂直ストライプパターンでの水平方向の輝度の変化である。This is a change in luminance in the horizontal direction in the vertical stripe pattern. 水平ストライプパターンでの垂直方向の輝度の変化である。This is a change in luminance in the vertical direction in the horizontal stripe pattern. 振幅変調度の計算結果である。It is a calculation result of an amplitude modulation degree. 一方向モアレを含んだ検証用白チャートである。It is a verification white chart including a unidirectional moire. 一方向モアレを含んだ検証用白チャートを撮像した処理画像である。It is the processing image which imaged the white chart for verification containing the unidirectional moire. モアレ評価関数の定義を説明する図である。It is a figure explaining the definition of a moire evaluation function. 角度に対する標準偏差の計算結果である。It is the calculation result of the standard deviation with respect to an angle. 角度と線広がり関数の関係を示す図である。It is a figure which shows the relationship between an angle and a line spread function. 角度30度のときの線広がり関数の座標依存性を示す図である。It is a figure which shows the coordinate dependence of the line spread function in the case of an angle of 30 degree | times. 画面の各場所におけるモアレの向き、コントラスト、ピッチの計測結果である。This is a measurement result of the direction of moire, contrast, and pitch at each location on the screen. モアレパターンの抽出結果である。It is an extraction result of a moiré pattern. 2方向モアレを含んだ検証用チャートである。It is a chart for verification including two-way moire. 2方向モアレを含んだ検証用チャートを撮像した処理画像である。It is the process image which imaged the chart for verification containing 2 direction moire. 2方向モアレにおける角度に対する標準偏差の計算結果である。It is a calculation result of the standard deviation with respect to the angle in a two-way moire. 2方向モアレにおける角度と線広がり関数の関係を示す図である。It is a figure which shows the relationship between the angle in 2 direction moire, and a line spread function. 2方向モアレにおいて標準偏差が最大値をとるときの角度における線広がり関数の座標依存性を示す図である。It is a figure which shows the coordinate dependence of the line spread function in an angle when a standard deviation takes the maximum value in 2 direction moire. 2方向モアレにおいて標準偏差が第2の大きさをとるときの角度における線広がり関数の座標依存性を示す図である。It is a figure which shows the coordinate dependence of the line spread function in an angle when a standard deviation takes a 2nd magnitude | size in 2 direction moire. 画面の各場所における第1主方向でのモアレの向き、コントラスト、ピッチの計測結果である。It is a measurement result of the direction, contrast, and pitch of moire in the first main direction at each location on the screen. 画面の各場所における第2主方向でのモアレの向き、コントラスト、ピッチの計測結果である。It is a measurement result of the direction, contrast, and pitch of moire in the second main direction at each location on the screen. モアレパターンの抽出結果である。It is an extraction result of a moiré pattern.

以下、実施例によって本発明の内容を詳細に説明する。   Hereinafter, the contents of the present invention will be described in detail by way of examples.

以下には、図3から図6に示す4つのテストチャートの撮像によるFPD画素構造とイメージセンサ画素構造とのモアレの発生を抑えたFPD表示画像の撮像を行い、3D表示等のわずかなモアレのある画像において、モアレコントラスト、モアレパターン、解像度(振幅変調度)を求め、それらを表示する手順の概要について説明する。   In the following, FPD display images are captured while suppressing the occurrence of moiré between the FPD pixel structure and the image sensor pixel structure due to the imaging of the four test charts shown in FIGS. 3 to 6, and slight moiré such as 3D display is performed. An outline of a procedure for obtaining and displaying the moiré contrast, the moiré pattern, and the resolution (amplitude modulation degree) in a certain image will be described.

図1には本発明の解像度、モアレ評価装置の実施例を示す。デジカメ1、三脚2、リモートシャッター3、画像データ転送用ケーブル4、画像処理、評価、処理画像表示、評価結果表示のためのPC5から本発明の装置は構成される。また、図1において、6はモアレを評価する対象となるフラットディスプレイパネルである。図2には図1の装置を用いた解像度とモアレ計測のフローチャートを示す。また、図3から図6には、解像度、モアレ計測に用いるテストチャートの例を示す。   FIG. 1 shows an embodiment of a resolution and moire evaluation apparatus according to the present invention. The apparatus of the present invention is composed of a digital camera 1, a tripod 2, a remote shutter 3, an image data transfer cable 4, a PC 5 for image processing, evaluation, processing image display, and evaluation result display. In FIG. 1, reference numeral 6 denotes a flat display panel which is a target for evaluating moire. FIG. 2 shows a flowchart of resolution and moire measurement using the apparatus of FIG. FIGS. 3 to 6 show examples of test charts used for resolution and moire measurement.

このチャートは解像度、モアレ計測用に発明者が設計・開発したものである。評価する領域の大きさに応じて、テストチャート出力用のプログラムを用いてテストチャートを出力できるようにした。なお、テストチャート出力のためのデータはモアレ・解像度評価システムでも入力するようにし、計測に用いたテストチャートに応じた画像処理を行なっている。モアレ・解像度評価システムでもテストチャートを出力でき、どのような画像フォーマットでも対応できるようにしている。ただし、図3から図6の画像をFPDの画面の一部に表示して、その部分でのモアレ、解像度を評価することにすれば、画像フォーマットが異なる場合でも同じテストチャートで対処することができる。   This chart is designed and developed by the inventor for measuring resolution and moire. A test chart can be output using a test chart output program according to the size of the area to be evaluated. Note that data for test chart output is also input in a moire / resolution evaluation system, and image processing is performed according to the test chart used for measurement. The moire / resolution evaluation system can output test charts, and can handle any image format. However, if the images of FIGS. 3 to 6 are displayed on a part of the FPD screen and the moiré and resolution at that part are evaluated, the same test chart can be used even if the image formats are different. it can.

以下にフローチャートの(I)テストチャートの撮像(PC外部処理)の(1)(2)の手順を示す。撮像の際には、画像記録モードはJPEG またはRAW(好ましくはRAW)にして、手動のモード、フラッシュはオフにし、シャッターはカメラと遠隔操作のものを利用する。 The procedures (1) and (2) of (I) test chart imaging (PC external processing) in the flowchart are shown below. When taking an image, the image recording mode is set to JPEG or RAW (preferably RAW), the manual mode is set, the flash is turned off, and the shutter and the camera are used remotely.

(A)ストライプ&グレイスケールチャートをFPD画面の評価したい場所に表示し、三脚に固定したカメラをFPDの画面から約40〜50cm程度の距離に置き、デジカメのモニタに写った画像内に周辺の四角い枠がちょうど入るように、ズーム比とデジカメの位置を設定する。フォーカス調整は随時行なう。おおよそのピントを合わせ、その位置の近傍を自動的にスキャンして、正確なフォーカス位置を検出する機能を利用して行なう。なお、デジカメのズーム比は不連続な値しか取ることができない場合が多いので画像内に周辺の四角い枠がちょうど入るようにするには、三脚の位置を前後に微調整させる必要がある。   (A) Display the stripe & gray scale chart on the FPD screen where you want to evaluate, place the camera fixed on the tripod at a distance of about 40-50cm from the FPD screen, and display the surrounding area in the image on the digital camera monitor. Set the zoom ratio and position of the digital camera so that the square frame just fits. Adjust the focus as needed. This is done by using a function that automatically adjusts the approximate focus, automatically scans the vicinity of the position, and detects an accurate focus position. In many cases, the zoom ratio of the digital camera can only take a discontinuous value, so that the position of the tripod needs to be finely adjusted back and forth in order to make the surrounding square frame just fit in the image.

(B)この状態から、FPDの表示を白色チャートに変えて、オートフォーカスはオフにして、F値は光学レンズの解像度が高ところに設定して白色表示時に輝度レベルがデジカメのインジケーターが中央になるようにシャッタースピードを設定する。   (B) From this state, change the FPD display to a white chart, turn off the autofocus, set the F value to a high resolution of the optical lens, and display the indicator with the digital camera brightness level at the center when displaying white Set the shutter speed so that

(C)また、ストライプ&グレイスケールチャートにFPDの表示を変えて、フォーカス調整を再度行なう。自動的にスキャンして、正確なフォーカス位置を検出する機能を利用して行なう。   (C) Also, change the FPD display to the stripe & gray scale chart and adjust the focus again. This is done using a function that automatically scans and detects the exact focus position.

(D)以上によって決められた、カメラ位置、ズーム比、F値、シャッタースピード、フォーカスを固定し、図3から図6のストライプ&グレイスケールチャート、クロスハッチチャート、白チャート、黒チャートの4つのパターンを順次撮像する。撮像の際には、周りの人の移動がなく、シャッターを押す際の人の体の部分の位置は細部に渡って固定する。周りの光の映り込みを極力同じにするためである。周りの光の写り込みは黒チャート撮像による画像データを差し引くことで補正するが、写り込みが4つのパターンの撮像時に変化しないようにしなければならないからである。なお、暗室を利用する場合には、表示画像からの光の反射がFPD画面に入射して、その入射光が再度反射するのを抑えることができるので、黒チャートの撮像は省略してよい。   (D) The camera position, zoom ratio, F value, shutter speed, and focus determined as described above are fixed, and the four types of stripe & gray scale chart, cross hatch chart, white chart, and black chart in FIGS. The pattern is imaged sequentially. At the time of imaging, there is no movement of people around, and the position of the human body part when pressing the shutter is fixed over the details. This is to make the reflections of the surrounding light the same as much as possible. This is because the reflection of surrounding light is corrected by subtracting image data obtained by black chart imaging, but it is necessary to prevent the reflection from changing when the four patterns are imaged. Note that when using a dark room, it is possible to suppress the reflection of light from the display image from entering the FPD screen and reflecting the incident light again, so that the black chart imaging may be omitted.

次に、以上のチャートの画像データ(JPEGまたはRAWデータ)をパソコンに転送する。(図2のフローチャート(II)の(3))、さらに、今回考案・開発した画像処理法によって、図2のフローチャート(III)に示すように、FPD画素構造とイメージセンサ画素構造とのモアレの発生を抑えたFPD表示画像の撮像を行い、解像度(振幅変調度)、3D表示等のわずかなモアレのある画像でモアレコントラスト、モアレパターンを求め、それらを表示する。 Next, the image data (JPEG or RAW data) of the above chart is transferred to a personal computer. Furthermore, as shown in the flowchart (III) of FIG. 2, the moiré between the FPD pixel structure and the image sensor pixel structure is further improved by the image processing method devised and developed this time (FIG. 2 (II) (3) ). An FPD display image with reduced generation is taken, and a moiré contrast and a moiré pattern are obtained from an image with slight moiré such as resolution (amplitude modulation degree) and 3D display, and these are displayed.

以下に、今回考案・開発した画像処理法について説明する。実際の画像処理では、先ずクロスハッチパターンのJPEG又はRAWデータを用いて、クロスハッチパターンのクロス位置を求め、FPDの各画素の位置を計算し、その各画素内での輝度の平均値を求めてモアレを極力抑えた画像を得ている。FPDの各画素の位置の計算について、その手順について説明する。以下の括弧付きの数字は図2のフローチャートにおける番号に対応している。   The image processing method devised and developed this time will be described below. In actual image processing, the cross hatch pattern JPEG or RAW data is first used to determine the cross position of the cross hatch pattern, the position of each pixel of the FPD is calculated, and the average value of luminance within each pixel is determined. To obtain images with minimal moiré. A procedure for calculating the position of each pixel of the FPD will be described. The numbers in parentheses below correspond to the numbers in the flowchart of FIG.

(4)撮像データの2進数データから実数輝度分布データへの変換
RAW画像データはx,yが離散的な値をとる2次元分布の65536諧調で表される(又はJPEGデータの時は256諧調で表される)。このイメージセンサ画像データは座標(x,y)は等間隔な格子上の離散的な値(xi,yi)しかとらないことからI(xi,yi)=Iyと表すi,jはそれぞれ1から始まって、x,y方向の画素数の上限値(imax,jmax)までの値をとるとする。また、連続的な座標(x,y)はラスタ左下の画素の左下隅を(0,0)、ラスタ右上の画素の右上隅を(imax,jmax)となるような座標を与える。
(4) Conversion of imaging data from binary data to real luminance distribution data
The RAW image data is expressed in 65536 gradation of two-dimensional distribution in which x and y take discrete values (or in 256 gradation in the case of JPEG data). This image sensor image data has coordinates (x, y) that take only discrete values (x i , y i ) on an equidistant grid, so that I, (x i , y i ) = I y Assume that j starts from 1 and takes values up to the upper limit (i max , j max ) of the number of pixels in the x and y directions. Further, continuous coordinates (x, y) give coordinates such that the lower left corner of the lower left pixel of the raster is (0, 0) and the upper right corner of the upper right pixel of the raster is (i max , j max ).

この(x,y)はプログラム内部での計算に用いているものであるが、計算結果のグラフでの表示では、画像の中心部を(X,Y)=(0,0)とし、左右端をX=±1、上下端をY=±1とするような、規格化座標(X,Y)を用いる。大文字の規格化座標(X,Y)と小文字の座標(x,y)とを区別する。同様に格子点座標(xi,yi)に対しても、規格化した格子点座標(Xi,Yi)が定まる。 This (x, y) is used for the calculation inside the program, but in the graph display of the calculation result, the center of the image is (X, Y) = (0, 0), and the left and right edges Use standardized coordinates (X, Y) such that X = ± 1 and Y = ± 1 at the upper and lower ends. Distinguish between uppercase normalized coordinates (X, Y) and lowercase coordinates (x, y). Similarly, the normalized grid point coordinates (X i , Y i ) are determined for the grid point coordinates (x i , y i ).

離散的な座標(xi,yi)を連続的な座標(x,y)に拡張した際に、I(xi,yi)=Iyは画素内では画像データは一定とみなしてI(x,y)と表示する。ただし、I(xi,yi)=Iyは65536(=216)諧調(0から65535まで)であるため、I(x,y)はI(xi,yi)=Iyを65535で割って規格化した値で定義する(又はJPEGデータの時は255で割って規格化した値で定義する)。 When discrete coordinates (x i , y i ) are expanded to continuous coordinates (x, y), I (x i , y i ) = I y (x, y) is displayed. However, since I (x i , y i ) = I y is 65536 (= 2 16 ) gradation (from 0 to 65535), I (x, y) is set to I (x i , y i ) = I y It is defined by a value normalized by dividing by 65535 (or defined by a value normalized by dividing by 255 for JPEG data).

(5)撮像データのノイズ低減(ガウス分布のコンボリューション)
画像データI(x,y)は諧調が有限であること、イメージセンサの画素感度のばらつきがあることから、量子化ノイズ、ランダムノイズ(白色ノイズ)が重畳されており、このデータをそのまま使うと、連続関数とは言い難いことから計算処理が上手く行かないことが多い。この困難を回避するため、ガウス分布のコンボリューションによるローパスフィルタ(LPF)を用いたノイズ除去法を採用する。つまり、下記の式で定義されるLPF処理した画像分布Id(x,y)を用いてノイズ除去を行なう。
(5) Noise reduction of imaging data (Gaussian distribution convolution)
Since image data I (x, y) has a finite gradation and variations in pixel sensitivity of the image sensor, quantization noise and random noise (white noise) are superimposed. In many cases, the calculation process does not work because it is difficult to say that it is a continuous function. In order to avoid this difficulty, a noise removal method using a low pass filter (LPF) by convolution of Gaussian distribution is adopted. That is, noise removal is performed using the image distribution Id (x, y) subjected to LPF processing defined by the following equation.

Figure 2011047808
Figure 2011047808

ここで、Rx,Ryはx,y方向のガウス分布の1/e半径である。これらの半径を調節して、連続関数を想定して作ったプログラムが誤動作しないようにする。この半径はFPD画素位置の探索にはイメージセンサの画素ピッチの3〜6倍程度とすればよい。x,yの座標もまたイメージセンサのセルの中心として、離散的な値(xi,yi)とした。数値積分はイメージセンサのセル毎に行った。セル毎の積分は16次のガウス積分を用い、x,y方向の積分はRx,Ryの3倍の半径の楕円にかかるイメージセンサのセルまで行なった。それ以外はガウス分布は小さくなるため積分にほとんど寄与しないので省略した。 Here, R x and R y are 1 / e radii of a Gaussian distribution in the x and y directions. By adjusting these radii, a program created assuming a continuous function will not malfunction. This radius may be about 3 to 6 times the pixel pitch of the image sensor for searching the FPD pixel position. The x and y coordinates are also discrete values (x i , y i ) as the center of the image sensor cell. Numerical integration was performed for each cell of the image sensor. The integration for each cell was performed using a 16th-order Gaussian integration, and the integration in the x and y directions was performed up to the image sensor cell covering an ellipse having a radius three times that of R x and R y . Other than that, the Gaussian distribution is small, so it contributes little to the integration, so it is omitted.

(6)クロスハッチチャートの各クロス点に対応するイメージセンサ位置の概略計算
まずは、規格化座標(X,Y)での座標軸上近傍でのLPFを通した輝度分布Idから、xまたはy方向にある範囲で積分して(実際は和である:画像全体の±10%の範囲での積分)平均化した線広がり関数(LSF:Line Spread Function)を求め、クロスハッチの格子間隔、クロスハッチの上下、左右の中心線の概略の位置、撮像された画像に納まったX,Y軸上の黒線の数を求める。図7にx方向の線広がり関数LSF(X)を示す。この図で縦軸の値の大きい部分はクロスハッチの白部分であり、値の小さい部分はクロスハッチの黒部分である。また、×は局所的な最小値に対応する離散的な規格化座標Xiに対応している。なお、この図7から、輝度の高い白部分はまだノイズが大きく、黒部分はノイズの影響を受けにくくなっていることが分る。クロスハッチパターンを黒地に白にせずに、白地に黒にしたのは、ノイズの影響を極力避けるためである。
(6) Approximate calculation of image sensor position corresponding to each cross point of the cross hatch chart First, from the luminance distribution Id through LPF in the vicinity of the coordinate axis at the normalized coordinate (X, Y), x Alternatively, integration over a range in the y direction (actually sum: integration over a range of ± 10% of the entire image) to obtain an averaged line spread function (LSF), the cross hatch lattice spacing, The approximate position of the center line on the top and bottom of the cross hatch and the left and right sides, and the number of black lines on the X and Y axes contained in the captured image are obtained. FIG. 7 shows the line spread function LSF (X) in the x direction. In this figure, the portion where the value on the vertical axis is large is the white portion of the cross hatch, and the portion where the value is small is the black portion of the cross hatch. Further, x corresponds to discrete normalized coordinates X i corresponding to the local minimum value. It can be seen from FIG. 7 that the white portion with high luminance is still noisy and the black portion is less susceptible to noise. The reason for making the cross hatch pattern black on a white background instead of white on a black background is to avoid the influence of noise as much as possible.

局所的最小点を決めるには、図8の累積増減数、図9の累積増減量という指標を用いて決める。図8の累積増減数N(X)は図7のLSFを通した輝度分布Idから、Xiが小さなものから大きなものへと点を順次移動させて、その点での輝度の値をその前の点での値と較べることによって求める。N(X)の初期値は0とし、輝度の差分が0又は負の値であり、前の点でのN(X)が負または0ならばこの点でのN(X)は前の点のN(X)に−1を加算し、前の点でのN(X)が正ならば、N(X)は0とリセットする。同様に、輝度の差分が0又は正の値であり、前の点でのN(X)が正または0ならばこの点でのN(X)は前の点のN(X)に1を加算し、前の点でのN(X)が負ならば、N(X)は0とリセットする。この手順を繰り返して、指標N(X)を求めた。この撮像画像中心の±25%の範囲内でN(X)の値が最も小さい点をY軸に最も近い格子点に対応していると判断した。 In order to determine the local minimum point, the local minimum point is determined by using the indicators of cumulative increase / decrease in FIG. 8 and cumulative increase / decrease in FIG. From the luminance distribution Id cumulative count change N (X) is through the LSF 7 in FIG. 8, by sequentially moving the point from X i has a low to large, before the value of the luminance at that point It is obtained by comparing with the value at the point. The initial value of N (X) is 0, and the difference in luminance is 0 or negative. If N (X) at the previous point is negative or 0, N (X) at this point is the previous point. If N (X) at the previous point is positive, N (X) is reset to 0. Similarly, if the luminance difference is 0 or a positive value and N (X) at the previous point is positive or 0, N (X) at this point will set 1 to N (X) at the previous point. Add and if N (X) at the previous point is negative, N (X) resets to 0. This procedure was repeated to obtain an index N (X). It was determined that the point with the smallest value of N (X) within the range of ± 25% of the center of the captured image corresponds to the lattice point closest to the Y axis.

なお、このN(X)の値は縦軸が0の近傍で概して±5の範囲で細かいピッチで振動しているのが分るが、これはテストチャートとイメージセンサの画素数の関係から決まっている。概して±5の範囲で細かいピッチで振動しているのはFPD画素一個にイメージセンサが大体10×10個入るように、テストチャートの大きさを設定したことによる。つまり、白色部分の撮像では、FPDセルでBM近くが最も暗く、セル中央部が最も明るいため、概してFPDセルの半分に対応したイメージセンサ5個で輝度が増加し、残りの半分のイメージセンサ5個で輝度が減少するからである(例外も随所にあるが)。   It can be seen that the value of N (X) is oscillating at a fine pitch in the range of ± 5 in the vicinity of 0 on the vertical axis, but this is determined by the relationship between the test chart and the number of pixels of the image sensor. ing. The reason why the vibration is oscillated at a fine pitch in the range of ± 5 is that the size of the test chart is set so that about 10 × 10 image sensors are included in one FPD pixel. In other words, in the imaging of the white part, since the FPD cell is darkest near the BM and the center of the cell is brightest, the brightness generally increases with five image sensors corresponding to half of the FPD cell, and the other half of the image sensor 5. This is because the brightness decreases with the individual (although there are exceptions everywhere).

図9はXが値が小さいものから大きいものに変化させた際に、N(X)が連続して同じ符号(0は除く)のときに、輝度の差分を加算し、N(X)の符号が変われば0にリセットした累積増減量H(X)を示す。図7に示した×は、H(X)がある値(−HCUT)より小さくなった場合にその近傍の局所的最小値を探した結果である。なお、このHCUTの数値は通常0.1から0.15程度で問題ないが、縦軸の0近傍で大きく振動していたり、信号レベルが暗すぎたりした場合には、その値を調整する必要がある。このHCUTの値はプログラムで入力するようになっている。以上はX方向についてであるが、Y方向についても同様にして、クロスハッチテストチャートの中心に最も近いイメージセンサのY方向の番号を求める。   In FIG. 9, when X is changed from a small value to a large value, when N (X) is continuously the same sign (excluding 0), the luminance difference is added, and N (X) If the sign changes, the cumulative increase / decrease amount H (X) reset to 0 is indicated. The x shown in FIG. 7 is the result of searching for the local minimum value in the vicinity when H (X) becomes smaller than a certain value (−HCUT). The numerical value of this HCUT is usually about 0.1 to 0.15, but there is no problem. However, if the signal vibrates greatly near 0 on the vertical axis or the signal level is too dark, it is necessary to adjust the value. There is. This HCUT value is entered by the program. The above is for the X direction, but the Y direction number of the image sensor closest to the center of the crosshatch test chart is similarly obtained for the Y direction.

次に、各クロス点のイメージセンサの画素番号i(k,l),j(k,l)を求める。ここで、(k,l)はクロスハッチのクロス点の番号を表し、(k,l)=(0,0)が中央部のクロス点とする。上記の手順で求まったクロスハッチパターンの画面中心での大まかなクロス位置の情報i'(0,0),j'(0,0)、画面中心近傍でのクロスハッチの大体の間隔Δn(単位はイメージセンサの画素ピッチ:画面中央から±X,±Y方向の4つの間隔の平均値)を初期値として用い、各クロス点のイメージセンサの画素番号i(k,l),j(k,l)を求める。   Next, pixel numbers i (k, l) and j (k, l) of the image sensors at the respective cross points are obtained. Here, (k, l) represents the number of the cross hatch cross point, and (k, l) = (0,0) is the cross point in the center. Rough cross position information i '(0,0), j' (0,0) at the center of the screen of the cross hatch pattern obtained in the above procedure, the approximate interval Δn (in units of the cross hatch near the center of the screen) Is the pixel pitch of the image sensor: the average value of four intervals in the ± X and ± Y directions from the center of the screen) as the initial value, and the pixel number i (k, l), j (k, l)

プログラムでは、まずは(k,l)=(0,0)の中央部のクロス点のイメージセンサの大まかな画素番号i'(0,0),j'(0,0)から、より正確な画素番号i'(0,0),j'(0,0)を求めることになる。画面中心近傍でのクロスハッチの大体の間隔Δnの±2/3(この値2/3はフログラムの入力データとして選べる)の範囲でy、またはx方向に積分して、x、y方向の線広がり関数LSFX(x)、LSFY(y)を求め、上に述べたのと同じアルゴリズムでi'(0,0),j'(0,0)を求める。 The program starts with a more accurate pixel from the approximate pixel number i ′ (0,0), j ′ (0,0) of the image sensor at the cross point at the center of (k, l) = (0,0). The numbers i ′ (0,0) and j ′ (0,0) are obtained. Integrate in the x or y direction within the range of ± 2/3 of the approximate spacing Δn of the cross hatch near the center of the screen (this value 2/3 can be selected as the input data of the program). Spread functions LSF X (x) and LSF Y (y) are obtained, and i ′ (0,0) and j ′ (0,0) are obtained by the same algorithm as described above.

次に、(k,l)=(0,1)のクロス点の大まかな画素番号をi'(1,0)=i'(0,0)+Δn、j'(1,0)=j(0,0)とし、上記とアルゴリズムで正確な画素番号i(0,1),j(0,1)を求める。それ以後はi'(k+1,0)=i(k,0)+[i(k,0)−i(K−1,0),j'(k+1,0)=j(k,0):k=2,3,4…として、上記と同じアルゴリズムで正確なi(k+1,0),j(k+1,0)を求める。   Next, the rough pixel number of the cross point of (k, l) = (0,1) is set to i ′ (1,0) = i ′ (0,0) + Δn, j ′ (1,0) = j ( 0,0), and an accurate pixel number i (0,1), j (0,1) is obtained by the above algorithm. Thereafter, i ′ (k + 1,0) = i (k, 0) + [i (k, 0) −i (K−1,0), j ′ (k + 1,0) = j (k, 0): As k = 2, 3, 4,..., accurate i (k + 1,0), j (k + 1,0) is obtained by the same algorithm as described above.

また、一段上がってi'(0,1)=i(0,0)、j'(0,1)=j(0,0)+Δnとして、同じ方法でi(k,l),j(k,l):k=0,1,2,3,…を順次求める。それ以後はi'(0,l+1)=i(0,l)、j'(0,l+1)=j(0,l)+[j(0,l)−j(0,l−1)]として、同様にi(k,l+1),j(k,l+1):k=0,1,2,3,…,l=2,3,4,…を順次求める。以上の手順で第1象限のi(k,l),j(k,l):k=0,1,2,3,…,l=0,1,2,3,…が求まる。第2象限で同様な手順、第3と第4の象限を連ねて同様な手順を繰り返し、全象限でのi(k,l),j(k,l):k=…−3,−2,−1,0,1,2,3,…、l=…−3,−2,−1,0,1,2,3,…を求めることを行なう。   Further, i '(0,1) = i (0,0), j ′ (0,1) = j (0,0) + Δn, and i (k, l), j (k , l): k = 0, 1, 2, 3,. After that, i ′ (0, l + 1) = i (0, l), j ′ (0, l + 1) = j (0, l) + [j (0, l) −j (0, l−1)] Similarly, i (k, l + 1), j (k, l + 1): k = 0, 1, 2, 3,..., L = 2, 3, 4,. With the above procedure, i (k, l), j (k, l): k = 0, 1, 2, 3,..., L = 0, 1, 2, 3,. The same procedure is repeated in the second quadrant, the same procedure is repeated by connecting the third and fourth quadrants, and i (k, l), j (k, l) in all quadrants: k =... -3, -2 , −1,0,1,2,3,..., L = ...− 3, −2, −1,0,1,2,3,.

以上がクロスハッチチャートの各クロス点に対応するイメージセンサ位置の概略計算についてである。
なお、各クロス点ではXが増加する際の累積増減量H(X)が負で最小になるが、その値をh(+)(k,l)とし、同様にXが減少する際の累積増減量の負の最小値をh(−)(k,l)とする。またh(+)(k,l),h(−)(k,l)のうちの絶対値の小さな方をh(k,l)とする。このh(k,l)をx方向、y方向について求め、それぞれをhX(k,l)、hy(k,l)として格納する。各クロス点の輝度のx、y方向の谷の深さの指標hX(k,l)、hy(k,l)は次の重心による精度を高めたクロス点の座標xc(k,l),yc(k,l)の計算に用いる。
The above is the rough calculation of the image sensor position corresponding to each cross point of the cross hatch chart.
Note that the cumulative increase / decrease amount H (X) when X increases at each crossing point is negative and minimum, but the value is h (+) (k, l), and similarly when X decreases. Let h (-) (k, l) be the minimum negative value of the increase / decrease amount. Further, h (+) (k, l), h (−) (k, l), the smaller absolute value is defined as h (k, l). The h (k, l) is obtained in the x direction and the y direction, and stored as h X (k, l) and h y (k, l), respectively. The index x x (k, l) of the brightness x of each cross point and the depth index h X (k, l), h y (k, l) of the cross point x c (k, l) l), y c (k, l) is used for calculation.

(7)クロスハッチチャートの各クロス点に対応するイメージセンサ位置の正確な計算
(6)の処方で、クロスハッチパターンのクロス位置に対応するイメージセンサ画素番号i(k,l),j(k,l):k=…−3,−2,−1,0,1,2,3,…、l=…−3,−2,−1,0,1,2,3,…が求めたが、クロス位置の精度上げるため、クロス位置の座標xc(k,l),yc(k,l)を求める。
具体的には、各クロス点のイメージセンサ番号i(k,l),j(k,l)の周りでローパスフィルタLPFを通した輝度分布Idをyまたはx方向で±(2/3)Δn(小数点以下は切り捨て)の範囲で積分して平均化し、各クロス点近傍でのx、y方向の線広がり関数LPFX(x),LPFY(y)を求める。
次に、各クロス点のx座標xc(k,l)については、x方向線広がり関数LPFX(x)の最小値LSFX minから、x方向の谷の深さの指標hX(k,l)の1/e以上の部分であるhX(k,l)(1−1/e)を引いた値、つまりLSFX min−hX(k,l)(1‐1/e)を基準値として、LPFX(x)がその基準値以下の部分を正負反転させて谷を山として、山の重心を求めてクロス位置の座標xc(k,l)を求める(ここでeは自然対数の底(=2.71828)としたが、必ずしもその値に限定しなくてよい)。つまり、各クロス点のx座標xc(k,l)は(式2)で表すことが出来る。
(7) Accurate calculation of the image sensor position corresponding to each cross point of the cross hatch chart The image sensor pixel number i (k, l), j (k) corresponding to the cross position of the cross hatch pattern with the prescription of (6) , l): k = ...- 3, -2, -1,0,1,2,3, ..., l = ...- 3, -2, -1,0,1,2,3, ... However, in order to increase the accuracy of the cross position, the coordinates x c (k, l) and y c (k, l) of the cross position are obtained.
Specifically, the luminance distribution Id that has passed through the low-pass filter LPF around the image sensor numbers i (k, l) and j (k, l) at each cross point is ± (2/3) Δn in the y or x direction. Integration is performed in the range of (rounded down after the decimal point), and line broadening functions LPF X (x) and LPF Y (y) in the x and y directions near each cross point are obtained.
Next, for the x coordinate x c (k, l) of each cross point, the index h X (k of the valley depth in the x direction is calculated from the minimum value LSF X min of the x-direction line spread function LPF X (x). , l) minus 1 / e or more h x (k, l) (1-1 / e), that is, LSF X min −h X (k, l) (1-1 / e) Is the reference value, LPF X (x) inverts the part below the reference value with the positive and negative inversion, the valley is the mountain, the center of gravity of the mountain is obtained, and the coordinate x c (k, l) of the cross position is obtained (here e Is the base of the natural logarithm (= 2.71828), but it is not necessarily limited to that value). That is, the x coordinate x c (k, l) of each cross point can be expressed by (Expression 2).

Figure 2011047808
Figure 2011047808

ここで、x1,x2は−LSFX(x)+LSFX min−hX(k,l)・(1-1/e)=0になるxの座標である。ここでLPFX(x)またはLPFY(y)の値はイメージセンサのセル位置に対応したx,yの格子点上で与えられているが、その他のx,y点ではリニア、あるいは3次関数的に連続して変化するとして、(a)区分的一次関数、(b)区分的3次関数で、両端は一次関数としてxc(k,l)を求めるようにした。各クロス点のy座標yc(k,l)については、y方向線広がり関数LPFY(y)、各クロス点でのy方向の谷の深さの指標hy(k,l)を用いて式(2)と同様な定式で求める。ただし、(a),(b)のどちらの場合でも計算結果に大差なかった。 Here, x 1 and x 2 are coordinates of x at which −LSF X (x) + LSF X min −h X (k, l) · (1-1 / e) = 0. Here, the value of LPF X (x) or LPF Y (y) is given on the grid points of x and y corresponding to the cell position of the image sensor, but the other x and y points are linear or cubic. It is assumed that x c (k, l) is obtained as a linear function at both ends of (a) a piecewise linear function and (b) a piecewise cubic function. For the y coordinate y c (k, l) of each cross point, the y-direction line spread function LPF Y (y) and the y-direction valley depth index h y (k, l) at each cross point are used. Obtain the same formula as equation (2). However, the calculation results were not significantly different in either case (a) or (b).

これから、位置検出の精度は(2)の積分の厳密性ではなく、むしろ輝度分布に重畳されたノイズ(画素毎の感度の違い=固定パターンノイズ、アンプの1/fノイズ、熱ノイズ、フォトダイオードの暗電流、ショットノイズ等)に支配されていると理解できる。従って、少しでも計算時間が短くなる(a)の条件を採用した(プログラム中では(a)(b)どちらでも選択できる)。図10にはこのようにして求めたクロス点xc(k,l),yc(k,l)を結んだ格子図形を表示する。 From this, the accuracy of position detection is not the exactness of the integration of (2), but rather the noise superimposed on the luminance distribution (difference in sensitivity for each pixel = fixed pattern noise, amplifier 1 / f noise, thermal noise, photodiode It can be understood that it is dominated by dark current, shot noise, etc. Therefore, the condition (a) that shortens the calculation time as much as possible is adopted (either (a) or (b) can be selected in the program). FIG. 10 displays a lattice figure connecting the cross points x c (k, l) and y c (k, l) thus obtained.

格子点の計算精度を検証するため、近接した3×3の格子点を対象にして、その4隅の格子点でのxc(k,l),yc(k,l)から、x、y位置をパラメータs、tの関数とし、s、tのそれぞれの1次の多項式で表すことにした。s=0、t=0が左下の格子点、s=1、t=0が右下の格子点、s=0、t=1が左上の格子点、s=1、t=1が右上の格子点とし、この4つの格子点位置から他の5つの格子点のx、y位置を1次の多項式の内挿関数から求め、重心で求めたx、y位置と比較した。 In order to verify the calculation accuracy of the lattice points, the adjacent 3 × 3 lattice points are targeted, and from x c (k, l), y c (k, l) at the four corner lattice points, x, The y position is a function of the parameters s and t, and is expressed by a first-order polynomial for each of s and t. s = 0, t = 0 is the lower left lattice point, s = 1, t = 0 is the lower right lattice point, s = 0, t = 1 is the upper left lattice point, s = 1, t = 1 is the upper right lattice point From the four grid point positions, the x and y positions of the other five grid points were obtained from the interpolation function of a first-order polynomial and compared with the x and y positions obtained from the center of gravity.

この操作を、図10の格子点の全ての近接した3×3の格子点の組み合わせで行い、x、y座標の誤差の標準偏差を求めた結果を図11に示す。標準偏差で言えば、イメージセンサ画素ピッチの5%以内の誤差(FPD画素ピッチに換算すれば、その1/10の0.5%以内の誤差)でクロス点が求まったことになる。厳しい評価で誤差を判定したにも関わらず、かなり高い精度が得られたものと判断できる。   FIG. 11 shows a result obtained by performing this operation with combinations of all 3 × 3 lattice points adjacent to the lattice points in FIG. 10 and obtaining standard deviations of errors in the x and y coordinates. In terms of standard deviation, the cross point is obtained with an error within 5% of the image sensor pixel pitch (an error within 0.5% of 1/10 of the FPD pixel pitch). It can be judged that considerably high accuracy was obtained even though the error was judged by strict evaluation.

(8) 各FPD画素内部での輝度平均の計算
FPD画素位置の導出には、クロスハッチのx,y座標を(a)1次、(b)2次、(c)3次、(d)4次の多項式での内挿を考えた。図12にはそれぞれの場合の内挿に用いるクロスハッチの格子点を示している。
(8) Calculation of luminance average inside each FPD pixel
For the derivation of the FPD pixel position, interpolation of the cross hatch x, y coordinates with (a) first order, (b) second order, (c) third order, and (d) fourth order polynomials was considered. FIG. 12 shows cross hatch lattice points used for interpolation in each case.

斜線で示した部分が内挿する範囲であり、その左下の隅をs=0,t=0、右上の隅をs=1,t=1として、このs,tの多項式でイメージセンサの番号(i,j)を実数に拡張したイメージセンサの位置座標(x,y)を内挿して求める。   The shaded part is the range to be interpolated. The lower left corner is s = 0, t = 0, the upper right corner is s = 1, t = 1. It is obtained by interpolating the position coordinates (x, y) of the image sensor with (i, j) expanded to real numbers.

Figure 2011047808
Figure 2011047808

Figure 2011047808
Figure 2011047808

この式での多項式の係数anm,bnmは(N−1)×(N−1)個のクロスハッチの格子点に対応するイメージセンサの位置座標xc(k,l),yc(k,l)から一意的に求めることができる。クロスハッチの黒線はFPD画素の2つ、ないしは4つ分の太さであるため、重心の座標xc(k,l),yc(k,l)はFPD画素の端面に対応している。クロスハッチパターンは任意の間隔で生成出来るが、図4の例ではFPD画素10個間隔となっている。 The coefficients a nm and b nm of the polynomial in this equation are the image sensor position coordinates x c (k, l), y c (corresponding to (N−1) × (N−1) crosshatch lattice points. k, l) can be obtained uniquely. The cross hatch black line is two or four FPD pixels thick, so the coordinates x c (k, l), y c (k, l) of the center of gravity correspond to the end face of the FPD pixel. Yes. Although the cross hatch pattern can be generated at an arbitrary interval, in the example of FIG. 4, the interval is 10 FPD pixels.

このクロスハッチのクロス点がFPD画素10個間隔の場合は式(3)(4)のs、tに0,1/10,2/10,3/10,…,9/10,1を代入して、クロスハッチの格子間にあるFPD画素の位置を求める。さらに、FPD画素内の任意の位置も式(3)(4)で求めることができる。1/10単位でs、tに値を代入すればFPD画素の外枠が求まるが、1/10単位以外の値を代入すれば、FPD画素内の任意の点に対応したイメージセンサ位置の座標x、yを求めることができる。   If the cross-hatch cross point is 10 FPD pixels, substitute 0, 1/10, 2/10, 3/10, ..., 9/10, 1 for s and t in equations (3) and (4). Then, the position of the FPD pixel located between the cross hatch lattices is obtained. Furthermore, an arbitrary position in the FPD pixel can also be obtained by Expressions (3) and (4). By substituting values for s and t in 1/10 units, the outer frame of the FPD pixel can be obtained, but if values other than 1/10 unit are substituted, the coordinates of the image sensor position corresponding to any point in the FPD pixel x and y can be obtained.

次に、式(3)(4)のマッピングとイメージセンサの輝度分布の(x、y)座標の多項式での内挿を用いて、画素内の平均輝度=画素から射出される光の総和(ただし、デジカメの射出瞳内に入る光に限る)を求めて、FPD画素の一個一個に対応した輝度分布を求める。FPDの一画素を例えば20×20の小さな矩形のサブセルに分割して、そのサブセルの中心(図13のドット)の輝度の値の総和をサブセル数で割った値で画素内の平均輝度とした。サブセルの数は任意に選べるが、20×20程度で大体精度は飽和する。   Next, using the mapping of equations (3) and (4) and interpolation with the polynomial of the (x, y) coordinates of the luminance distribution of the image sensor, the average luminance in the pixel = the sum of the light emitted from the pixel ( However, the luminance distribution corresponding to each FPD pixel is obtained. One pixel of the FPD is divided into small rectangular subcells of 20 × 20, for example, and the average luminance in the pixel is obtained by dividing the sum of luminance values at the center of the subcell (dots in FIG. 13) by the number of subcells. . The number of subcells can be selected arbitrarily, but the accuracy is almost saturated at about 20 × 20.

なお、多項式の上限次数Nを1から4まで変えて計算を行なったが、N=1より上限次数を上げても結果にはほとんど影響は無かった。イメージセンサからの信号に重畳されたノイズが計算誤差を支配しているものと推定される。イメージセンサからのノイズが大幅に減少されたならば、高次の内挿関数も意味があろうが、現状のデジカメを用いるならばN=1で十分である。以上がFPDの各画素の外枠位置とその画素内の任意の点とイメージセンサの画素番号(i,j)を実数化させた座標(x、y)を一対一に対応させるマッピングの手法についてである。   Although the calculation was performed by changing the upper limit order N of the polynomial from 1 to 4, even if the upper limit order was increased from N = 1, the result was hardly affected. It is estimated that the noise superimposed on the signal from the image sensor dominates the calculation error. If the noise from the image sensor is greatly reduced, a higher-order interpolation function will be meaningful, but N = 1 is sufficient if the current digital camera is used. The above is a mapping method in which the outer frame position of each pixel of the FPD, an arbitrary point in the pixel, and the coordinates (x, y) obtained by realizing the pixel number (i, j) of the image sensor correspond one-to-one. It is.

また、イメージセンサの座標(x、y)に対する輝度は図12に示したようなイメージセンサの画素に対応した格子点上の値を用いて式(3)(4)に類似した形式で表す。   Further, the luminance with respect to the coordinates (x, y) of the image sensor is expressed in a format similar to Expressions (3) and (4) using values on grid points corresponding to the pixels of the image sensor as shown in FIG.

Figure 2011047808
Figure 2011047808

係数cnmはイメージセンサの画素に対応した格子点上でのLPF処理を行なわない原画の輝度I(xi,yj)=Iijを用いて表現できる。ここでも多項式の上限次数Mを変えて計算を行なったが、これもM=1より上限次数を上げても結果には影響はほとんど無かった。イメージセンサからの信号に重畳されたノイズが計算誤差を支配しているものと推定している。 The coefficient c nm can be expressed using the luminance I (x i , y j ) = I ij of the original image that is not subjected to LPF processing on the grid points corresponding to the pixels of the image sensor. Here, the calculation was performed by changing the upper limit order M of the polynomial, but even if the upper limit order was increased from M = 1, the result was hardly affected. It is estimated that the noise superimposed on the signal from the image sensor dominates the calculation error.

図14にクロスハッチの画像について、以上の処理を行なった画像を示す。図15、図16には図3と図5のストライプ&グレイスケールチャート、白チャートを撮像したデータの処理画像を示す。モアレの発生が極力抑えられた処理画像が得られていることが分る。   FIG. 14 shows an image obtained by performing the above processing on the cross hatch image. FIGS. 15 and 16 show processed images of data obtained by imaging the stripe & gray scale chart and the white chart of FIGS. It can be seen that a processed image in which the generation of moiré is suppressed as much as possible is obtained.

なお、図15、図16の画像は黒チャートの画像の輝度分布IB(x,y)を差し引き、さらにクロス点の周りの局所平均値(平均はクロス点の周りで、x、y方向に±Δn/2の範囲で行なった)でイメージセンサの場所ごとの感度の違いを補正している。つまり、黒レベルの補正とシェーディング補正を同時に行なっている(ただし、暗室で撮像した場合は黒チャートの撮像を省略するので黒レベルの補正は行なわない)。格子状のクロス点の周りの局所平均から、白チャートと黒チャートの格子点以外を含む局所平均輝度を 15 and 16, the luminance distribution I B (x, y) of the black chart image is subtracted, and the local average value around the cross point (the average is around the cross point in the x and y directions). This was done in the range of ± Δn / 2) to correct the difference in sensitivity at each location of the image sensor. In other words, the black level correction and the shading correction are performed simultaneously (however, when the image is taken in a dark room, the black chart is not taken, so the black level is not corrected). From the local average around the grid-like cross points, the local average brightness including other than the grid points of the white chart and black chart

Figure 2011047808
Figure 2011047808

Figure 2011047808
Figure 2011047808

で表し、画面中心での局所平均値をIMW0、IMB0とすると、式(5)の任意の画像I(x,y)に対する黒レベルの補正とシェーディング補正を行なった補正値I'(x,y)は次のように表される。 If the local average values at the center of the screen are I MW0 and I MB0 , the correction value I ′ (x obtained by performing black level correction and shading correction for an arbitrary image I (x, y) in Expression (5) , y) is expressed as follows.

Figure 2011047808
Figure 2011047808

なお、図3,5のチャートには+の印があるが、この+の印はクロスハッチのクロスの一部と同じ位置にある。この+の印のクロス点をクロスハッチのクロス点を求めるのと同じ手法で求め、クロスハッチのクロス点の差から図3、図5の画像を撮像した時と図4の画像を撮像した時とのデジカメとモニタの微小な位置ずれを補正している。クロス点の組で矩形の四隅に位置するものを用いて、矩形内のクロスハッチのクロス点での位置ずれを水平座標、垂直座標のそれぞれの一次の多項式で内挿して求めて補正している。ただし、クロス点の外部の点は外挿して補正している。   The charts of FIGS. 3 and 5 have a + mark, but this + mark is at the same position as a part of the cross of the cross hatch. The cross points marked with + are obtained by the same method as the cross hatch cross points, and when the images of FIGS. 3 and 5 are taken from the difference of the cross hatch cross points and when the images of FIG. 4 are taken. This corrects a slight misalignment between the digital camera and the monitor. Using a set of cross points located at the four corners of the rectangle, the position shift at the cross point of the cross hatch in the rectangle is interpolated with a first-order polynomial of horizontal coordinates and vertical coordinates, and corrected. . However, the points outside the cross points are corrected by extrapolation.

(9)RGB画像の重み付け重ね合わせ係数の最適化(RAWデータを用いる際に必須)
256階調のJPEG画像のデータを用いた場合にはRGBの画像を1:1:1に重ね合わせた場合に問題はなかったが、RAW画像を用いて65536諧調のRAWデータを1:1:1に重ね合わせた場合に淡いながらもピッチの大きなモアレが発生していた。このモアレはRGBの画像の混合比を適切に選べば、視認できないレベルになると判断し、重ね合わせの係数を自動的に調整してモアレを低減することを行なっている。
(9) Optimization of RGB image weighted overlay coefficient (required when using RAW data)
In the case of using 256-gradation JPEG image data, there was no problem when the RGB image was superimposed 1: 1: 1, but 65536 tone RAW data using the RAW image was 1: 1: 1. When superposed on 1, a moire with a large pitch was generated although it was light. This moire is determined to be invisible if the mixing ratio of RGB images is appropriately selected, and the moire is reduced by automatically adjusting the overlay coefficient.

RGBの画像をIR(x,y),IG(x,y),IB(x,y)としたときに、規格化定数を除いて基本的には2つのパラメータで3つの画像は重ね合わせることができる。Rの係数をWR、Gの係数をWG、Bの係数をWBとすると、 When an RGB image is I R (x, y), I G (x, y), I B (x, y), the three images are basically two parameters except for the normalization constant. Can be overlapped. If the coefficient of R is W R , the coefficient of G is W G , and the coefficient of B is WB,

Figure 2011047808
Figure 2011047808

ただし、重ね合わせの係数の最適化にはWR,WG,WBではなく、 However, it is not W R , W G , W B for optimization of the superposition coefficient,

Figure 2011047808
Figure 2011047808

Figure 2011047808
Figure 2011047808

Gの画像は必ず含まれるものとして、その重ね合わせの係数WGを1とし、 The image of G must be included, the superposition coefficient W G is 1,

Figure 2011047808
Figure 2011047808

を用いて、輝度の平均値からの標準偏差を最小にするようにWR/B,WRB/Gの値を最適化して、FPD画素構造とイメージセンサ画素構造とのモアレの発生を極力抑えるような操作もプログラムの中で自動的に行なっている。混合比を最適化する際には、白チャートの処理画像をFPDセルピッチを単位として、コンボリューションするガウス分布の1/e半径をRx=Ry=3と選んで、ノイズを低減して最適化している。この最適化には準ニュートン法の一種であるDavidson-Flecher-Powell法を用いた。この場合には、最適化したWR/B,WRB/Gの値は(0.163,0.448)となっている。 Optimize the values of W R / B and W RB / G to minimize the standard deviation from the average luminance value, and minimize the occurrence of moiré between the FPD pixel structure and the image sensor pixel structure. Such operations are automatically performed in the program. When optimizing the mixing ratio, select the 1 / e radius of the Gaussian distribution to be convolved as R x = R y = 3 with the FPD cell pitch as the unit for the processed image of the white chart, and reduce the noise to optimize. It has become. The Davidson-Flecher-Powell method, which is a kind of quasi-Newton method, was used for this optimization. In this case, the optimized values of W R / B and W RB / G are (0.163, 0.448).

最適化では図2のフローチャートの(5)から(8)の計算を画像データの出力を行なわずに、何度も繰り返すことになるのでかなりの計算時間(CPU時間)がかかる。ただし、撮像するデジカメとその絞り・シャッタースピード、FPDのフィルター、ないしは蛍光体、輝度が固定であれば、最適化したWR/B,WRB/Gの値は再現性があるので毎回最適化する必要はない。 In the optimization, since the calculations (5) to (8) in the flowchart of FIG. 2 are repeated many times without outputting image data, a considerable calculation time (CPU time) is required. However, if the digital camera to be imaged and its aperture / shutter speed, FPD filter, or phosphor, and the brightness are fixed, the optimized W R / B and W RB / G values are reproducible and optimized every time. do not have to.

(10)グレイスケール内平均輝度の計算とγ補正した画像の計算・表示
図16と原画像の図3を比較すると、グレイスケールで黒に近いレベルが潰れていることが分る。これを補正するためにガンマ特性を求めることにした。なお、図3のパターンでストライプの上下にあるグレイスケールは256階調で表示し、黒レベルを0として、白レベルを255と表すと、レベルは、0,16,32,48,64,80,96,128,176,224,240,255の12個とした。この値を255で割った値を横軸に、縦軸にグレイスケールセル内の平均輝度を求めて、折れ線で図17に示した。図17に折れ線が2本あるのは、チャートにグレイスケールが上下二組あるからである。
(10) Calculation of grayscale average luminance and calculation / display of γ-corrected image Comparing Fig. 16 with Fig. 3 of the original image, it can be seen that the level close to black in gray scale is crushed. . In order to correct this, the gamma characteristic is determined. 3, the gray scales above and below the stripe are displayed in 256 gradations, and when the black level is 0 and the white level is 255, the levels are 0, 16, 32, 48, 64, 80. 96, 128, 176, 224, 240, 255. A value obtained by dividing this value by 255 is obtained on the horizontal axis, and the average luminance in the gray scale cell is obtained on the vertical axis, and is shown by a broken line in FIG. The reason why there are two broken lines in FIG. 17 is that there are two pairs of gray scales on the chart.

このグラフは折れ線であるが、2つの折れ線を平均化し、各点を3次のスプライン関数で補間し、また、黒レベルの近傍は指数関数で近似し、γ特性を滑らかな関数で表した。図18にその結果を示す。滑らかな関数で表す際には、縦軸の平均輝度を独立変数とし、横軸を従属変数となるようにした。逆関数として近似し、縦軸の値を逆関数のサブルーチンに入力すれば、横軸の値が求まるようにした。このサブルーチンを用いれば、γ補正ができることになる。その結果を図19、図20に示す。γ補正した画像処理の結果、グレイスケール部分の黒潰れはなくなり、この図19、図20をLCDに表示した際には原画像に近い画像表示が得られることが確認されている。   Although this graph is a polygonal line, the two polygonal lines are averaged, each point is interpolated with a cubic spline function, the vicinity of the black level is approximated with an exponential function, and the γ characteristic is represented by a smooth function. FIG. 18 shows the result. When expressed by a smooth function, the average brightness on the vertical axis is the independent variable, and the horizontal axis is the dependent variable. When approximated as an inverse function and the vertical axis value was input to the inverse function subroutine, the horizontal axis value was obtained. If this subroutine is used, γ correction can be performed. The results are shown in FIGS. As a result of the γ-corrected image processing, the gray scale portion is not crushed, and it has been confirmed that an image display close to the original image can be obtained when FIGS. 19 and 20 are displayed on the LCD.

ただし、原画像に近い画像表示の確認時のみγ補正を行い、解像度やモアレコントラストを評価する際にはγ補正なしの画像データを用いる。また、解像度やモアレコントラストを正確に求める場合には、デジカメからのJPEG画像ではなく、画像処理していない生の画像(RAW画像)を用いる必要がある。   However, γ correction is performed only when an image display close to the original image is confirmed, and image data without γ correction is used when evaluating resolution and moire contrast. In addition, when accurately obtaining the resolution and moiré contrast, it is necessary to use a raw image (RAW image) that has not undergone image processing, instead of a JPEG image from a digital camera.

(11) 解像度(振幅変調度)の計算と表示
図21、22に白黒のストライプの部分のパターンに対応した輝度の変化を示す。ストライプ(縞)部分はFPD画素毎の平均輝度をストライプに添って平均し、それをストライプに垂直方向に表示したものである。図21は垂直ストライプ(縦縞)での水平方向の輝度の変化、図22は水平ストライプ(横縞)での垂直方向の輝度の変化を示す。振幅、ピッチが異なる6つのグラフが一つの図の中に示されている。左から右に、FPDが1,2,3,4,5,6個ごとに交互に白黒となっているパターンである。本来、この種のグラフは50%を中心にして、プラス(白)方向とマイナス(黒)方向に対称に振動して、白レベル(100%)と黒レベル(0%)の差に対する振幅の割合を振幅変調度AR(Amplitude Response)と呼び、これで解像度を評価することが多い。
(11) Calculation and display of resolution (amplitude modulation degree) FIGS. 21 and 22 show changes in luminance corresponding to the pattern of the black and white stripe portion. The stripe portion is obtained by averaging the average luminance of each FPD pixel along the stripe and displaying it in the direction perpendicular to the stripe. FIG. 21 shows a change in luminance in the horizontal direction with vertical stripes (vertical stripes), and FIG. 22 shows a change in luminance in the vertical direction with horizontal stripes (horizontal stripes). Six graphs with different amplitudes and pitches are shown in one figure. From left to right, the pattern is alternately black and white every 1, 2, 3, 4, 5, and 6 FPDs. Originally, this type of graph vibrates symmetrically in the plus (white) direction and minus (black) direction around 50%, and the amplitude of the difference with respect to the difference between the white level (100%) and the black level (0%). The ratio is called amplitude modulation AR (Amplitude Response), and the resolution is often evaluated by this.

Figure 2011047808
Figure 2011047808

図22を見ればグラフは50%を中心にして、プラス(白)方向とマイナス(黒)方向に対称に振動しているが、図21ではプラス(白)方向の振動が潰れていることが分る。このような白潰れもあるので、ここでは50%のレベルの下側の振幅を用いて、 22, the graph vibrates symmetrically in the plus (white) direction and the minus (black) direction around 50%, but in FIG. 21, the plus (white) direction vibration is crushed. I understand. There is also such white crushing, so here we use the lower amplitude of the 50% level,

Figure 2011047808
Figure 2011047808

で振幅変調度(AR)を評価することが優れていると判断した。 It was judged that evaluating the amplitude modulation degree (AR) was excellent.

図23には式(14)で評価した振幅変調度(AR)を示した。横軸はFPD画素が一個ごとの白黒を空間振動数を1として、その他の空間振動数を表示し、縦軸は振幅変調度(AR)である。2つの折れ線があるが、これらは縦縞、横縞に対する振幅変調度(解像度)である(横軸1で僅かに大きな値をとるのが縦縞に対する振幅変調度)。図23から、縦縞、横縞に対する振幅変調(AR)はほぼ等しいことが分る
なお、ここで与えた振幅変調度(AR)はFPD(今回の場合はLCD)の基板ガラス内での光の散乱、デジカメの光学系内での光の散乱、デジカメのレンズの幾何学収差、波面収差、レンズ系公差による寄生収差等を含んでの結果であり、絶対的な振幅変調度を表すものではないことを注意しておく。従って、ここでの振幅変調度(AR)の値は3D表示装置等のレンチキュラーレンズ、光拡散層等が異なる場合の相対比較に用いることを推奨する。つまり、基準となる解像度劣化のほとんどないFPDでのARの値を基準とし、それとの相対比のARで拡散層やレンチキュラーレンズ等の付加の解像度に及ぼす影響を評価すればよい。
FIG. 23 shows the amplitude modulation degree (AR) evaluated by the equation (14). The horizontal axis represents black and white for each FPD pixel, the spatial frequency is 1, and the other spatial frequencies are displayed. The vertical axis is the amplitude modulation (AR). Although there are two polygonal lines, these are amplitude modulation degrees (resolution) for vertical stripes and horizontal stripes (a slightly larger value on the horizontal axis 1 is the amplitude modulation degree for vertical stripes). From FIG. 23, it can be seen that the amplitude modulation (AR) for vertical stripes and horizontal stripes is almost equal. The amplitude modulation degree (AR) given here is the scattering of light in the substrate glass of FPD (in this case, LCD). This is a result including scattering of light within the digital camera optical system, geometric aberration of the digital camera lens, wavefront aberration, parasitic aberration due to lens system tolerance, etc., and does not represent absolute amplitude modulation Please be careful. Therefore, it is recommended that the value of amplitude modulation (AR) here be used for relative comparison when lenticular lenses such as 3D display devices, light diffusion layers, and the like are different. In other words, it is only necessary to evaluate the influence of the relative ratio of AR on the additional resolution of the diffusion layer, the lenticular lens, or the like, based on the AR value in the FPD with almost no resolution degradation as a reference.

以上が、FPDの画素の周期構造とイメージセンサの周期構造との干渉による新たなモアレ発生を極力低減した画像処理法についてと、振幅変調度(AR)の計測法についてである。次に、この新たなモアレ発生を極力低減した画像処理法を用いて、FPDで現れるモアレ画像の評価法について詳しく述べる。フローチャートの(12)(13)について、モアレが一方向の場合、モアレが2方向の場合について述べる。   The above is the image processing method in which the generation of new moire due to the interference between the periodic structure of the FPD pixel and the periodic structure of the image sensor is minimized, and the measurement method of the amplitude modulation degree (AR). Next, an evaluation method for a moire image appearing in an FPD will be described in detail by using an image processing method that minimizes the generation of this new moire. Regarding the flowcharts (12) and (13), the case where the moire is one direction and the moire is two directions will be described.

(12)モアレの方向、ピッチ、コントラストの計算、モアレパターンの抽出
その1(一方向モアレの場合)
図24に僅かな一方向モアレを含んだ検証用の白チャートを示す。ただし、この図は実際に用いた検証用の白チャートより、モアレのコントラストを3倍に誇張して表示している。なぜなら、実際に用いたチャートを印刷表示してもモアレが視認できないからである。このような模擬的なモアレを含むチャートを撮像して本発明の有効性を検証した。他にも図3、図4に対応したチャートにもモアレを重畳した模擬モアレチャートを用意して撮像し、図6の黒チャートはそのまま用い、フローチャートの(1)から(11)と同じ手順に従って画像処理した後、モアレを評価した。図25が図24の模擬的なモアレを含んだテストチャートをLCDに表示して撮像した画像を、今回考案・開発したFPD画素とイメージセンサ画素とのモアレを極力低減した画像処理を施した結果である(γ補正なし)。ただし、図24と比較することができるように図25も同じ倍率でコントラストを誇張して表示している。
(12) Moire direction, pitch, contrast calculation, moire pattern extraction
Part 1 (one-way moire)
FIG. 24 shows a white chart for verification including a slight unidirectional moire. However, in this figure, the moire contrast is exaggerated by a factor of three compared to the actually used white chart for verification. This is because moire cannot be visually recognized even if the chart actually used is printed and displayed. The effectiveness of the present invention was verified by imaging a chart including such a simulated moire. In addition, a simulated moire chart in which moire is superimposed on the charts corresponding to FIGS. 3 and 4 is prepared and imaged, the black chart in FIG. 6 is used as it is, and the same procedures as in the flowcharts (1) to (11) are followed. After image processing, moire was evaluated. FIG. 25 shows the result of image processing in which the moire between the FPD pixel and the image sensor pixel devised and developed this time is reduced as much as possible to the image obtained by displaying the test chart including the simulated moire of FIG. 24 on the LCD. (No γ correction). However, FIG. 25 also shows the contrast exaggerated at the same magnification so that it can be compared with FIG.

γ補正を行なわない処理画像では、モアレは強調されて現れ、直接観察するよりも視認性が高まっていることが分る。画面の左下でのピッチは粗く、右上ではピッチが細かくなっていること、モアレは不等間隔であり、縞の角度が変化していることは明確に分る。次に、このモアレ撮像の画像処理データから、モアレの方向、コントラスト、ピッチを求める。

Figure 2011047808
In the processed image that is not subjected to the γ correction, the moire appears to be emphasized, and it can be seen that the visibility is higher than the direct observation. It can be clearly seen that the pitch at the lower left of the screen is coarse, the pitch is fine at the upper right, and that the moire is unequal, and the fringe angle is changing. Next, the direction, contrast, and pitch of the moire are obtained from the image processing data of the moire imaging.
Figure 2011047808

Figure 2011047808
Figure 2011047808

図27に図25の画像データの中心部分で80×40(単位はFPDセルピッチ)の(u,v)座標での矩形領域を回転させ、分散σ2(θ)の平方根の標準偏差σ(θ)を求めた結果を示す。横軸が角θ(度)で縦軸は標準偏差である。この図から、標準偏差は角θがモアレ縞に垂直方向θ=30°で最大値をとっていることがわかる(チャートのモアレ縞垂直方向はθ=30°に設定)。 In FIG. 27, a rectangular area at (u, v) coordinates of 80 × 40 (unit is FPD cell pitch) is rotated in the central portion of the image data of FIG. 25, and the standard deviation σ (θ of the square root of variance σ 2 (θ) is rotated. ) Is obtained. The horizontal axis is the angle θ (degrees) and the vertical axis is the standard deviation. From this figure, it can be seen that the standard deviation has the maximum value when the angle θ is perpendicular to the moire fringe θ = 30 ° (the moire fringe vertical direction of the chart is set to θ = 30 °).

図28には、角θが20°から40°の間で、1°毎に関数f(θ,u)の座標uに対する依存性を示す。図27と図28から、標準偏差が最大値をとっている場合に、関数f(θ,u)の振幅が最も大きいことがわかる。   FIG. 28 shows the dependence of the function f (θ, u) on the coordinate u every 1 ° when the angle θ is between 20 ° and 40 °. 27 and 28, it can be seen that the amplitude of the function f (θ, u) is the largest when the standard deviation has the maximum value.

また、図29には標準偏差が最大値をとる場合(正確には計算値θ=30.0°)の関数f(θ,u)の座標uに対する依存性を示す。このグラフから、モアレのピッチとコントラストを求める方法が示唆される。このグラフを正弦波と近似すれば、分散の平方根(標準偏差σ)を平均値fm(θ)で割って2√2倍したものが振幅(peak to peak: pp値)となる。従って、   FIG. 29 shows the dependence of the function f (θ, u) on the coordinate u when the standard deviation takes the maximum value (precisely, the calculated value θ = 30.0 °). This graph suggests a method for obtaining the pitch and contrast of moire. If this graph is approximated as a sine wave, the amplitude (peak to peak: pp value) is obtained by dividing the square root of the variance (standard deviation σ) by the average value fm (θ) and multiplying by 2√2. Therefore,

Figure 2011047808
Figure 2011047808

で表される。 It is represented by

また、モアレの波形の谷は図29の波形が下がって平均値を切る点のu座標u(−)と上がって平均値を超える点のu座標u(+)との平均値(u(−)+u(+))/2で表して、谷と谷との間隔でモアレピッチを表すことを行なった。また、波形の平均値以下の部分で平均値を差し引いたものを符号反転させ、山形を形成させて、その山形の重心位置でモアレ波形の谷を表してモアレピッチを求めることも行なった。平均値(u(−)+u(+))/2でモアレ波形の谷を表してピッチを評価した場合と重心でモアレの谷を表した場合はほぼ同等の結果が得られた。 Further, the valley of the moire waveforms u coordinate u of the point cut the average waveform down in Figure 29 (-) the average of the up u coordinates of a point that exceeds the average value u (+) (u (- ) + U (+) ) / 2, and the moire pitch was expressed by the interval between the valleys. In addition, the portion obtained by subtracting the average value in the portion below the average value of the waveform was inverted in sign to form a mountain shape, and the moire pitch was obtained by expressing the valley of the moire waveform at the center of gravity of the mountain shape. When the mean value (u (−) + u (+) ) / 2 represents the valley of the moire waveform and the pitch was evaluated, and when the moire valley was represented by the center of gravity, almost the same result was obtained.

図30にはモアレ角度(θ)、モアレコントラスト(CR)、重心で表したモアレピッチを画面の5点で示す。角度、ピッチが場所によって変化したモアレ画像を与えて撮像した画像からの測定結果とモアレチャートの条件とはよく対応している。   In FIG. 30, the moire pitch (θ), the moire contrast (CR), and the moire pitch expressed by the center of gravity are shown by five points on the screen. The measurement result from the image picked up by giving the moire image in which the angle and pitch change depending on the location and the condition of the moire chart correspond well.

さらに、モアレ波形の谷の位置とモアレの方向を求める手法を局所的に行なって、その操作を画面上でスキャンすれば、モアレパターンを抽出することができる。その結果を図31に示す。なお、ここではFPD画素40×40の正方形の(u,v)領域を[40/√2の整数部分(28コ)−4コ]=24コのFPD画素間隔で重複させて縦横に並べ、その各々の正方形の(u,v)領域を回転させて標準偏差が最大になる角度とその方向のピッチを求め、24×24のFPD画素分の正方形の中で、モアレの谷の線を線分で表示してモアレパターンを表現した。ただし、正方形の大きさは同じだが、x、y方向の左右上下の端部では正方形の移動量のピッチを小さくして、正方形をオーバーラップさせている。   Furthermore, a moiré pattern can be extracted by locally performing a method for obtaining the position of the moire waveform valley and the direction of the moiré and scanning the operation on the screen. The result is shown in FIG. In this case, square (u, v) regions of FPD pixels 40 × 40 are arranged vertically and horizontally by overlapping [an integer part of (40 / √2) (28) −4]] = 24 FPD pixel intervals, Rotate each square (u, v) area to find the angle that maximizes the standard deviation and the pitch in that direction, and draw the moire valley line in the square of 24 × 24 FPD pixels. The moiré pattern is expressed in minutes. However, the squares have the same size, but the squares overlap each other by reducing the pitch of the square movement amount at the left and right and top and bottom ends in the x and y directions.

この例からも分るように、矩形領域で輝度を一方向に積分して線広がり関数(LSF)を求め、矩形領域を回転しながらLSFの平均値からの標準偏差を最大にする角度θをモアレ方向と定め、さらに振動するLSFの波形からモアレのピッチとコントラストを求めて局所的なモアレパターンを描画し、その矩形領域をスキャンしながら全体的なモアレパターンを求める手法は汎用性が極めて高く、不等間隔のピッチを持ったモアレのパターンでも容易に抽出できた。この局所的なモアレの抽出法とそれに基づいた全体的モアレの抽出法も本発明の重要なポイントの一つである。   As can be seen from this example, luminance is integrated in one direction in the rectangular area to obtain a line spread function (LSF), and the angle θ that maximizes the standard deviation from the average value of LSF while rotating the rectangular area is set. The method of determining the moire direction, drawing the local moire pattern by obtaining the moire pitch and contrast from the vibrating LSF waveform, and obtaining the overall moire pattern while scanning the rectangular area is extremely versatile. Even moire patterns with unequal pitches could be extracted easily. This local moire extraction method and the overall moire extraction method based on this method are also important points of the present invention.

その2(二方向モアレの場合)
図32の模擬的なモアレを含んだテストチャートをLCDに表示して撮像した画像を、今回開発したFPD画素とイメージセンサ画素とのモアレを極力低減した画像処理を施して図33に示す。図32も実際に用いた検証用の白チャートよりモアレのコントラストを3倍に誇張し、図33も同じ倍率でコントラストを誇張している。図33は図32に示したモアレを含んだ画像をよく再現していることが分る。ただし、このモアレのピッチは非常に長いため、局所平均の範囲を通常の5倍×5倍として、モアレのある白色チャートでの撮像情報からシェーディング補正した。γ補正を行なわない処理画像では、モアレは強調されて現れ、直接観察するよりも視認性が高まっていることが分る。
次に、このモアレ撮像の画像処理データから、モアレの方向、コントラスト、ピッチを求める。この画像データにさらにFPD画素を単位として、ガウス分布の1/e半径Rx,Ryを1として、ガウス分布のコンボリューションによるローパスフィルタLPFを通したノイズを低減した結果を用いた。なぜなら、このような大きなピッチのモアレではFPD画素一ピッチ分程度の1/e半径を持つガウス分布によるLPFを通しても、モアレの信号情報は失われず、計算の精度が向上するからである。
Part 2 (in the case of two-way moire)
An image obtained by displaying the test chart including the simulated moiré of FIG. 32 on the LCD is subjected to image processing in which the moiré between the newly developed FPD pixel and the image sensor pixel is reduced as much as possible, and is shown in FIG. FIG. 32 also exaggerates the moiré contrast three times that of the actually used white chart for verification, and FIG. 33 also exaggerates the contrast at the same magnification. FIG. 33 shows that the image including the moire shown in FIG. 32 is well reproduced. However, since the pitch of this moire is very long, the local average range is set to 5 × 5 times the normal, and shading correction is performed from the imaging information on the white chart with moire. In the processed image that is not subjected to the γ correction, the moire appears to be emphasized, and it can be seen that the visibility is higher than the direct observation.
Next, the moire direction, contrast, and pitch are obtained from the image processing data of the moire imaging. The result of reducing noise through the low-pass filter LPF due to the convolution of the Gaussian distribution with 1 / e radii Rx and Ry of the Gaussian distribution as 1 is further used for this image data in units of FPD pixels. This is because, in such a large pitch moire, the moire signal information is not lost even through LPF with a Gaussian distribution having a 1 / e radius about one pitch of the FPD pixel, and the calculation accuracy is improved.

図34には図33にLPFを通した画像データで中心部分で80×40の(u,v)座標での矩形を回転させて、標準偏差を求めた結果を示す。図34から、標準偏差は基本的に2つのピークを持っていることが理解できる。θ=30.0°のピーク、その角度にほぼ直交する方向のピーク(θ=−60.1°)である。図35にLPF処理した図33の画像データについて標準偏差が最大値をとるθ=30°近傍での関数f(θ,u)の座標uに対する依存性を示す。図28(ピッチが細かい)の場合と図35(ピッチが粗い)を比較すれば、図35の場合は角度θに対して振動波形の振幅の依存性は緩和されていることが分る。   FIG. 34 shows the result of obtaining the standard deviation by rotating the rectangle at 80 × 40 (u, v) coordinates in the center portion of the image data passed through LPF in FIG. From FIG. 34, it can be understood that the standard deviation basically has two peaks. A peak at θ = 30.0 ° and a peak in a direction substantially perpendicular to the angle (θ = −60.1 °). FIG. 35 shows the dependence of the function f (θ, u) on the coordinate u in the vicinity of θ = 30 ° at which the standard deviation has the maximum value for the image data of FIG. 33 subjected to LPF processing. Comparing the case of FIG. 28 (fine pitch) and FIG. 35 (coarse pitch), it can be seen that the dependence of the amplitude of the vibration waveform on the angle θ is relaxed in the case of FIG.

図36、37には、標準偏差が最大のθ=30.0°(第1主方向)の場合とそれにほぼ直交する方向で、標準偏差が2番目に大きな極大値をとるθ=−60.1°(第2主方向)での、線広がり関数f(θ,u)のu依存性を示す。   In FIGS. 36 and 37, θ = −60.1 ° (the first standard deviation has the second largest maximum value in the case where θ = 30.0 ° (the first main direction) with the maximum standard deviation and the direction almost orthogonal thereto. (2 main directions) shows the u dependence of the line broadening function f (θ, u).

図38,39には40×40の(u,v)矩形領域を回転して求めたモアレ角度(θ)、モアレコントラスト(CR)、重心で表したモアレピッチを画面の5点で示す。ただし、図36,37の角度(θ=30.0°、θ=−60.1°)と図38,39の画面中心での角度が0.1°程度の誤差があるのは(u,v)矩形領域の大きさが異なるためである。モアレ画像をFPDに表示して撮像した画像からの測定結果とモアレチャートの条件とはよく対応している。ほんの少しだけLPFをかけるだけで、ノイズは低減させることができ、モアレのコントラストとピッチをより正確に求めることができた。   In FIGS. 38 and 39, the moire angle (θ), the moire contrast (CR), and the moire pitch expressed by the center of gravity obtained by rotating a 40 × 40 (u, v) rectangular area are shown by five points on the screen. However, the difference between the angles in FIGS. 36 and 37 (θ = 30.0 °, θ = −60.1 °) and the angle at the center of the screen in FIGS. 38 and 39 is about 0.1 ° (u, v) rectangular region. This is because the sizes of are different. The measurement result from the image captured by displaying the moire image on the FPD and the condition of the moire chart correspond well. With just a little LPF, noise could be reduced and the moiré contrast and pitch could be determined more accurately.

図32では中心部でθ=30°の方向とそれに直交するθ=−60°の方向のモアレコントラストの比は2:1になるように設定されているが、デジカメの撮像に基づく図38,39の出力でも0.0394:0.0224であり、ほぼ2:1となっている。また、図32では2方向のモアレピッチは画面中心では等しくFPD画素10個分であり、デジカメの撮像に基づく図38,39の出力でもほぼ同じ結果が得られている。   In FIG. 32, the ratio of the moire contrast between the direction of θ = 30 ° and the direction of θ = −60 ° orthogonal to the central portion is set to 2: 1. Even the output of 39 is 0.0394: 0.0224, which is almost 2: 1. In FIG. 32, the moire pitch in the two directions is equal to 10 FPD pixels at the center of the screen, and almost the same result is obtained in the outputs of FIGS. 38 and 39 based on the imaging of the digital camera.

図33にLPFを通した画像データからモアレパターンを抽出した結果を図40に示す。モアレパターンは正確に抽出されていることが分る。ここでモアレパターンは第1主方向のモアレと第2主方向のモアレを別々に抽出して描画して全体的なモアレを抽出している。   FIG. 33 shows the result of extracting the moire pattern from the image data that has passed through the LPF. It can be seen that the moiré pattern is accurately extracted. Here, the moire pattern extracts the overall moire by separately extracting and drawing the moire in the first main direction and the moire in the second main direction.

なお、本発明は基本的なものであり、モアレや解像度の計測に使わなくとも、ただ単にFPDに移された画像をFPDとイメージセンサとのモアレなしに撮像することにも利用できる。この際には、図3から図6のテストチャートをFPDに表示して順次撮像して後に、FPDに任意の画像を表示して撮像し、FPD画素毎の輝度の総和を求めれば任意の画像についてモアレの発生を抑制した画像を得ることができる。   Note that the present invention is basic and can be used to capture an image that has just been transferred to the FPD without moiré between the FPD and the image sensor, without being used for moiré or resolution measurement. In this case, the test charts of FIGS. 3 to 6 are displayed on the FPD and sequentially imaged, and then an arbitrary image is displayed and imaged on the FPD, and an arbitrary image can be obtained by calculating the sum of luminance for each FPD pixel. An image in which the occurrence of moire is suppressed can be obtained.

1…デジタルカメラ、2…カメラ固定用三脚、3…リモートシャッター、4…画像データ転送用ケーブル、 5…パソコン、6…フラットディスプレイパネル。   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 2 ... Camera fixing tripod, 3 ... Remote shutter, 4 ... Image data transfer cable, 5 ... Personal computer, 6 ... Flat display panel.

Claims (7)

複数の画素を有するフラットディスプレイパネルにクロスハッチチャートを映し出し、前記クロスハッチチャートを、前記フラットディスプレイパネルの画素よりも小さい複数の画素を有するイメージセンサを有するデジタルカメラによって撮像し、
前記デジタルカメラで撮像した撮像画像を用いて、前記フラットディスプレイパネルの画素に対する前記イメージセンサの画素の位置を検出し、
前記フラットディスプレイパネルに他の画像を映し出したときに、前記フラットディスプレイパネルの各画素における複数点の輝度を検出し、前記複数点の輝度の平均を検出することによって、前記フラットディスプレイパネルと前記イメージセンサの干渉によるモアレを抑制し、前記画像におけるモアレを検出することを特徴とする画像測定方法。
A cross hatch chart is projected on a flat display panel having a plurality of pixels, and the cross hatch chart is imaged by a digital camera having an image sensor having a plurality of pixels smaller than the pixels of the flat display panel;
Using the captured image captured by the digital camera, detecting the position of the pixel of the image sensor relative to the pixel of the flat display panel,
When other images are projected on the flat display panel, the flat display panel and the image are detected by detecting the luminance of a plurality of points in each pixel of the flat display panel and detecting the average of the luminances of the plurality of points. An image measurement method, wherein moiré due to sensor interference is suppressed and moiré in the image is detected.
複数の画素を有するフラットディスプレイパネルに生ずるモアレを測定する画像測定装置であって、
前記フラットディスプレイパネルにクロスハッチチャートを映し出し、前記クロスハッチチャートを、前記フラットディスプレイパネルの画素よりも小さい複数の画素を有するイメージセンサを有するデジタルカメラによって撮像し、
前記デジタルカメラで撮像した撮像画像を用いて、前記フラットディスプレイパネルの画素に対する前記イメージセンサの画素の位置を検出し、
前記フラットディスプレイパネルに他の画像を映し出したときに、前記フラットディスプレイパネルの各画素における複数点の輝度を検出し、前記複数点の輝度の平均を検出することによって、前記フラットディスプレイパネルと前記イメージセンサの干渉によるモアレを抑制し、前記画像におけるモアレを検出することを特徴とする画像測定装置。
An image measuring device for measuring moire generated in a flat display panel having a plurality of pixels,
Projecting a cross hatch chart on the flat display panel, imaging the cross hatch chart with a digital camera having an image sensor having a plurality of pixels smaller than the pixels of the flat display panel;
Using the captured image captured by the digital camera, detecting the position of the pixel of the image sensor relative to the pixel of the flat display panel,
When other images are projected on the flat display panel, the flat display panel and the image are detected by detecting the luminance of a plurality of points in each pixel of the flat display panel and detecting the average of the luminances of the plurality of points. An image measuring apparatus that suppresses moire caused by sensor interference and detects moire in the image.
前記他の画像は、全面が白のチャートであることを特徴とする請求項2に記載の画像測定装置。   The image measurement apparatus according to claim 2, wherein the other image is a white chart. 前記他の画像は、縦縞、または、横縞、または、全面白の別々の複数の画像であり、前記フラットディスプレイパネルの画像に生ずるモアレと解像度を同時に測定することを特徴とする請求項2に記載の画像測定装置。   3. The other image is a plurality of separate images of vertical stripes, horizontal stripes, or full white, and moiré and resolution generated in the image of the flat display panel are simultaneously measured. Image measuring device. 全面が白のチャートまたは全面が黒のチャートを撮像し、該撮像画像の情報を用いて白レベルまたは黒レベルの補正を行うことを特徴とする請求項2に記載の画像測定装置。   3. The image measuring apparatus according to claim 2, wherein a white chart or a black chart is imaged on the entire surface, and white level or black level correction is performed using information on the captured image. 前記フラットディスプレイパネルに矩形領域を定義し、前記矩形領域において、輝度を1方向に積分して線広がり関数(LSF)を求め、前記矩形領域を回転しながら前記線広がり関数の平均値からの標準偏差を最大にする角度をモアレ方向と定め、
さらに、振動する前記線広がり関数波形からモアレのピッチとコントラストを求めることを特徴とする請求項2に記載の画像測定装置。
A rectangular area is defined in the flat display panel, luminance is integrated in one direction in the rectangular area to obtain a line spread function (LSF), and a standard from an average value of the line spread function while rotating the rectangular area The angle that maximizes the deviation is defined as the moire direction,
The image measuring apparatus according to claim 2, further comprising obtaining a pitch and contrast of moire from the oscillating line broadening function waveform.
前記矩形領域において、輝度を1方向に積分して線広がり関数を求め、前記矩形領域を回転しながら、前記線広がり関数の平均値からの標準偏差を最大にする角度をモアレ方向と定め、
さらに、振動する線広がり関数の波形からモアレのピッチとコントラストを求めて前記矩形領域に対応する局所的なモアレパターンを描画し、
前記矩形領域をスキャンしながら全体的なモアレパターンを求めることを特徴とする請求項2に記載の画像測定装置。
In the rectangular area, luminance is integrated in one direction to obtain a line spread function, and while rotating the rectangular area, an angle that maximizes a standard deviation from the average value of the line spread function is defined as a moire direction,
Furthermore, by drawing the local moire pattern corresponding to the rectangular area by obtaining the pitch and contrast of the moire from the waveform of the vibrating line broadening function,
The image measuring apparatus according to claim 2, wherein an overall moire pattern is obtained while scanning the rectangular area.
JP2009196763A 2009-08-27 2009-08-27 Method and apparatus for measuring image Pending JP2011047808A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009196763A JP2011047808A (en) 2009-08-27 2009-08-27 Method and apparatus for measuring image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009196763A JP2011047808A (en) 2009-08-27 2009-08-27 Method and apparatus for measuring image

Publications (1)

Publication Number Publication Date
JP2011047808A true JP2011047808A (en) 2011-03-10

Family

ID=43834284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009196763A Pending JP2011047808A (en) 2009-08-27 2009-08-27 Method and apparatus for measuring image

Country Status (1)

Country Link
JP (1) JP2011047808A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103645036A (en) * 2013-12-30 2014-03-19 京东方科技集团股份有限公司 Moire pattern evaluation method and device
EP2605186A3 (en) * 2011-12-13 2014-08-27 Samsung Electronics Co., Ltd Method and apparatus for recognizing a character based on a photographed image

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2605186A3 (en) * 2011-12-13 2014-08-27 Samsung Electronics Co., Ltd Method and apparatus for recognizing a character based on a photographed image
US9082039B2 (en) 2011-12-13 2015-07-14 Samsung Electronics Co., Ltd Method and apparatus for recognizing a character based on a photographed image
US9235779B2 (en) 2011-12-13 2016-01-12 Samsung Electronics Co., Ltd. Method and apparatus for recognizing a character based on a photographed image
CN103645036A (en) * 2013-12-30 2014-03-19 京东方科技集团股份有限公司 Moire pattern evaluation method and device
US9506875B2 (en) 2013-12-30 2016-11-29 Boe Technology Group Co., Ltd. Detection-evaluation method and device for moiré pattern

Similar Documents

Publication Publication Date Title
US10965891B2 (en) Methods and apparatus for superpixel modulation
US9420276B2 (en) Calibration of light-field camera geometry via robust fitting
US9172853B2 (en) Microlens array architecture for avoiding ghosting in projected images
JP5257616B2 (en) Projector, program, information storage medium, and trapezoidal distortion correction method
JP7372199B2 (en) Projection system, projection device, and calibration method for its displayed image
EP1638345A1 (en) Method for calculating display characteristic correction data, program for calculating display characteristic correction data, and device for calculating display characteristic correction data
JP6302219B2 (en) MTF measuring apparatus and MTF measuring program
JPWO2018235163A1 (en) Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method
CN109074773A (en) For the perspective correction of flexible displays screen
JP2008500529A (en) Method for characterizing a digital imaging system
WO2019128495A1 (en) Method and apparatus for detecting image resolution, storage medium, and electronic device
CN107016210B (en) Imaging quality simulation method of Fresnel diffraction optical system
JP2013192240A (en) Projector, program, information storage medium, and trapezoidal distortion correction method
KR20120015980A (en) Method, system and computer program product for object color correction
JP2011047808A (en) Method and apparatus for measuring image
CN110852958B (en) Self-adaptive correction method and device based on object inclination angle
JP2014082678A (en) Marker embedding device, marker detection device, marker embedding method, marker detection method, and program
JP4548228B2 (en) Image data creation method
US20070230776A1 (en) System and method of testing imaging equipment using transformed patterns
US20160295187A1 (en) Information processing device and projection apparatus
CN101364303B (en) Edge pixel extracting and processing method
JP2020025224A (en) Camera evaluation value measuring device and camera evaluation value measuring method
WO2024101429A1 (en) Camera parameter calculation device, camera parameter calculation method, and camera parameter calculation program
CN114071099B (en) Smear measurement method and device, electronic equipment and readable storage medium
JP2003057146A (en) Method and device for evaluating color display device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Effective date: 20110218

Free format text: JAPANESE INTERMEDIATE CODE: A712

RD03 Notification of appointment of power of attorney

Effective date: 20110218

Free format text: JAPANESE INTERMEDIATE CODE: A7423