JP2012107893A - Optical characteristics measuring device and method - Google Patents

Optical characteristics measuring device and method Download PDF

Info

Publication number
JP2012107893A
JP2012107893A JP2010255041A JP2010255041A JP2012107893A JP 2012107893 A JP2012107893 A JP 2012107893A JP 2010255041 A JP2010255041 A JP 2010255041A JP 2010255041 A JP2010255041 A JP 2010255041A JP 2012107893 A JP2012107893 A JP 2012107893A
Authority
JP
Japan
Prior art keywords
measurement
imaging
pixel
optical film
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010255041A
Other languages
Japanese (ja)
Other versions
JP5715381B2 (en
Inventor
Akihiro Eguchi
明大 江口
Tomoyuki Shimoda
知之 下田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010255041A priority Critical patent/JP5715381B2/en
Priority to CN2011800545953A priority patent/CN103210294A/en
Priority to PCT/JP2011/075599 priority patent/WO2012066959A1/en
Priority to KR1020137011855A priority patent/KR101650226B1/en
Priority to TW100141596A priority patent/TWI532985B/en
Publication of JP2012107893A publication Critical patent/JP2012107893A/en
Application granted granted Critical
Publication of JP5715381B2 publication Critical patent/JP5715381B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/21Polarisation-affecting properties

Landscapes

  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Liquid Crystal (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To promptly and accurately measure the optical characteristics of an optical film of a wide area.SOLUTION: An optical film 12 which is a measuring object is placed on a surface illuminating portion 14. The surface illuminating portion 14 projects circular polarization toward the optical film 12. When the optical film 12 moves in an X-direction, measurement pixels E on the optical film 12 successively pass through a first to a forth imaging areas of a CCD camera in an imaging portion 15. The CCD camera images the measurement pixels E several times when the measurement pixels E pass through each imaging area. A value calculated by adding output values obtained by several imaging is made to be a measurement value in the imaging area. Stokes parameters of the measurement pixels E are calculated by the measurement values in the four imaging areas. The stokes parameters are obtained about all measurement pixels E on the optical film 12.

Description

本発明は、光学フイルムの偏光特性を測定する光学特性測定装置及び方法に関する。   The present invention relates to an optical property measuring apparatus and method for measuring the polarization property of an optical film.

液晶表示装置には、偏光板、視野角補正フイルム、反射防止フイルムなどの各種の光学特性を有する機能性プラスチック樹脂フイルム(以下「光学フイルム」という)が使用されている。液晶表示装置は、液晶のもつ複屈折特性を利用してコントラストを得ているため、使用する光学フイルムにも所定の複屈折特性をもたせる必要がある。この光学フイルムの複屈折特性が面全体にわたって均一性を有していない場合には、液晶表示装置における画像表示にムラが生じてしまうことになる。   In the liquid crystal display device, a functional plastic resin film (hereinafter referred to as “optical film”) having various optical characteristics such as a polarizing plate, a viewing angle correction film, and an antireflection film is used. Since the liquid crystal display device obtains contrast using the birefringence characteristic of the liquid crystal, the optical film to be used must have a predetermined birefringence characteristic. If the birefringence characteristic of the optical film is not uniform over the entire surface, unevenness in image display in the liquid crystal display device occurs.

したがって、液晶表示装置に光学フイルムを組み込む前には、フイルムが所望の複屈折特性を有しているか否かを測定する必要がある。複屈折特性の測定は、測定対象となる光学フイルムに対して測定光を照射する光源と、光学フイルムから出た光を受光する受光器と、光学フイルムの偏光特性などを測定するための位相差板や偏光板などの各種光学部材とを用いて行なわれる。   Therefore, before the optical film is incorporated into the liquid crystal display device, it is necessary to measure whether the film has a desired birefringence characteristic. Birefringence characteristics are measured using a light source that emits measurement light to the optical film to be measured, a light receiver that receives light emitted from the optical film, and a phase difference for measuring the polarization characteristics of the optical film. This is performed using various optical members such as a plate and a polarizing plate.

例えば、特許文献1では、光源と受光器であるCCDカメラの間においた位相差板を光軸まわりに回転させることによって様々な偏光状態を作り出している。そして、異なる偏光状態の画像をCCDカメラで撮像し、撮像により得られた画像群の各画素の輝度値変化から画素ごとに複屈折特性を算出している。また、特許文献2では、所定方向に搬送中の光学フイルムの複屈折特性をオンラインで測定する方法が開示されている。また、特許文献3では、フイルムを移動させながら測定を行う際に、CCDカメラの視野サイズと光学フイルムの移動速度とを考慮して撮像を繰り返すことによって、広い面積の光学フイルムの複屈折分布を測定する装置が開示されている。   For example, in Patent Document 1, various polarization states are created by rotating a retardation plate between a light source and a CCD camera as a light receiver around an optical axis. Then, images of different polarization states are picked up by a CCD camera, and birefringence characteristics are calculated for each pixel from the luminance value change of each pixel of the image group obtained by the image pickup. Patent Document 2 discloses a method for measuring the birefringence characteristics of an optical film being conveyed in a predetermined direction online. In Patent Document 3, when performing measurement while moving a film, imaging is repeated in consideration of the field of view size of the CCD camera and the moving speed of the optical film, so that the birefringence distribution of a wide area optical film is obtained. An apparatus for measuring is disclosed.

特開2009−229279号公報JP 2009-229279 A 特開平5−346397号公報JP-A-5-346397 特開2007−263593号公報JP 2007-263593 A

近年では、液晶表示装置が大型化していることから、それに組み込まれる光学フイルムも、広い面積を持った光学フイルムが使われるようになってきている。これに伴い、広い面積を有する光学フイルムの複屈折特性を測定できる装置や方法が求められている。例えば、20インチ程度の液晶表示装置には、A3程度の大きさの光学フイルムの検査が必要となる。   In recent years, since liquid crystal display devices have become larger, an optical film having a large area has been used as an optical film incorporated therein. Accordingly, there is a need for an apparatus and method that can measure the birefringence characteristics of an optical film having a large area. For example, an inspection of an optical film having a size of about A3 is necessary for a liquid crystal display device of about 20 inches.

この点において、上記の特許文献1〜3に示すような従来技術では、以下のような理由から、広面積の光学フイルムの複屈折特性を迅速且つ精度良く測定することができない問題がある。特許文献1の場合には、撮像レンズとしてテレセントリックレンズを用いることが望ましいが、レンズの視野はせいぜい一辺5cm前後であるので、A3サイズを一視野で検査することはできない。   In this regard, the conventional techniques as shown in Patent Documents 1 to 3 have a problem that the birefringence characteristics of a wide area optical film cannot be measured quickly and accurately for the following reasons. In the case of Patent Document 1, it is desirable to use a telecentric lens as the imaging lens. However, since the field of view of the lens is at most about 5 cm on a side, the A3 size cannot be inspected with one field of view.

したがって、CCDカメラの視野に合わせて、光学フイルムを複数の測定エリアに分け、その測定エリア毎に複屈折測定を行うことによって、全体の検査を行なう必要がある。このとき、各測定エリアにおいて、光学フイルムの偏光状態を測定するためにCCDカメラを静止させた状態で位相差板の角度を回転しながら撮像する必要がある。そのため、所定の測定エリアで撮像(静止)→別の測定エリアへCCDカメラを移動→別の測定エリアで撮像(静止)→・・・を繰り返すので、測定がなかなか進まずに時間がかかってしまう問題があった。   Accordingly, it is necessary to divide the optical film into a plurality of measurement areas in accordance with the field of view of the CCD camera, and to perform the entire inspection by performing birefringence measurement for each measurement area. At this time, in each measurement area, in order to measure the polarization state of the optical film, it is necessary to take an image while rotating the angle of the phase difference plate while the CCD camera is stationary. Therefore, imaging (stationary) in a given measurement area → moving the CCD camera to another measurement area → imaging (stationary) in another measurement area → ... repeats the measurement, so it takes time without progressing. There was a problem.

また、特許文献2では、光学フイルム上の一点を搬送方向に沿って測定している。特別な位相差板の回転がないことから、カメラまたはフイルムを停止することなく測定が可能である。そこで、一点測定を面測定に拡張するために、この測定装置を光学フイルムの幅方向に並べることが考えられる。しかしながら、特許文献2で示される測定装置の測定空間分解能が例えば1mm平方である場合には、この測定装置をA3サイズの光学フイルムの幅方向に配置しようとすると、全部で294台の装置が必要になってしまうことから、実現性はないといえる。ここで用いた「測定空間分解能」という言葉は、測定対象上の1測定点のサイズを意味しており、最終的に測定結果の分布を画像化したときにはその画像の画素サイズになる。   Moreover, in patent document 2, one point on an optical film is measured along a conveyance direction. Since there is no special retardation plate rotation, measurement is possible without stopping the camera or film. Therefore, in order to extend the single-point measurement to the surface measurement, it is conceivable to arrange this measuring device in the width direction of the optical film. However, if the measurement spatial resolution of the measurement apparatus disclosed in Patent Document 2 is 1 mm square, for example, a total of 294 apparatuses are required to arrange this measurement apparatus in the width direction of the A3 size optical film. Therefore, it can be said that there is no feasibility. The term “measurement spatial resolution” used here means the size of one measurement point on the measurement object, and when the measurement result distribution is finally imaged, it becomes the pixel size of the image.

また、特許文献3で使用するCCDカメラには、各受光素子に光学フイルムの偏光状態の測定に必要な偏光子が設けられているため、特許文献1のように撮像のたびに位相差板を回転させる必要はない。しかしながら、この特許文献3では、CCDカメラが有するノイズの問題を解決できていないため、高精度な測定を行うことができない。   Moreover, since the CCD camera used in Patent Document 3 is provided with a polarizer necessary for measuring the polarization state of the optical film in each light receiving element, a retardation plate is provided for each imaging as in Patent Document 1. There is no need to rotate. However, in this patent document 3, since the noise problem which a CCD camera has cannot be solved, a highly accurate measurement cannot be performed.

特許文献3では、1視野サイズの測定はCCDカメラの1回の撮像で得られる1枚の画像に基づいて行なわれている。CCDカメラにおいては、同一条件で連続撮像した場合にも、CCDのノイズによる輝度のばらつきによって、毎回得られる出力値には値の変動が生ずる。すなわち、特許文献3では測定の再現が不充分といわざるを得ない。   In Patent Document 3, one visual field size is measured based on one image obtained by one imaging with a CCD camera. In a CCD camera, even when continuous imaging is performed under the same conditions, the output value obtained each time varies due to variations in luminance due to CCD noise. That is, in Patent Document 3, it cannot be said that measurement reproduction is insufficient.

本発明は、2次元イメージセンサを用いてその撮像視野より広い面積をもつ光学フイルムの偏光特性を測定する場合に、複数の偏光状態の撮像のためにイメージセンサを光学フイルム上に静止させる必要性を無くすとともに、測定精度をあげるために行う同じ画像の複数回撮像についてもイメージセンサを停止させることなく行える様にした。このため、迅速で高い測定精度を有する偏光特性測定装置及び方法を提供することを目的とするものである。
When measuring polarization characteristics of an optical film having an area larger than the imaging field of view using a two-dimensional image sensor, the present invention requires the image sensor to be stationary on the optical film for imaging in a plurality of polarization states. In addition, the image sensor can be taken multiple times without stopping the image sensor in order to improve measurement accuracy. Therefore, it is an object of the present invention to provide a polarization characteristic measuring apparatus and method that have a rapid and high measurement accuracy.

本発明の光学特性測定装置は、測定対象に特定の偏光照明を照射する投光手段と、第1の方向に波長板を整列して配列して、第1の方向に少なくとも4種類の偏光特性を具現化し、かつ、前記波長板を透過した光を個別に撮像する撮像エリアに区画されたイメージセンサを備えた撮像手段と、測定対象に対して撮像手段を相対的に前記第1の方向に移動させる走査手段とを備え、前記走査手段による撮像手段の相対移動に伴い、測定対象の各測定画素が各撮像エリアで複数回撮像されて得られる出力値を測定画素ごとに加算してその撮像エリアでの測定値をつくるとともに、各撮像エリアから集まった測定値から、測定画素ごとの光のストークスパラメータを算出することを特徴とする。前記イメージセンサは、多数の画素からなる撮像素子で撮像を行い、撮像時には、隣接する複数の画素を結合した結合セルごとに1つの出力値を出力することが好ましい。測定対象から出た光とイメージセンサの各撮像エリアから出力される出力値との関係を表す偏光伝達行列を、測定の前に結合セル単位で求めておいて、前記偏光伝達行列と前記各撮像エリアから出力される出力値とを用いて、測定対象のストークスパラメータを求めることが好ましい。   The optical characteristic measuring apparatus according to the present invention includes at least four types of polarization characteristics in the first direction by arranging a light projecting unit that irradiates a measurement object with specific polarized illumination and a wave plate aligned in the first direction. And an imaging means including an image sensor partitioned into an imaging area for individually imaging light transmitted through the wave plate, and the imaging means relative to the measurement target in the first direction. A scanning means for moving, and with the relative movement of the imaging means by the scanning means, an output value obtained by imaging each measurement pixel to be measured a plurality of times in each imaging area is added for each measurement pixel and imaging is performed. In addition to creating a measurement value in the area, a Stokes parameter of light for each measurement pixel is calculated from the measurement values collected from each imaging area. It is preferable that the image sensor captures an image with an image sensor including a large number of pixels, and outputs one output value for each combined cell obtained by combining a plurality of adjacent pixels. Before the measurement, a polarization transfer matrix representing the relationship between the light emitted from the measurement object and the output value output from each imaging area of the image sensor is obtained for each coupled cell, and the polarization transfer matrix and each imaging It is preferable to obtain the Stokes parameter to be measured using the output value output from the area.

図1に示すように、測定対象である光学フイルム12の測定には測定空間分解能が与件として定められるため、最終的な測定結果は光学フイルム12を測定空間分解能の大きさで細分化した微小エリアごとの測定結果の集合、すなわち光学特性の面分布情報である。測定対象である光学フイルム12上には、測定空間分解能で仮想的に細分化されたエリアがあるとみなし、この1つ1つのエリアを総称して、これ以降、「測定画素E」と呼ぶ。   As shown in FIG. 1, the measurement spatial resolution is determined as a condition for the measurement of the optical film 12 as a measurement target. Therefore, the final measurement result is a microscopic image obtained by subdividing the optical film 12 by the size of the measurement spatial resolution. It is a set of measurement results for each area, that is, surface distribution information of optical characteristics. On the optical film 12 to be measured, it is assumed that there are virtually subdivided areas with the measurement spatial resolution, and each of these areas is collectively referred to as “measurement pixel E” hereinafter.

前記イメージセンサは、撮像により得られる出力値を結合セル単位で出力することが好ましい。ここでいう「結合セル」とは、隣接するイメージセンサの撮像セルを縦横に所定個数まとめて1つの大きなセル(結合セル)とし、そのセルの出力値は、結合セルに含まれる全ての撮像セルの出力値を平均した値とするものである。この1つ1つの結合セルを総称して、これ以降、「結合セルCP」と呼ぶ。   The image sensor preferably outputs an output value obtained by imaging in units of combined cells. The “combined cell” referred to here is a large cell (combined cell) in which a predetermined number of imaging cells of adjacent image sensors are vertically and horizontally arranged, and the output value of the cell is all the imaging cells included in the combined cell. The output value is averaged. Each of the combined cells is collectively referred to as “combined cell CP” hereinafter.

このように結合セルCP単位で撮像を行なう理由は、以下のとおりである。図2のグラフは、イメージセンサとして12ビット出力のCCDカメラを使用したときの出力値のばらつきを示したものである。このグラフは、所定数の画素を結合した結合セルに対して比較的明るい光(出力値が3740付近になる光)を入力し、単純に256回測定を行なって全出力値のうち最大値から最小値を引いたばらつき幅をプロットしたものである。このグラフでは、縦軸はCCDカメラの出力値のばららつきを、横軸は画素の結合数を示す結合セル数を表している。ここで、例えば、結合セル数が4の結合セルは、縦2画素、横2画素を有している。なお、図2において、黒丸はCCDカメラの出力値のばらつき幅(測定結果)を、点線は黒丸から得た近似曲線を表している。この結果から、CCDカメラの出力にのるノイズは、結合セル数のほぼマイナス1/2乗に比例しており、ランダムノイズの性質があることがわかる。   The reason why imaging is performed in units of coupled cells CP in this way is as follows. The graph of FIG. 2 shows variations in output values when a 12-bit output CCD camera is used as an image sensor. In this graph, relatively bright light (light whose output value is near 3740) is input to a combined cell in which a predetermined number of pixels are combined, and the measurement is simply performed 256 times, from the maximum value of all output values. This is a plot of the variation width minus the minimum value. In this graph, the vertical axis represents the variation in the output value of the CCD camera, and the horizontal axis represents the number of combined cells indicating the number of combined pixels. Here, for example, a combined cell with 4 combined cells has 2 vertical pixels and 2 horizontal pixels. In FIG. 2, the black circles represent the variation width (measurement result) of the output values of the CCD camera, and the dotted line represents the approximate curve obtained from the black circles. From this result, it can be seen that the noise on the output of the CCD camera is proportional to the minus half power of the number of combined cells and has the property of random noise.

このグラフが示すように1セル、4セル、9セル、16セル、・・・とセルサイズ(結合セル数)を大きくするごとに、CCDカメラの出力値のばらつきが低くなっている。したがって、結合セル数をある程度大きくして撮像を行なわなければ、CCDカメラの出力値のばらつきが大きいため、撮像数を増やして平均化等をしない限り、精度良く測定することができない。なお、このグラフを得るために用いたCCDは、1/1.8インチ、200万画素、撮像セルサイズは4.4μm□のものである。   As shown in this graph, as the cell size (number of combined cells) is increased to 1 cell, 4 cells, 9 cells, 16 cells,. Therefore, unless the number of coupled cells is increased to some extent, the output value of the CCD camera varies greatly, so that accurate measurement cannot be performed unless the number of captured images is increased and averaging is performed. The CCD used to obtain this graph is 1 / 1.8 inches, 2 million pixels, and the imaging cell size is 4.4 μm.

結合セルCPを構成する画素の個数は、1、4、9・・・のように、1から始まる N(Nは自然数)の数列の数が好ましく、最大値は前記イメージセンサ上に結像される測定対象の測定空間分解能(すなわち測定画素Eの大きさ)が結合セルの大きさになる数とする。 The number of pixels constituting the combined cell CP is preferably a number of N 2 (N is a natural number) starting from 1, such as 1, 4, 9,..., And the maximum value is formed on the image sensor. It is assumed that the measurement spatial resolution of the measurement target to be measured (that is, the size of the measurement pixel E) is the number that becomes the size of the combined cell.

図3に、撮像部15を示す。ここではイメージセンサとしてCCDを用いた例を示すが、イメージセンサとしてはCMOSでも良い。波長板は1枚につき1種類の偏光特性を具現化するとして4枚使用した例を示している。波長板の数も、後で述べるように4種類だけに限らない。撮像部15の構造は、カメラケース40と、CCDカメラ41と、テレセントリックレンズ42と、CCDカメラ回転機構43と、第1〜第4波長板45〜48と、偏光板49とを備えている。カメラケース40は略直方体形状を有しており、第1〜第4波長板45〜48および偏光板49を取り付けるための開口40a(図4参照)が1つ形成されている。このカメラケース40内に、CCDカメラ41、テレセントリックレンズ42、CCDカメラ回転機構43が設けられている。なお、CCDカメラ回転機構43は、結合セルの2次元配列の1方向を走査手段の走査方向と一致させる調整目的のためにある。なお、図3における矢印Xは、測定対象の相対移動方向(測定対象または撮像部のどちらが移動しても良い)を示している。   FIG. 3 shows the imaging unit 15. Here, an example using a CCD as an image sensor is shown, but a CMOS may be used as the image sensor. In this example, four wave plates are used to realize one kind of polarization characteristic per wave plate. The number of wave plates is not limited to four as will be described later. The structure of the imaging unit 15 includes a camera case 40, a CCD camera 41, a telecentric lens 42, a CCD camera rotation mechanism 43, first to fourth wavelength plates 45 to 48, and a polarizing plate 49. The camera case 40 has a substantially rectangular parallelepiped shape, and one opening 40a (see FIG. 4) for attaching the first to fourth wave plates 45 to 48 and the polarizing plate 49 is formed. In this camera case 40, a CCD camera 41, a telecentric lens 42, and a CCD camera rotation mechanism 43 are provided. The CCD camera rotation mechanism 43 is provided for the purpose of adjusting the one direction of the two-dimensional array of coupled cells to coincide with the scanning direction of the scanning means. Note that an arrow X in FIG. 3 indicates the relative movement direction of the measurement target (either the measurement target or the imaging unit may move).

テレセントリックレンズ42は、両側テレセントリックレンズか物体側テレセントリックレンズを用いる。テレセントリックレンズ42は、測定対象の像をCCD上にそのレンズ倍率を掛けた大きさで結像する。(倍率としては、1倍〜1/3倍のものが使用される。)テレセントリックレンズの深い焦点深度と光軸に平行な光束を捕捉する能力のために、各波長板を透過した光は混じり合うことなくイメージセンサに届き、それぞれの波長板に対応した個別のエリアを形成する。この各波長板を通過した光束でもってできる実質的に波長板によって区画されたCCD上の各エリアを、以後、総称して「撮像エリア」と呼ぶ。   As the telecentric lens 42, a double-sided telecentric lens or an object-side telecentric lens is used. The telecentric lens 42 forms an image of the measurement object on the CCD with a size obtained by multiplying the lens magnification. (A magnification of 1 to 1/3 is used.) The light transmitted through each wave plate is mixed because of the deep focal depth of the telecentric lens and the ability to capture the light beam parallel to the optical axis. It reaches the image sensor without matching and forms an individual area corresponding to each wave plate. Hereinafter, each area on the CCD substantially divided by the wave plate that is formed by the light beam that has passed through each wave plate is collectively referred to as an “imaging area”.

光学フイルム12上のある1つの測定画素Eが、第1〜第4波長板45〜48を通して、撮像部15でどのように測定されるかを、図4を用いて説明する。
なお、図4においては、説明を判りやすくするためテレセントリックレンズ42における縮小または拡大効果、さらに倒置結像効果を図に含めておらず、光学フイルム12上の1点がCCD55上に等倍で正立に結像するように描いてある。
How one measurement pixel E on the optical film 12 is measured by the imaging unit 15 through the first to fourth wavelength plates 45 to 48 will be described with reference to FIG.
In FIG. 4, the reduction or enlargement effect in the telecentric lens 42 and the inverted imaging effect are not included in the figure for the sake of easy understanding, and one point on the optical film 12 is the same magnification on the CCD 55. It is drawn to form a vertical image.

まず、光学フイルム12上のある測定画素Eが走査手段により撮像部15の視野内に入ってきた時、測定画素Eから出た光は、最初に第1波長板45の区画に入りしばらくの間この区画を横断する。第1波長板45はテレセントリックレンズ42の作用で、CCD55上に対応する撮像エリア50に結像するので、測定画素Eが第1波長板45の区画を横断中、測定画素Eの像は撮像エリア50の区画を横断し、測定画素Eの一定距離の移動にあわせて複数回の撮像が行われる。同様に、第2〜第4波長板46〜48は、撮像エリア51〜53に結像し、測定画素Eはここでも複数回の撮像が行われる。   First, when a certain measurement pixel E on the optical film 12 enters the field of view of the imaging unit 15 by the scanning means, the light emitted from the measurement pixel E first enters the section of the first wavelength plate 45 for a while. Cross this section. The first wave plate 45 is imaged in the imaging area 50 corresponding to the CCD 55 by the action of the telecentric lens 42. Therefore, while the measurement pixel E crosses the section of the first wave plate 45, the image of the measurement pixel E is the imaging area. Crossing 50 sections, imaging is performed a plurality of times in accordance with the movement of the measurement pixel E by a certain distance. Similarly, the second to fourth wavelength plates 46 to 48 are imaged in the imaging areas 51 to 53, and the measurement pixel E is also imaged a plurality of times.

撮像手段に入射した光のストークスパラメータとイメージセンサから出力される出力値との関係を表す偏光伝達行列を、事前にCCDの結合セルCR単位で求めておく。   A polarization transfer matrix representing the relationship between the Stokes parameter of light incident on the imaging means and the output value output from the image sensor is obtained in advance for each CCD combined cell CR.

撮像で得られた測定画素Eに関するCCDの出力値は、測定画素Eから出た光のストークスパラメータとそれを撮像した結合セルが持つ偏光伝達行列の行列積である。   The CCD output value for the measurement pixel E obtained by imaging is the matrix product of the Stokes parameter of the light emitted from the measurement pixel E and the polarization transfer matrix of the combined cell that has imaged it.

撮像で得られた測定画素Eに関するCCDの各出力値は撮像エリアごとに加算して、その撮像エリアにおける測定値として取り出す。同時に、測定画素Eの撮像時に使われる結合セルCRの偏光伝達行列の行列和も撮像エリアごと行っておく。こうして、測定画素Eに関する、測定値と光のストークスパラメータと偏光伝達行列の関係式が、撮像エリアの数(または具現化した偏光状態の種類の数)だけ得られる。測定値は撮像エリアの数の4種類あるためこれからストークスパラメータが算出できる。この工程を、測定画素Eごとに行うことで、測定対象のストークスパラメータの面分布情報を算出する。   The output values of the CCD relating to the measurement pixel E obtained by imaging are added for each imaging area, and are taken out as measurement values in the imaging area. At the same time, the matrix sum of the polarization transfer matrix of the combined cell CR used when imaging the measurement pixel E is also performed for each imaging area. Thus, the relational expression of the measurement value E, the Stokes parameter of light, and the polarization transfer matrix for the measurement pixel E is obtained by the number of imaging areas (or the number of types of polarization states embodied). Since there are four types of measurement values, the number of imaging areas, Stokes parameters can be calculated from this. By performing this process for each measurement pixel E, the surface distribution information of the Stokes parameter to be measured is calculated.

前記イメージセンサは、所定の測定画素が隣接する2つの結合セルに跨って撮像されることが好ましい。前記所定の測定画素の出力値は、一方の結合セルのうち所定の測定画素を撮像した画素が占める割合とその画素の出力平均値を掛けたものと、他方の結合セルのうち所定の測定画素を撮像した画素が占める割合とその画素の出力平均値を掛けたものとからなることが好ましい。   In the image sensor, it is preferable that a predetermined measurement pixel is imaged across two adjacent combined cells. The output value of the predetermined measurement pixel is obtained by multiplying the ratio of the pixel that has captured the predetermined measurement pixel in one combined cell by the output average value of the pixel, and the predetermined measurement pixel in the other combined cell. It is preferable that the ratio of a pixel occupied by imaging is multiplied by an average output value of the pixel.

前記移動手段は、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に移動させるとともに、前記撮像手段による測定対象の第1の方向の撮像が完了するごとに、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に直角で測定対象とは平行な第2の方向に移動させることが好ましい。   The moving unit moves at least one of the measurement target and the imaging unit in the first direction, and each time imaging of the measurement target in the first direction by the imaging unit is completed, the measurement unit or the imaging unit It is preferable that at least one of them is moved in a second direction perpendicular to the first direction and parallel to the measurement object.

前記移動手段が、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に直角で測定対象とは平行な第2の方向に移動させる場合には、撮像手段と投光手段の第2の方向における位置関係に変化が生じないように移動させて、投光手段の偏光照射幅を撮像手段の第2の方向の視野幅を照射できる程度に狭くしたことが好ましい。   When the moving means moves at least one of the measuring object and the imaging means in a second direction perpendicular to the first direction and parallel to the measuring object, the second means of the imaging means and the light projecting means It is preferable to move so that the positional relationship in the direction does not change so that the polarized light irradiation width of the light projecting means is narrow enough to irradiate the visual field width in the second direction of the imaging means.

前記波長板によって具現化される偏光の種類の数が、4ないし40であることが好ましい。前記波長板は、遅相量が70°ないし170°または、190°ないし290°のいずれかである波長板と同様の遅相効果を持つことが好ましい。   The number of types of polarized light embodied by the wave plate is preferably 4 to 40. The wave plate preferably has a retardation effect similar to that of a wave plate having a retardation amount of 70 ° to 170 ° or 190 ° to 290 °.

本発明の光学特性測定方法は、第1の方向に波長板を整列して配列して、第1の方向に少なくとも4種類の偏光特性を具現化し、かつ、前記波長板を透過した光を個別に撮像する撮像エリアに区画されたイメージセンサを備えた撮像手段を用いて、測定対象に対して撮像手段を相対的に前記第1の方向に移動させ、測定対象の各測定画素が各撮像エリアで複数回撮像されて得られる出力値を加算して測定画素ごとにその撮像エリアでの測定値をつくるとともに、各撮像エリアから同様にして集まった測定値から測定画素ごとに、測定対象から出た光のストークスパラメータを算出することを特徴とする。   In the optical characteristic measuring method of the present invention, the wave plates are aligned and arranged in the first direction to realize at least four kinds of polarization characteristics in the first direction, and the light transmitted through the wave plate is individually provided. The image pickup means having an image sensor divided into the image pickup areas to be picked up is used to move the image pickup means relative to the measurement target in the first direction so that each measurement pixel of the measurement target is in each image pickup area. The output values obtained by imaging multiple times are added to create a measurement value in the imaging area for each measurement pixel, and the measurement values collected in the same manner from each imaging area are output from the measurement target for each measurement pixel. The Stokes parameter of the obtained light is calculated.

本発明によれば、偏光特性の異なる少なくとも4種類の波長板が第1の方向に整列して配列され、前記波長板の各々を透過した光を個別に撮像する波長板の4つの撮像エリアから構成されている撮像手段を用いているため、測定対象の撮像手段に対する第1の方向への移動に伴い、測定対象上の各測定画素は4種類以上の偏光測定撮像が前記相対移動中に連続して行われる。更に、1つの撮像エリア内では、各測定画素は異なる測定画素で複数回撮像され、そのおのおのの測定画素の偏光伝達行列が事前測定されているため、同一測定の複数回測定として実質平均処理が出来てS/N比を向上させることが出来る。このように、撮像手段を測定対象に対し止めることなく相対移動しながら、4種以上の偏光状態測定と複数回撮像を同時に達成することができる。測定対象の第1の方向への移動完了(すなわち測定完了)後は、撮像対象を視野幅分第2の方向に移動させることにより、測定面を広げることができ、第1の方向への移動撮像と第2の方向への移動の繰り返しで測定対象の全面測定が可能になる。4種類以上の偏光状態の測定を行っているため、測定ストークスパラメータが決定できる。光源のストークスパラメータと測定ストークスパラメータの比較をすることで、測定対象の偏光特性を算出できる。   According to the present invention, at least four types of wave plates having different polarization characteristics are arranged in alignment in the first direction, and from the four imaging areas of the wave plate for individually imaging the light transmitted through each of the wave plates. Since the configured image pickup means is used, each measurement pixel on the measurement object is continuously subjected to four or more types of polarization measurement image pickup during the relative movement as the measurement object moves in the first direction with respect to the image pickup means. Done. Furthermore, within one imaging area, each measurement pixel is imaged multiple times with different measurement pixels, and the polarization transfer matrix of each measurement pixel is pre-measured, so the real average processing is performed as multiple measurements of the same measurement. It is possible to improve the S / N ratio. In this way, it is possible to simultaneously achieve four or more types of polarization state measurements and a plurality of times of imaging while moving the imaging means relative to the measurement object without stopping. After completion of movement of the measurement object in the first direction (ie, completion of measurement), the measurement surface can be widened by moving the imaging object in the second direction by the visual field width, and movement in the first direction is performed. The entire surface of the measurement object can be measured by repeating the imaging and the movement in the second direction. Since four or more polarization states are measured, the measurement Stokes parameter can be determined. By comparing the Stokes parameter of the light source with the measured Stokes parameter, the polarization characteristic of the measurement object can be calculated.

このように本発明によれば広面積の光学フイルムの偏光特性を迅速且つ精度良く測定することができる。例えば、空間分解能1mm□、軸方位測定精度0.1°の条件で、従来方法で約10分を要していたものが、本発明においては、約2分半で測定することができる。即ち、本発明によれば、従来方法と比較して、約4倍の高速化を達成することができる。   As described above, according to the present invention, the polarization characteristics of a wide area optical film can be measured quickly and accurately. For example, in the present invention, the measurement can be performed in about two and a half minutes while the conventional method requires about 10 minutes under conditions of a spatial resolution of 1 mm □ and an axial direction measurement accuracy of 0.1 °. That is, according to the present invention, a speed increase of about 4 times can be achieved as compared with the conventional method.

試料である光学フイルムの測定画素を説明する説明図である。It is explanatory drawing explaining the measurement pixel of the optical film which is a sample. 結合セル数とCDDカメラの出力値のばらつき(出力値12ビットのカメラにおいて高輝度な3740/4096付近のデータ)との関係を表すグラフである。It is a graph showing the relationship between the number of combined cells and the variation in the output value of the CDD camera (data near high brightness 3740/4096 in a camera with an output value of 12 bits). 撮像部の概略図である。It is the schematic of an imaging part. CCDカメラの第1〜第4撮像エリアで測定画素Eを撮像することを説明するための説明図である。It is explanatory drawing for demonstrating imaging the measurement pixel E in the 1st-4th imaging area of a CCD camera. 本発明の光学特性測定装置の概略図である。It is the schematic of the optical characteristic measuring apparatus of this invention. 本発明の作用を表すフローチャートである。It is a flowchart showing the effect | action of this invention. 面照明部の投光画素を説明する説明図である。It is explanatory drawing explaining the light projection pixel of a surface illumination part. 偏光伝達行列を求めるために使用する光及び撮像部を示す概略図である。It is the schematic which shows the light used in order to obtain | require a polarization transfer matrix, and an imaging part. キャリブレーション測定と測定において使用されるXYアドレスをもつ記憶領域における1要素の2次元配列構造を示す概略図である。It is the schematic which shows the two-dimensional array structure of 1 element in the storage area with the XY address used in a calibration measurement and a measurement. CCDカメラの第1撮像エリア内の各結合セルにより測定画素E1を撮像することを説明するための説明図である。It is explanatory drawing for demonstrating imaging of the measurement pixel E1 by each combined cell in the 1st imaging area of a CCD camera. CCDカメラの第2〜第4撮像エリア内の各結合セルにより測定画素E1を撮像することを説明するための説明図である。It is explanatory drawing for demonstrating imaging the measurement pixel E1 by each combined cell in the 2nd-4th imaging area of a CCD camera. 測定画素E1〜Enの撮像により得られる出力値を第1〜第4記憶部E11〜En4に記憶することを説明するための説明図である。It is explanatory drawing for demonstrating memorize | stored in the 1st-4th memory | storage part E11-En4 the output value obtained by imaging of the measurement pixels E1-En. 結合セルCP11及びCP12が7:3の割合で測定画素E1を撮像する場合を説明するための説明図である。It is explanatory drawing for demonstrating the case where combined cell CP11 and CP12 image the measurement pixel E1 in the ratio of 7: 3. 測定画素E1が結合セルCP11〜CP15で11回撮像されることを説明するための説明図である。It is explanatory drawing for demonstrating that the measurement pixel E1 is imaged 11 times by combined cell CP11-CP15. 結合セルCP11及びCP12が5:5の割合で測定画素E1を撮像する場合を説明するための説明図である。It is explanatory drawing for demonstrating the case where combined cell CP11 and CP12 image the measurement pixel E1 in the ratio of 5: 5. 使用する波長板の遅相量と計算誤差量の関係を示すグラフである。It is a graph which shows the relationship between the amount of retardation of the wavelength plate to be used, and the amount of calculation errors. 使用する波長板の遅相量と計算誤差量の関係を示す表である。It is a table | surface which shows the relationship between the amount of retardation of the wavelength plate to be used, and the amount of calculation errors. 第1〜第4波長板がCCDカメラの直前に設けられた撮像部を示す概略図である。It is the schematic which shows the imaging part in which the 1st-4th wavelength plate was provided just before the CCD camera. 照明部を細くして製作した測定装置の概略図である。It is the schematic of the measuring apparatus manufactured by making an illumination part thin. 2台のCCDカメラを備える測定装置を示す概略図である。It is the schematic which shows a measuring apparatus provided with two CCD cameras.

図5に示すように、本発明の光学特性測定装置10は、所定の複屈折特性を有する光学フイルム12を測定対象として測定する。光学特性測定装置10においては、試料ステージ13に取り付けられた面照明部14上に、測定対象の光学フイルム12が載せられる。そして、面照明部14から発せられた円偏光の照明光で光学フイルム12を照明し、この光学フイルム12から出た光を撮像部15で試料ステージ13をX方向に移動させながら撮像する。そして、コンピュータ16は、撮像部15で得られた出力値に基づいて各種解析を行なうことによって、光学フイルム12の光学特性を求める。なお、偏光照明として楕円偏光を用いてもよい。   As shown in FIG. 5, the optical property measuring apparatus 10 of the present invention measures an optical film 12 having a predetermined birefringence property as a measurement object. In the optical characteristic measuring apparatus 10, the optical film 12 to be measured is placed on the surface illumination unit 14 attached to the sample stage 13. The optical film 12 is illuminated with circularly polarized illumination light emitted from the surface illumination unit 14, and the light emitted from the optical film 12 is imaged while the sample stage 13 is moved in the X direction by the imaging unit 15. Then, the computer 16 obtains the optical characteristics of the optical film 12 by performing various analyzes based on the output values obtained by the imaging unit 15. Note that elliptically polarized light may be used as the polarized illumination.

試料ステージ13は、X方向移動機構20によって、基台22上の2本のレール22a,22bに沿ってX方向に移動可能となっている。また、X方向移動機構20は、Xモータドライバ24から出力される駆動パルスに基づいて駆動するサーボモータから構成される。   The sample stage 13 can be moved in the X direction along two rails 22 a and 22 b on the base 22 by the X direction moving mechanism 20. The X-direction moving mechanism 20 includes a servo motor that is driven based on a driving pulse output from the X motor driver 24.

同様に、撮像部15は、支持台30に設けられたアーム31に取り付けられている。アーム31は、Y方向移動機構33によって、X方向と直交するY方向に移動可能となっているとともに、Z方向移動機構34によって、X方向またはY方向に直交するZ方向に移動可能となっている。このようにアーム31がY方向またはZ方向に移動することで、撮像部15もY方向またはZ方向に移動可能となる。なお、Z方向への移動目的は撮像部15のピント調整のためである。Y方向移動機構33は、Yモータドライバ(図示せず)から出力される駆動パルスに基づいて駆動する。   Similarly, the imaging unit 15 is attached to an arm 31 provided on the support base 30. The arm 31 can be moved in the Y direction orthogonal to the X direction by the Y direction moving mechanism 33, and can be moved in the Z direction orthogonal to the X direction or Y direction by the Z direction moving mechanism 34. Yes. As described above, when the arm 31 moves in the Y direction or the Z direction, the imaging unit 15 can also move in the Y direction or the Z direction. The purpose of moving in the Z direction is to adjust the focus of the imaging unit 15. The Y-direction moving mechanism 33 is driven based on a drive pulse output from a Y motor driver (not shown).

Xモータドライバ24とYモータドライバからの駆動パルスは、それぞれXパルスカウンタ26とYパルスカウンタ(図示せず)にも送信される。各パルスカウンタは、受信した駆動パルスをカウントする。パルスカウンタでカウントされた値は、コンピュータ16に送られる。コンピュータ16では、1パルスあたりの試料ステージ13の移動量と撮像部15の移動量を記憶しているため、両パルスカウンタのカウント値から撮像部15の視野が試料ステージ13上のどの位置にあるかを把握することができる。   Drive pulses from the X motor driver 24 and the Y motor driver are also transmitted to an X pulse counter 26 and a Y pulse counter (not shown), respectively. Each pulse counter counts the received drive pulses. The value counted by the pulse counter is sent to the computer 16. Since the computer 16 stores the amount of movement of the sample stage 13 per pulse and the amount of movement of the imaging unit 15, the visual field of the imaging unit 15 is located on the sample stage 13 from the count values of both pulse counters. I can understand.

次に、本発明の作用について図6のフローチャートに沿って説明する。まず、最初に行うのが測定準備で、ここでは、CCDカメラ41の結合セルCP単位で撮像部15の偏光伝達行列を特定する。この作業は、初期設定として1回だけ行われる。求めた偏光伝達行列はコンピュータ16内に記憶され、初期設定以降は、その求めた偏光伝達行列を用いる。   Next, the operation of the present invention will be described with reference to the flowchart of FIG. First, measurement preparation is performed first, and here, the polarization transfer matrix of the imaging unit 15 is specified for each coupled cell CP of the CCD camera 41. This operation is performed only once as an initial setting. The obtained polarization transfer matrix is stored in the computer 16, and after the initial setting, the obtained polarization transfer matrix is used.

測定準備の次に行うのがキャリブレーション測定である。ここでは面照明部14から発せられる光のストークスパラメータ(以後Sパラメータと記す)を面照明部14の全面に渡って測定解像度の単位で測定する。   Calibration measurement is performed after measurement preparation. Here, the Stokes parameter (hereinafter referred to as S parameter) of the light emitted from the surface illumination unit 14 is measured in units of measurement resolution over the entire surface of the surface illumination unit 14.

投光手段としての面照明部14には、図7に示すような、仮想的に測定解像度の単位で細分化されたエリアがあるとみなし、この1つ1つのエリアを総称して、これ以降、「投光画素L」と呼ぶ。よって、キャリブレーション測定とは、投光画素単位LでSパラメータを求める工程である。   As shown in FIG. 7, the surface illumination unit 14 serving as a light projecting unit is regarded as having virtually subdivided areas in units of measurement resolution, and the individual areas are collectively referred to hereinafter. , Called “projection pixel L”. Therefore, the calibration measurement is a step of obtaining the S parameter in the light projection pixel unit L.

キャリブレーション測定は、光源変動がない限り行う必要がないが、おおむね1日の最初の測定時に行うことが望ましい。   The calibration measurement need not be performed unless there is a light source variation, but it is desirable to perform the calibration measurement at the first measurement day.

キャリブレーション測定の次に行うのが実測定で、ここでは、面照明部14の上に光学フイルム12を置いて光学フイルム12を透過してくる光のSパラメータを光学フイルム12の全面に渡って測定対象測定解像度(即ち、測定対象E)単位で測定する。   The actual measurement is performed next to the calibration measurement. Here, the optical film 12 is placed on the surface illumination unit 14 and the S parameter of the light transmitted through the optical film 12 is spread over the entire surface of the optical film 12. Measurement is performed in units of measurement resolution (ie, measurement target E).

最後に、実測定で得たSパラメータと照明部のSパラメータを比較して測定対象の複屈折特性を算出する。ここで重要なことは、実測定での各測定画素Eの位置とキャリブレーション測定での各投光画素Lの位置を一致させることで、これには測定対象ステージがもつカウンタが使用される。カウンタの現在値によりカメラの各結合セルが測定対象ステージのどの場所を捕らえているか判るので、測定時に得られる各結合セルの出力値を的確に各投光画素L、または各測定画素Eに振り分けることができる。   Finally, the birefringence characteristic of the measurement object is calculated by comparing the S parameter obtained by actual measurement with the S parameter of the illumination unit. What is important here is to match the position of each measurement pixel E in actual measurement with the position of each projection pixel L in calibration measurement, and a counter of the measurement target stage is used for this purpose. The current value of the counter tells where each combined cell of the camera captures the stage to be measured. Therefore, the output value of each combined cell obtained at the time of measurement is accurately distributed to each projection pixel L or each measurement pixel E. be able to.

以下に、測定準備工程から詳細に述べる。測定準備工程は、本装置の撮像部15に用いられるCCDカメラの各結合セルの偏光伝達行列を実測定に先駆けて特定しておく工程である。この特定に用いる測定機構自身を本装置の中に組み込んでも良いし、本装置とは切り離して外部で偏光伝達行列測定を行いデータだけをUSBメモリなどの手段を使ってコンピュータ16に取り込んでも良い。   The measurement preparation process will be described in detail below. The measurement preparation step is a step of specifying the polarization transfer matrix of each coupled cell of the CCD camera used in the imaging unit 15 of the present apparatus prior to actual measurement. The measurement mechanism itself used for this specification may be incorporated in the apparatus, or may be separated from the apparatus, and the polarization transfer matrix measurement may be performed outside, and only the data may be taken into the computer 16 using a means such as a USB memory.

CCDカメラ41の結合セル単位で撮像部15の偏光伝達行列を求める理由は、同一波長板区画内にある複数個の測定画素Eで得られた測定値を平均してその波長板での1つの信頼性の高い代表測定値を得るためである。同一波長板区画を通過した光といえども、波長板、偏光板、テレセントリックレンズの異なる部分、CCDの異なる測定画素を用いた測定値なので同一に扱うことは出来ない。それは、おのおのに局所的な偏光伝達特性のばらつき(ローカリティ)があるためである。しかし、事前に結合セル単位ごとに偏光伝達行列を求めておけば、複数の測定値からローカリティの影響を補正して信頼性の高い代表測定値1つにまとめることが出来る。   The reason why the polarization transfer matrix of the imaging unit 15 is obtained in the unit cell unit of the CCD camera 41 is that the measurement values obtained from a plurality of measurement pixels E in the same wavelength plate section are averaged and one wavelength plate is used. This is to obtain a representative measurement value with high reliability. Even light that has passed through the same wavelength plate section cannot be treated in the same way because it is a measurement value using different parts of the wavelength plate, polarizing plate, telecentric lens, and measurement pixels of different CCDs. This is because there is local variation in local polarization transmission characteristics (locality). However, if a polarization transfer matrix is obtained in advance for each combined cell unit, the influence of locality can be corrected from a plurality of measured values and combined into one highly reliable representative measured value.

偏光伝達行列は、撮像部15に入射する光のSパラメータとCCDカメラ41から出力される出力値との関係を表す行列である。この偏光伝達行列は、撮像部15を形成する光学部材等のミュラーマトリックス(以後M行列と記す)の積から決定できる。CCD上のある結合セルに関連付けられるM行列は、その結合セルに入射する光束が通過した波長板45〜48のいずれかの光束通過部分のM行列と、偏光板49の光束通過部分のM行列と、テレセントリックレンズの光束通過部分のM行列と、CCDのその結合セルのM行列とを掛け合わせたものである。[数1]に、このM行列の一般的な形を表す。×印は以後の計算に関係しないため特定する必要のない要素である。

Figure 2012107893
このM行列の第1行だけを取り出して、M11 要素で規格化すると[数2]となる。この行列をその結合セルでの偏光伝達行列と定義する。
Figure 2012107893
また、あらためて、M12/M11 、M13/M11 、M14/M11 を、M行列になじみの深い記号 M12、M13、M14、で置き換えなおし、M11を係数 K で置き換えて、[数3]を得る。
Figure 2012107893
[数3]に示された形式の行列を、結合セルにおける偏光伝達行列を表現する一般的な記号とする。ここで、K は偏光伝達行列の比例係数であるが、この値には、CCDカメラのシェーディング効果(CCDカメラ41の各結合セルの量子効率やゲイン係数のばらつき)も含まれている。 The polarization transfer matrix is a matrix that represents the relationship between the S parameter of the light incident on the imaging unit 15 and the output value output from the CCD camera 41. This polarization transfer matrix can be determined from the product of a Mueller matrix (hereinafter referred to as M matrix) such as an optical member forming the imaging unit 15. The M matrix associated with a certain coupled cell on the CCD is the M matrix of the light beam passing portion of any of the wave plates 45 to 48 through which the light beam incident on the coupled cell has passed, and the M matrix of the light beam passing portion of the polarizing plate 49. Is multiplied by the M matrix of the beam passing portion of the telecentric lens and the M matrix of the coupled cell of the CCD. [Formula 1] represents a general form of the M matrix. The x mark is an element that does not need to be specified because it does not relate to subsequent calculations.
Figure 2012107893
When only the first row of this M matrix is taken out and normalized by the M 11 element, [Equation 2] is obtained. This matrix is defined as the polarization transfer matrix in the combined cell.
Figure 2012107893
In addition, M 12 / M 11 , M 13 / M 11 , and M 14 / M 11 are replaced with symbols M 12 , M 13 , and M 14 that are familiar to the M matrix, and M 11 is replaced with the coefficient K. Thus, [Equation 3] is obtained.
Figure 2012107893
Let the matrix of the form shown in [Equation 3] be a general symbol representing the polarization transfer matrix in the combined cell. Here, K is a proportional coefficient of the polarization transfer matrix, and this value also includes the shading effect of the CCD camera (quantity efficiency of each coupled cell of the CCD camera 41 and variations in the gain coefficient).

測定準備工程では、図8に示すように、Sパラメータが既知の光70を用い、撮像部15のすべての結合セルごとに個別に偏光伝達行列を求める。ここで、Sパラメータが既知の光70は、基準投光器71内で平行単色光源72からの平行光を、偏光板PL1及び1/4波長板QWP1に透過させることによって得られる。偏光板PL1は方位固定で透過軸が撮像部15における方位の基準方向を0°とし、0°に配されている。1/4波長板QWP1はモータ駆動の連続回転機構(図示省略)を有し、偏光伝達行列の測定においてこれを連続回転させて用いる。波長板QWP1の実際の遅相量と軸方位は既知のものを用い、進相軸方位も撮像部15における基準方位を0°として定義する。   In the measurement preparation process, as shown in FIG. 8, the polarization transfer matrix is obtained individually for every combined cell of the imaging unit 15 using the light 70 whose S parameter is known. Here, the light 70 whose S parameter is known is obtained by allowing the parallel light from the parallel monochromatic light source 72 to pass through the polarizing plate PL1 and the quarter-wave plate QWP1 in the reference projector 71. The polarizing plate PL1 is fixed in orientation and the transmission axis is arranged at 0 ° with the reference direction of the orientation in the imaging unit 15 as 0 °. The quarter-wave plate QWP1 has a motor-driven continuous rotation mechanism (not shown), and is used by continuously rotating this in the measurement of the polarization transfer matrix. The actual retardation amount and axial direction of the wave plate QWP1 are known, and the fast axis direction is defined with the reference direction in the imaging unit 15 being 0 °.

既知の光70は、基準投光器71の光軸中心辺りの光束である。1回の測定で結合セル1個の偏光伝達行列を測定する。基準投光器71の光束の光軸中心が、撮像部15の測定対象となっている結合セルの中心を通るように、基準投光器71のXY移動機構71aを用い基準投光器71と撮像部15を相対させる。1個の結合セルの偏光伝達行列測定が終了すると、XY移動機構71aを用いて隣の測定画素の偏光伝達行列測定を行なう。こうして、撮像部15のすべての結合セルの偏光伝達行列を測定する。   The known light 70 is a light beam around the center of the optical axis of the reference projector 71. The polarization transfer matrix of one coupled cell is measured in one measurement. The reference projector 71 and the imaging unit 15 are made to relative to each other using the XY moving mechanism 71a of the reference projector 71 so that the optical axis center of the light beam of the reference projector 71 passes through the center of the coupled cell that is the measurement target of the imaging unit 15. . When the polarization transfer matrix measurement of one coupled cell is completed, the polarization transfer matrix measurement of the adjacent measurement pixel is performed using the XY moving mechanism 71a. In this way, the polarization transfer matrix of all the coupled cells of the imaging unit 15 is measured.

ここで、光70の既知Sパラメータを|Pとして、ある1つの結合セルの偏光伝達行列の測定方法を説明する。
この結合セルの信号出力値と測定に用いた光70のSパラメータには、この結合セルの偏光伝達行列を[数3]で記述した場合に、[数4]の関係がある。

Figure 2012107893
Here, a method for measuring the polarization transfer matrix of a certain coupled cell will be described, assuming that the known S parameter of the light 70 is | P 0 P 1 P 2 P 3 | T.
The signal output value of the combined cell and the S parameter of the light 70 used for measurement have the relationship of [Expression 4] when the polarization transfer matrix of this combined cell is described by [Expression 3].
Figure 2012107893

光70のSパラメータの各要素をQWP1の定数を使って詳しく記述すると[数5]で表される。

Figure 2012107893
ここでは、QWP1の方位をγ、位相差をε、C=cos2γ、S=sin2γとしている。
K´は実際のCCDカメラ41の出力値との整合をとるための係数でこの測定中に決まる実数である。 When each element of the S parameter of the light 70 is described in detail using the constant of QWP1, it is expressed by [Equation 5].
Figure 2012107893
Here, the orientation of QWP1 is γ, the phase difference is ε, C = cos2γ, and S = sin2γ.
K ′ is a coefficient for matching with the actual output value of the CCD camera 41 and is a real number determined during this measurement.

以上より、P、P、P、Pは、以下の[数6]となる。

Figure 2012107893
[数6]を[数4]へ代入すると[数7]が得られる。
Figure 2012107893
From the above, P 0 , P 1 , P 2 , and P 3 are expressed by the following [Equation 6].
Figure 2012107893
[Expression 7] is obtained by substituting [Expression 6] into [Expression 4].
Figure 2012107893

この[数7]についてQWP1の方位γでDFT(Discrete Fourier Transformation)を行なうと、[数8]に示すように、直流成分ならびに下記周波数成分の出力値を示す4本の関係式が得られる。ここで、Fdcは直流成分、Fcos4はcos4γ成分、Fsin4はsin4γ成分、Fsin2はsin2γ成分の測定された振幅を表す。

Figure 2012107893
When DFT (Discrete Fourier Transformation) is performed on the [Equation 7] in the azimuth γ of QWP1, as shown in [Equation 8], four relational expressions indicating the output values of the DC component and the following frequency component are obtained. Here, Fdc represents the DC component, Fcos4 represents the cos4γ component, Fsin4 represents the sin4γ component, and Fsin2 represents the measured amplitude of the sin2γ component.
Figure 2012107893

ここで、FdcにはCCDの暗電流(光量ゼロでもあるCCDはある値を出力する)分のかさ上げがされていることに注意が必要である。この数値をBGとしたとき、[数8]におけるFdcからBGを差し引いたものが以後の計算に用いるべき直流成分であり、[数8]の4式は[数9] に修正される。なお、BGはCCDカメラの光を完全に遮断することで特定でき、事前にこの値を得ておく。

Figure 2012107893
[数9]に示す4本の式において、未知数はK・K´、M12、M13、M14の4個であるので値が求まる。例えば、(1)÷(2)からM12が特定でき、続いてK・K´が特定でき、その後M13、M14が特定できる。 Here, it should be noted that the Fdc is raised by the amount of the dark current of the CCD (the CCD that outputs zero light outputs a certain value). When this numerical value is BG, a value obtained by subtracting BG from Fdc in [Equation 8] is a direct current component to be used in the subsequent calculation, and Equation 4 of [Equation 8] is corrected to [Equation 9]. The BG can be specified by completely blocking the light from the CCD camera, and this value is obtained in advance.
Figure 2012107893
In the four equations shown in [Equation 9], the number of unknowns is K · K ′, M 12 , M 13 , and M 14 , so the value is obtained. For example, M 12 can be specified from (1) ÷ (2), then K · K ′ can be specified, and then M 13 and M 14 can be specified.

こうして、1個の結合セルの偏光伝達行列のすべての要素とK・K´の値が特定できる。これを全結合セルCPで繰り返すことで、撮像部15のすべての結合セルCPにおける偏光伝達行列とK・K´の値が特定できる。K・K´の値のうち、Kは結合セルごとに異なる値であるが、K´は本測定準備において使った光の強さに関係する値でこの測定の間一定あったとみなせる。よって、ここで特定されたK・K´の値は、以後の測定(キャリブレーション測定、実測定)において各結合セル間での相対的信号強度比として使える。さらに以後の測定において、光の強さが今回の測定準備の測定と異なることがあったとしても、各結合セル間での相対的信号強度比としてはこの値を使用することが出来る。   In this way, all elements of the polarization transfer matrix of one combined cell and the values of K · K ′ can be specified. By repeating this in all the coupled cells CP, the polarization transfer matrix and the values of K · K ′ in all the coupled cells CP of the imaging unit 15 can be specified. Among the values of K · K ′, K is a different value for each combined cell, but K ′ is a value related to the light intensity used in the preparation for the measurement, and can be regarded as being constant during this measurement. Therefore, the value of K · K ′ specified here can be used as a relative signal strength ratio between the combined cells in the subsequent measurement (calibration measurement, actual measurement). Further, in the subsequent measurement, even if the light intensity may be different from the measurement of the current measurement preparation, this value can be used as the relative signal intensity ratio between the combined cells.

ここで、特定した各結合セルCPにおける偏光伝達行列の各要素は、コンピュータ16内に記憶しておく。このとき、ここで特定されたK・K´の値は、以後の説明においてはあらためてKという記号で参照する。 Here, each element of the polarization transfer matrix in each identified combined cell CP is stored in the computer 16. At this time, the value of K · K ′ specified here is referred to again by the symbol K in the following description.

このように、波長板、偏光板、レンズ、CCDを、組みあがった後に一括で偏光伝達行列として測定するので、1つ1つを特定する必要がない。これは、測定の負荷を減らす大きなメリットを生み出す。   As described above, the wavelength plate, the polarizing plate, the lens, and the CCD are collectively measured as a polarization transfer matrix after being assembled, so that it is not necessary to specify each one. This creates a significant benefit in reducing the measurement load.

次に、キャリブレーション測定と実測定の詳細について述べる(図6のフローチャート参照)。動作は双方とも全く同じで、測定対象がキャリブレーション測定では面照明部14であり、実測定では光学フイルム12となる点が異なる。以下では、実測定を例にして説明を行う。   Next, the details of calibration measurement and actual measurement will be described (see the flowchart in FIG. 6). Both operations are exactly the same except that the measurement object is the surface illumination unit 14 in the calibration measurement and the optical film 12 in the actual measurement. In the following, an explanation will be given using actual measurement as an example.

キャリブレーション測定も実測定も、コンピュータ16内に一時的な出力値記憶領域を設けてCCDの出力値を記憶する。この出力値記憶領域は、測定画素Eの測定ステージにおけるXYの2次元アドレスで区別される配列で、1つの配列要素が図9に示すような波長板の数と1つの波長板における測定数で区別される2次元構造であり、全体では4次元構造になっている。   For both calibration measurement and actual measurement, a temporary output value storage area is provided in the computer 16 to store the CCD output value. This output value storage area is an array distinguished by two-dimensional XY addresses on the measurement stage of the measurement pixel E, and one array element is the number of wave plates as shown in FIG. 9 and the number of measurements on one wave plate. The two-dimensional structures are distinguished from each other, and the whole is a four-dimensional structure.

キャリブレーション測定及び実測定では、まず撮像部15をY方向の所定位置に静止させた状態で、試料ステージ13をX方向にその一端から他端まで移動させる。試料ステージ13が移動すると撮像トリガが発行されて自動的に撮像が行われる。試料ステージ13上には面照明部14と光学フイルム12(以下単に「光学フイルム12等」いう)があり、撮像部15が光学フイルム12等の他端まで撮像すると、カメラの視野幅分の測定が終了した状態であるので、カメラ視野を変更するために今度は撮像部15をY方向に視野幅分移動させる。その後再び、光学フイルム12等の他端から一端まで移動させ、光学フイルム12等の未撮像部分を撮像する。上記手順を繰り返し、光学フイルム12等全体の撮像を行なう。   In the calibration measurement and the actual measurement, the sample stage 13 is first moved from one end to the other end in the X direction while the imaging unit 15 is stationary at a predetermined position in the Y direction. When the sample stage 13 moves, an imaging trigger is issued and imaging is automatically performed. On the sample stage 13, there are a surface illumination unit 14 and an optical film 12 (hereinafter simply referred to as “optical film 12”). When the imaging unit 15 captures an image up to the other end of the optical film 12, measurement is performed for the visual field width of the camera. Therefore, in order to change the camera field of view, the imaging unit 15 is now moved in the Y direction by the field of view width. Thereafter, the optical film 12 is moved again from the other end to the other end, and an unimaged portion such as the optical film 12 is imaged. The above procedure is repeated to image the entire optical film 12 and the like.

以下に撮像からSパラメータが算出されるまでの過程を示す。なお、CCDは撮像タイミングで全画素同時に撮像が行われるので、1回の撮像で全結合セルからデータを取得するが、以下の説明では、代表例として1つの測定画素Eに着目して説明する。また、説明を簡単にするために、CCDカメラ41の各撮像エリア50〜53には、X方向に5個の結合セルCPが配列されているものとして、対象である測定画素Eの像が通過するX方向のある1つの断面で説明を行う。なお、ここでは測定画素EがCCD上で結合セルCPのサイズと同じになるように設定してある。この設定は、テレセントリックレンズの倍率設定または結合セル数で調整できる。   The process from imaging until S parameter is calculated is shown below. In addition, since all the pixels are imaged simultaneously at the imaging timing of the CCD, data is acquired from all coupled cells by one imaging, but in the following description, a description will be given focusing on one measurement pixel E as a representative example. . For the sake of simplicity, it is assumed that five coupled cells CP are arranged in the X direction in each of the imaging areas 50 to 53 of the CCD camera 41, and an image of the target measurement pixel E passes therethrough. A description will be given with one cross section in the X direction. Here, the measurement pixel E is set to be the same as the size of the combined cell CP on the CCD. This setting can be adjusted by the magnification setting of the telecentric lens or the number of combined cells.

図10(A)に示すように、第1撮像エリア50に設けられた5つの第1結合セルをCP11〜CP15とし、第2撮像エリア51に設けられた5つの第2結合セルをCP21〜CP25とし、第3撮像エリア52に設けられた5つの第3結合セルをCP31〜CP35とし、第4撮像エリア53に設けられた5つの第4結合セルをCP41〜CP45とする。また光学フイルム12の測定画素をE1〜En(nは2以上の自然数)とする。そして、光学フイルム12をX方向に移動させる際に発する撮像トリガの間隔は、測定画素EがCCD上で結合セルのX方向の長さL(=1つの測定画素におけるX方向の長さ)だけ進む距離に設定する。CCDの各撮像エリアにはX方向に5つの結合セルが配列されていることから、1つの測定画素Eが各撮像エリアを通過すると、各撮像エリアで5回の撮像が行われることになる。   As shown in FIG. 10A, the five first combined cells provided in the first imaging area 50 are CP11 to CP15, and the five second combined cells provided in the second imaging area 51 are CP21 to CP25. The five third combined cells provided in the third imaging area 52 are CP31 to CP35, and the five fourth combined cells provided in the fourth imaging area 53 are CP41 to CP45. The measurement pixels of the optical film 12 are E1 to En (n is a natural number of 2 or more). The interval between imaging triggers generated when the optical film 12 is moved in the X direction is the length L in the X direction of the coupled cell on the CCD of the measurement pixel E (= the length in the X direction of one measurement pixel). Set the distance to advance. Since five coupled cells are arranged in the X direction in each imaging area of the CCD, when one measurement pixel E passes through each imaging area, imaging is performed five times in each imaging area.

まず、光学フイルムがX方向に移動することによって、あるタイミングで測定画素E1の像が第1撮像エリアの第1結合セルCP11上に到達する。そして、図10(B)に示すように、測定画素E1の像が第1結合セルCP11上に位置したときに、第1結合セルCP11は測定画素E1を撮像する。この撮像により得られた出力値は、コンピュータ16内の測定画素E1用の出力値記憶領域EM1に記憶される。EM1は図9に示したような2次元配列で、行方向が撮像エリア数、列方向が測定値の個数である。この出力値は、出力値記憶領域EM1の第1撮像エリア用の行EM11に格納される。
First, when the optical film moves in the X direction, the image of the measurement pixel E1 reaches the first combined cell CP11 in the first imaging area at a certain timing. As shown in FIG. 10B, when the image of the measurement pixel E1 is positioned on the first combination cell CP11, the first combination cell CP11 images the measurement pixel E1. The output value obtained by this imaging is stored in the output value storage area EM1 for the measurement pixel E1 in the computer 16. EM1 is a two-dimensional array as shown in FIG. 9, where the row direction is the number of imaging areas and the column direction is the number of measurement values. This output value is stored in the row EM11 for the first imaging area in the output value storage area EM1.

次に、光学フイルム12がX方向に1撮像トリガの移動量分だけ移動すると、光学フイルム12の測定画素E1の像は第1結合セルエリアCP12上に位置する。そして、第1結合セルエリアCP12が測定画素E1を撮像する。この撮像により得られた出力値は、
測定画素E1用の出力値記憶領域EM1の第1撮像エリア用の行EM11の別の領域に記憶される。そして、同様にして、第1結合セルエリアCP13〜CP15で測定画素E1を撮像し、この撮像により得られる出力値をEM11に記憶する。したがって、測定画素E1が第1撮像エリアを通過することで、合計5回の撮像が行われる。
Next, when the optical film 12 moves in the X direction by the movement amount of one imaging trigger, the image of the measurement pixel E1 of the optical film 12 is positioned on the first combined cell area CP12. Then, the first combined cell area CP12 images the measurement pixel E1. The output value obtained by this imaging is
It is stored in another area of the row EM11 for the first imaging area in the output value storage area EM1 for the measurement pixel E1. Similarly, the measurement pixel E1 is imaged in the first combined cell areas CP13 to CP15, and the output value obtained by this imaging is stored in the EM11. Therefore, the measurement pixel E1 passes through the first imaging area, and thus imaging is performed five times in total.

次に、図11(A)に示すように、測定画素E1が第2撮像エリア51内の結合セルCP21上に到達すると、結合セルCP21は測定画素E1を撮像する。この撮像により得られた出力値は、コンピュータ16内の出力値記憶領域EM1の第2撮像エリア用行EM12に記憶される。そして、同様にして、測定画素E1が第2結合セルCP22〜CP25を通過するごとに撮像を行い、撮像により得られた出力値はEM12に順に記憶される。   Next, as shown in FIG. 11A, when the measurement pixel E1 reaches the combined cell CP21 in the second imaging area 51, the combined cell CP21 images the measurement pixel E1. The output value obtained by this imaging is stored in the second imaging area row EM12 of the output value storage area EM1 in the computer 16. Similarly, imaging is performed every time the measurement pixel E1 passes through the second combined cells CP22 to CP25, and output values obtained by the imaging are sequentially stored in the EM12.

そして、図11(B)に示すように、測定画素E1が第3撮像エリア52内の第3結合セルCP31〜CP35を通過したときも、同様にして撮像を行なう。これら第3結合セルCP31〜CP35で測定画素E1を撮像したときの出力値は、出力値記憶領域EM1の第3撮像エリア用行EM13に記憶される。また、図11(C)に示すように、測定画素E1が第4撮像エリア53内の第4結合セルCP41〜CP45を通過したときも、同様にして撮像を行ない、出力値は出力値記憶領域EM1の第4撮像用エリア用行EM14に記憶される。   As shown in FIG. 11B, when the measurement pixel E1 passes through the third combined cells CP31 to CP35 in the third imaging area 52, imaging is performed in the same manner. The output value when the measurement pixel E1 is imaged by the third combined cells CP31 to CP35 is stored in the third imaging area row EM13 of the output value storage area EM1. As shown in FIG. 11C, when the measurement pixel E1 passes through the fourth combined cells CP41 to CP45 in the fourth imaging area 53, imaging is performed in the same manner, and the output value is an output value storage area. It is stored in the fourth imaging area row EM14 of EM1.

そして、測定画素E1が第4撮像エリア53内の第4結合セルCP45を通過することで、測定画素E1に対する測定は完了する。測定画素E1の進行方向に対し1つ後方に位置する測定画素E2は、測定動作が測定画素E1に対し撮像トリガ1回分遅れて始まり、遅れて終了するものの、同様の内容が行われる。さらに後方に位置する測定画素E3、E4、E5、・・・ Enもそれぞれさらに撮像トリガ1回分ずつずれながら撮像が行われ終了する。それらの各出力値は、図10〜図11で示した出力値記憶領域EM11〜EM14に相当する測定画素E2〜En用の出力値記憶領域EM21〜EMn4に記憶される。その対応関係を、図12に示す。   Then, when the measurement pixel E1 passes through the fourth combined cell CP45 in the fourth imaging area 53, the measurement for the measurement pixel E1 is completed. The measurement pixel E2 located one backward with respect to the traveling direction of the measurement pixel E1 starts and ends with a delay of one imaging trigger with respect to the measurement pixel E1, but the same contents are performed. Further, the measurement pixels E3, E4, E5,... En positioned further rearward are each imaged while being shifted by one imaging trigger, and the process ends. These output values are stored in output value storage areas EM21 to EMn4 for the measurement pixels E2 to En corresponding to the output value storage areas EM11 to EM14 shown in FIGS. The correspondence is shown in FIG.

次に、出力値記憶領域EM1に記憶された測定画素E1の出力値と、測定準備工程で特定された結合セルの偏光伝達行列とから、測定画素E1におけるSパラメータを求める方法を示す。   Next, a method for obtaining the S parameter in the measurement pixel E1 from the output value of the measurement pixel E1 stored in the output value storage area EM1 and the polarization transfer matrix of the combined cell specified in the measurement preparation step will be described.

測定画素E1におけるSパラメータを求めるに際して、まず、以下の[数10]に示すように、第1〜第4撮像エリアでの撮像により得られた出力値の合計、即ちEM11〜EM14のそれぞれに記憶された5つの出力値の合計S11―Σ〜S14―Σを求める。本発明においては、このような出力値の合計を測定値と呼び、Sに_Σの添字をつけて表す。また、S11〜S14というSに添えた最初の数字1は、測定画素を識別する番号で本来なら2次元アドレスに対応する数字群となるが、この例の場合ではE1の1に相当する。2番目の数字1ならびに4は撮像エリア1〜4に対応しており、測定に使われた波長板の番号である。_A1〜_A5の添字は、1つの撮像エリアにおける測定の順番、すなわち1番目の測定〜5番目の測定結果であることを表している。

Figure 2012107893
When obtaining the S parameter in the measurement pixel E1, first, as shown in [Equation 10] below, the total of output values obtained by imaging in the first to fourth imaging areas, that is, stored in each of EM11 to EM14. The sum of the five output values S11- Σ to S14- Σ is obtained. In the present invention, the total of such output values is referred to as a measured value, and S is represented by adding a subscript “_Σ”. The first number 1 attached to S, S11 to S14, is a number for identifying a measurement pixel and is originally a number group corresponding to a two-dimensional address, but corresponds to 1 of E1 in this example. The second numbers 1 and 4 correspond to the imaging areas 1 to 4 and are wave plate numbers used for measurement. The subscripts _A1 to _A5 indicate the order of measurement in one imaging area, that is, the first measurement to the fifth measurement result.
Figure 2012107893

一方、結合セルCP11〜CP45には、それぞれ固有の偏光伝達行列があり、この値は測定準備工程で特定されている。CP11〜CP45の偏光伝達行列を、定義に従って順に書き出すと[数11]となる。

Figure 2012107893
ここで、添字_CP11等の番号は、結合セルを区別する番号である。 On the other hand, each of the coupled cells CP11 to CP45 has a unique polarization transfer matrix, and this value is specified in the measurement preparation process. When the polarization transfer matrices of CP11 to CP45 are written out in order according to the definition, [Equation 11] is obtained.
Figure 2012107893
Here, the numbers such as subscript_CP11 are numbers for distinguishing combined cells.

本例では、出力値S11_CP11〜S14_CP45 は、結合セルCP11〜CP45で個別に測定されたものであるため、以下の[数12]に示すように、その結合セルの偏光伝達行列と測定画素E1のSパラメータ |S0_E1 S1_E1 S2_E1 S3_E1Tとの行列積で定義されるものになっているはずである。ここで、添字_E1は、測定画素E1のSパラメータであることを示している。

Figure 2012107893
In this example, the output value S11 _CP11 ~S14 _CP45 is because it was separately measured by binding cell CP11~CP45, as shown in the following [Expression 12], the measurement pixel polarization transfer matrix of the binding cells It should be defined by the matrix product of the S parameter of E1 with | S0_E1 S1_E1 S2_E1 S3_E1 | T. Here, the suffix _E1 indicates the S parameter of the measurement pixel E1.
Figure 2012107893

ここで、[数10]の測定値S11_Σ に、[数12]の出力値の定義を代入してSパラメータで整理すると[数13]が得られる。

Figure 2012107893
Here, the measured value S11_ sigma [Expression 10], and rearranging the S parameter by substituting the definition of the output value of Equation 12] [Expression 13] is obtained.
Figure 2012107893

この[数13]において測定値S11_Σは、各Sパラメータ要素に、それぞれ何らかの係数がかかった形となっている。これら係数は、測定準備工程で既に特定済みの既知の値を積・和したものになっている。ここで、[数14]に示すように、この係数群を既知量という名前で定義する。既知量は、事前計算が可能であり、以降1つの数値として扱うことが出来る。

Figure 2012107893
既知量の添字の最初の数は、係数となるSパラメータの要素番号を示し、2番目の数字は波長板を区別する番号である。_Nは、結合セルのY方向での位置を区別する添字であるが、この例ではX方向の1つの断面を扱っているので、ある断面位置を示す値になる。 This measurement S11_ sigma in Equation 13], each S-parameter element, and has a shape which took some coefficients, respectively. These coefficients are obtained by multiplying and summing known values already identified in the measurement preparation process. Here, as shown in [Equation 14], this coefficient group is defined by the name of a known quantity. The known amount can be calculated in advance and can be treated as one numerical value thereafter.
Figure 2012107893
The first number of known subscripts indicates the element number of the S parameter that is a coefficient, and the second number is a number that distinguishes the waveplate. _N is a subscript for distinguishing the position of the combined cell in the Y direction. In this example, since one cross section in the X direction is handled, the value indicates a certain cross section position.

[数14]を[数13]に代入することで、以下の[数15]が得られる。

Figure 2012107893
By substituting [Equation 14] into [Equation 13], the following [Equation 15] is obtained.
Figure 2012107893

[数10]の測定値S12_Σ〜測定値S14_Σにも同様の処理が適用でき、[数16]が得られる。

Figure 2012107893
Number 10] can be applied the same processing on the measurements S12_ Σ ~ measurements S14_ Σ, it is obtained [number 16].
Figure 2012107893

[数15]と[数16]を合わせた4本の式は、未知数がSパラメータの4個であり、式の数が4本であるので、解くことができる。これにより、測定画素E1におけるSパラメータが求まる。   The four equations combining [Equation 15] and [Equation 16] can be solved because the unknown is four S-parameters and the number of equations is four. Thereby, the S parameter in the measurement pixel E1 is obtained.

以上のように、1つの測定画素E1が結像されるCCD上のX方向に並んだ結合セルによって順次撮像され、最終的にSパラメータが算出される様子を述べた。CCDは、全画素同時に撮像が行われるため、上記の処理が行われる間も、全部の結合セルが光学フイルム12上のどこかの測定画素Eを捕らえて、同時進行で同様な処理が行われる。CCD全体で見れば、視野内の結合セル分の処理能力を有している。   As described above, it has been described that one measurement pixel E1 is sequentially imaged by the coupled cells arranged in the X direction on the CCD on which the image is formed, and finally the S parameter is calculated. Since all the pixels are imaged simultaneously in the CCD, all the coupled cells capture some measurement pixel E on the optical film 12 and the same processing is performed at the same time while the above processing is performed. . If you look at the CCD as a whole, it has the processing capacity of the combined cells in the field of view.

こうして、測定画素E1におけるSパラメータの求め方と同様にして、すべての測定画素EにおけるSパラメータを求めることができる。求められたSパラメータは、測定画素EのXYアドレスに従ってコンピュータ16内の実測定用Sパラメータ記憶領域に記憶される。 In this way, the S parameter for all the measurement pixels E can be obtained in the same manner as the method for obtaining the S parameter for the measurement pixel E1. The obtained S parameter is stored in the actual measurement S parameter storage area in the computer 16 in accordance with the XY address of the measurement pixel E.

上記測定が、キャリブレーション測定であった場合には、測定画素Eの変わりに面照明部14の全投光画素LのSパラメータが測定される。この全投光画素LのSパラメータは、コンピュータ16内のキャリブレーション測定用のSパラメータ記憶領域に記憶される。   When the measurement is calibration measurement, the S parameter of all the light projection pixels L of the surface illumination unit 14 is measured instead of the measurement pixel E. The S parameters of all the projection pixels L are stored in an S parameter storage area for calibration measurement in the computer 16.

また、測定画素EのXYアドレスと投光画素LのXYアドレスは、撮像トリガが発行されるときの試料ステージの位置で決まるので、結果的にXYアドレスが同じ測定画素Eと投光画素Lは、上下に重なった位置関係になる。またテレセントリックレンズの深い焦点深度と光軸に平行な光の成分を選別補足する機能により、測定画素Eを照らす光は同じXYアドレスの投光画素Lから照射されたとみなすことが出来る。 In addition, the XY address of the measurement pixel E and the XY address of the projection pixel L are determined by the position of the sample stage when the imaging trigger is issued. , The positional relationship is overlapped vertically. Further, the light that illuminates the measurement pixel E can be regarded as being emitted from the projection pixel L having the same XY address by the function of selecting and supplementing the deep focal depth of the telecentric lens and the light component parallel to the optical axis.

さらに、試料ステージ13のどの位置で撮像トリガを発行するかは事前にコンピュータ16で指定できるので、既知量といわれる数値は事前に計算可能である。このことは、2次元測定という大量の測定データを処理する必要のある用途において処理の高速化に非常に有利に働くという効果がある。   Furthermore, since the position at which the imaging trigger is issued on the sample stage 13 can be designated in advance by the computer 16, a numerical value called a known amount can be calculated in advance. This has an effect that it is very advantageous for speeding up the processing in an application that needs to process a large amount of measurement data such as two-dimensional measurement.

最後に、光学フイルム12の偏光特性の算出方法を示す。コンピュータ16は、キャリブレーション測定で求めた面照明部14の全面のSパラメータと、実測定で求めた光学フイルム12全面のSパラメータとに基づいて、光学フイルム全面の主軸方位とレタデーションを算出する。光学フイルム12のある測定画素Eから透過した光のSパラメータを|1 Φ Ψ ξ|Tとし、Eの直下にある投光画素Lの発する光のSパラメータを|1 X Y Z|Tとするとき測定画素Eにあたる光学フイルム12の複屈折の主軸方位αと遅相量δは[数17]であらわすことができる。

Figure 2012107893
ここで、S=sin2α、 C=cos2α である。この関係式を用い、光学フイルム12のすべての測定画素Eの複屈折の主軸方位αと遅相量δを計算することで、光学フイルム12の偏光特性分布を試料解像度で測定することができる。 Finally, a method for calculating the polarization characteristics of the optical film 12 will be described. The computer 16 calculates the principal axis direction and retardation of the entire surface of the optical film based on the S parameter of the entire surface illumination unit 14 obtained by the calibration measurement and the S parameter of the entire surface of the optical film 12 obtained by the actual measurement. The S parameter of the light transmitted from the measurement pixels E with the optical film 12 | is T, light projecting pixel L of emitting light of S parameters directly under the E | | 1 Φ Ψ ξ measurements when the T | 1 XYZ The principal axis direction α and the slow phase amount δ of the birefringence of the optical film 12 corresponding to the pixel E can be expressed by [Equation 17].
Figure 2012107893
Here, S = sin 2α and C = cos 2α. By calculating the birefringence principal axis direction α and the retardation amount δ of all the measurement pixels E of the optical film 12 using this relational expression, the polarization characteristic distribution of the optical film 12 can be measured at the sample resolution.

なお、本実施形態の説明では、各撮像エリアにおいて合計5回の撮像を行うようにしたが、測定精度を上げるために、5回以上、例えば10回の撮像を行なってもよい。この場合には、以下に示すようにオーバーラップ撮像(1回の撮像視野と次の撮像視野が一部重なること)することで行われる。   In the description of the present embodiment, a total of five times of imaging is performed in each imaging area. However, in order to increase measurement accuracy, five or more times, for example, ten times of imaging may be performed. In this case, as shown below, it is performed by overlapping imaging (one imaging field of view and the next imaging field of view partially overlap).

オーバーラップ撮像は、1撮像トリガ間の試料ステージの移動量を測定画素のX方向の長さL以下にすることで行う。このような移動量に設定した場合には、1つの測定画素が隣接する2つの結合セルに跨って撮像されるため、出力値の振り分けが必要となる。例えば、図13は1撮像トリガ間の移動量をLの3/10に設定していた場合の、図10の例での第2回目の撮像の様子である。この撮像タイミングでは、測定画素E1が、結合セルCP11のうち7/10の領域上に位置するとともに、結合セルCP12のうち3/10の領域上に位置している。このような場合には、SUB結合セルが定義される。SUB結合セルは、X方向が結合セルCPの1/10の整数倍、Y方向が結合セルと同じ大きさのもので、SUB結合セルの中に含まれるCCDの撮像セルの出力平均をそのSUB結合セルの出力値とする。図13では 7のエリア(斜線で示す)でCP11のSUB結合セルが形成されその出力値としてSUB出力値S11_CP11をつくり、CP12の3のエリア(斜線で示す)でCP12のSUB結合セルが形成されその出力値としてSUB出力値S11_CP12 が作られ、おのおのをEM11に記憶する。
また、このときの、出力値は[数18]に示す内容で構成されているものとして扱う。

Figure 2012107893
The overlap imaging is performed by setting the amount of movement of the sample stage between one imaging trigger to be equal to or less than the length L in the X direction of the measurement pixel. When such a movement amount is set, since one measurement pixel is imaged across two adjacent combined cells, it is necessary to distribute output values. For example, FIG. 13 shows a state of the second imaging in the example of FIG. 10 when the movement amount between one imaging trigger is set to 3/10 of L. At this imaging timing, the measurement pixel E1 is positioned on the 7/10 region of the combined cell CP11 and is positioned on the 3/10 region of the combined cell CP12. In such a case, a SUB combined cell is defined. The SUB merged cell is an integer multiple of 1/10 of the merged cell CP in the X direction and the same size as the merged cell in the Y direction. The output average of the CCD imaging cell contained in the SUB merged cell is the SUB merged cell. The output value of the combined cell. In FIG. 13, a SUB combined cell of CP11 is formed in area 7 (indicated by hatching), and a SUB output value S11_CP11 is formed as an output value. Then, SUB output value S11_CP12 is created as the output value, and each is stored in EM11.
Further, at this time, the output value is treated as having the contents shown in [Equation 18].
Figure 2012107893

図14に、1撮像トリガ間の移動量をLの5/10に設定していた場合の、撮像エリア50における様子、図15に第3回目の撮像時SUB結合セルの様子を示す。測定画素E1はCP11〜CP15で合計11回の撮像が行われる。11回の出力値の定義は、[数19]になる。

Figure 2012107893
´記号と´´記号は、測定のタイミングの違いを明示するためにつけた記号で他意はない。この結果における既知量を計算すると[数20]となる。これは、[数14]の2倍であり、撮像が2倍に増加した結果と解釈できる。
Figure 2012107893
FIG. 14 shows a state in the imaging area 50 when the movement amount between one imaging trigger is set to 5/10 of L, and FIG. 15 shows a state of the SUB coupled cell at the time of the third imaging. The measurement pixel E1 is imaged a total of 11 times with CP11 to CP15. The definition of the 11 output values is [Equation 19].
Figure 2012107893
The “symbols” and “symbols” are symbols used to clearly indicate the difference in measurement timing. The known amount in this result is calculated as [Equation 20]. This is twice the [Equation 14], and can be interpreted as a result of an increase in imaging.
Figure 2012107893

[数18]、[数19]等の配分の関係式により、既知量を修正する。撮像タイミングは試料ステージの位置で決まるので、全部の撮像タイミングで測定画素Eがどの結合セルCPまたはSUB結合セルで撮像されるかは事前に設計できる。全部の撮像タイミングにおける、結合セルの大きさと既知量を事前に計算しておくことが出来る。   The known amount is corrected by a distribution relational expression such as [Equation 18] and [Equation 19]. Since the imaging timing is determined by the position of the sample stage, it is possible to design in advance in which coupling cell CP or SUB coupling cell the measurement pixel E is imaged at all imaging timings. The size and known amount of the combined cell can be calculated in advance at all imaging timings.

このように、各測定画素Eには、1回の撮像について2個のSUB結合画素からのデータが配分される場合が発生するが、1つの撮像エリアの測定値は依然としてその撮像エリアで得られた全出力値の加算で扱うことができる。この結果、測定値の式が、波長板の種類の数だけにまとめられて、以後、上記説明と同じ方法で測定対象の複屈折分布が求められる。   As described above, there is a case where data from two SUB coupled pixels is allocated to each measurement pixel E for one imaging, but a measurement value of one imaging area is still obtained in the imaging area. It can be handled by adding all output values. As a result, the formulas of the measurement values are collected only for the number of types of wave plates, and thereafter, the birefringence distribution of the measurement object is obtained by the same method as described above.

本実施例では、第1〜第4波長板45〜48は、遅相量略135°の波長板であり、主軸方位(進相軸方位)は、第1波長板45が、図3において水平方向を0°とした時に略20°の軸方位になるように配置し、第2波長板46は第1波長板45に対し軸方位が略36°加わった方位に配置し、第3波長板47は第2波長板46に対し更に軸方位が略36°加わった方位に配置し、第4波長板48は第3波長板47に対し更に軸方位が略36°加わった方位に配置した。なお偏光板49は、透過軸が0°の方位になるように配置した。ここで「略」という言葉が使われている理由は、図6のフローチャートに示す測定準備工程において、撮像部を結合セルCP単位で偏光伝達行列を特定し、以後偏光伝達行列の方を使うので、ここでは厳密さが不要になるためである。おおむね、±0.5°の範囲にあればよい。   In the present embodiment, the first to fourth wave plates 45 to 48 are wave plates having a retardation amount of about 135 °, and the main axis direction (fast axis direction) is the same as that of the first wave plate 45 in FIG. When the direction is set to 0 °, the second wave plate 46 is arranged so as to have an axial direction of about 20 °. The second wave plate 46 is arranged in an direction in which the axial direction is added to the first wave plate 45 by about 36 °. 47 is arranged in an orientation in which the axial direction is further added by about 36 ° with respect to the second wavelength plate 46, and the fourth wavelength plate 48 is arranged in an direction in which the axial direction is further added by about 36 ° with respect to the third wavelength plate 47. The polarizing plate 49 was arranged so that the transmission axis was oriented at 0 °. The reason why the word “abbreviated” is used here is that, in the measurement preparation process shown in the flowchart of FIG. 6, the imaging unit specifies the polarization transfer matrix in units of coupled cells CP, and thereafter the polarization transfer matrix is used. This is because strictness is not necessary here. Generally, it should be in the range of ± 0.5 °.

本例では、波長板の種類は4種類としたが、波長板の種類は4種類以上であれば良い。例えば、N種類(Nは5以上の自然数)の波長板を使用する場合は、N個の波長板は主軸方位が180°を均等に配分する形で配置することが好ましい。また、各々の波長板の遅相量は略135°が好ましい。このような構成であれば、第1の波長板の主軸方位は任意の方向でよい。   In this example, the number of wave plates is four, but the number of wave plates may be four or more. For example, when N types of wave plates (N is a natural number of 5 or more) are used, it is preferable that the N wave plates are arranged in such a manner that the main axis orientation is uniformly distributed at 180 °. Further, the amount of retardation of each wave plate is preferably about 135 °. With such a configuration, the principal axis orientation of the first wave plate may be an arbitrary direction.

このように配置した理由は、[数15]、[数16]を連立方程式で解くときの誤差が最小になるからである。[数15]、[数16]から、光のSパラメータを求めるとき、各式の測定値(左辺)にはCCDの出力値に載るノイズが含まれている。これらは、多重撮像による平均効果により削減されているもののゼロではないため、結果的に算出したSパラメータに誤差として含まれる。[数15]、[数16]の左辺に載ったノイズが、コンピュータ16による計算過程でSパラメータに誤差として反映されるその量は、[数15]、[数16]の変数(Sパラメータ)にかかる係数で決まる。すなわち、適切な係数となるように系を組めば、このCCDの計算誤差(CCDのノイズの影響)を最小にすることができる。この係数の選択こそ、波長板の仕様(遅相量と主軸方位の選択)に他ならない。   The reason for this arrangement is that the error in solving [Equation 15] and [Equation 16] with simultaneous equations is minimized. When the S parameter of light is obtained from [Equation 15] and [Equation 16], the measured value (left side) of each equation includes noise included in the output value of the CCD. Although these are reduced by the average effect due to multiplex imaging but are not zero, they are included as errors in the resulting S parameter. The amount of noise on the left side of [Equation 15] and [Equation 16] reflected as an error in the S parameter in the calculation process by the computer 16 is the variable (S parameter) of [Equation 15] and [Equation 16]. It is determined by the coefficient for. In other words, if the system is assembled so as to have an appropriate coefficient, this CCD calculation error (effect of CCD noise) can be minimized. The selection of this coefficient is nothing but the specifications of the wave plate (selection of the amount of slow phase and principal axis orientation).

筆者らがシミュレーション繰り返した結果、以下のことがわかった。まず、遅相量が同じ波長板を用いて設置の主軸方位を変えて偏光状態の変化を具現化する場合に、波長板の数を多くしても計算精度におおきな改善効果を与えないことがわかった。これは、波長板の数が増えても、1枚の波長板の面積は小さくなるので1枚の波長板での測定値の信頼度が下がってしまうためである。さらに、波長板の種類を増やすと、波長板の境目にあたる結合セルは使えないので、実質的にCCDの受光面積が減ってしまうことになる。受光面積の減少はS/N比の低下を意味する。一方で、波長板の数が多いと信号に含まれるノイズの遮断周波数を高くできる効果もある。両者を考えて、波長板の数の最小値はSパラメータを決定するに必要な4種、最大値は40程度までといえる。   As a result of repeated simulations by the authors, the following was found. First, when implementing a change in polarization state by changing the main axis orientation of the installation using wave plates with the same amount of slow phase, even if the number of wave plates is increased, the calculation accuracy may not be significantly improved. all right. This is because even if the number of wave plates is increased, the area of one wave plate is reduced, so that the reliability of the measured value with one wave plate is lowered. Furthermore, if the number of types of wave plates is increased, the coupled cell that is the boundary between the wave plates cannot be used, so that the light receiving area of the CCD is substantially reduced. A decrease in the light receiving area means a decrease in the S / N ratio. On the other hand, when the number of wave plates is large, there is an effect that the cutoff frequency of noise contained in the signal can be increased. Considering both, it can be said that the minimum value of the number of wave plates is four kinds necessary for determining the S parameter, and the maximum value is up to about 40.

波長板の種類は、遅相量が同じ波長板を用いて主軸方位の配置で差をつけることがよく、180°を波長板の数で割った角度だけお互いに方位に差をつけて配置したときが、一番計算誤差が小さくなった。このような、設置波長板の設置方法を、以後、均等割りと呼び、波長板の個数を分割数という。   For the types of wave plates, it is preferable to use wave plates with the same amount of retardation, and to make a difference in the orientation of the main axis, and to arrange the directions different from each other by an angle obtained by dividing 180 ° by the number of wave plates. But the calculation error was the smallest. Such an installation method of the installation wave plate is hereinafter referred to as equal division, and the number of wave plates is referred to as the division number.

一方、波長板の間隔角度差が45°の場合では、波長板の種類の数をいくつにしても、計算誤差が大きくなった。波長板が4種では、均等割り角度が45°となるため、一番計算誤差が小さくなるはずの均等割り角度使えなかった。このため、本実施例の配置を選択した。   On the other hand, when the difference in angle between the wave plates is 45 °, the calculation error becomes large regardless of the number of types of wave plates. In the case of four types of wave plates, the equally divided angle is 45 °, so the equally divided angle that should have the smallest calculation error cannot be used. For this reason, the arrangement of this example was selected.

一方、波長板の遅相量は、図16A及びBに示すように、すべての波長板の数で135°あたりに計算誤差が最小になる領域があることがわかった。波長板の方位の角度分割は均等割り(ただし4分割だけは36°差)に設定している。4〜40分割のすべてにおいてこの傾向があることが確認された。   On the other hand, as shown in FIGS. 16A and 16B, it was found that the retardation amount of the wave plate has a region where the calculation error is minimized around 135 ° in the number of all wave plates. The angle division of the direction of the wave plate is set to be equal division (however, only four divisions are 36 ° difference). This tendency was confirmed in all of the 4 to 40 divisions.

波長板の位置については、本実施形態では、第1〜第4波長板45〜48をテレセントリックレンズの物体側に設けたが、これに代えて、図17に示すように、第1〜第4波長板45〜48をCCDカメラの直前に設けてもよい。ここで、第1〜第4波長板45〜48とCCDカメラ41との間には偏光板49が設けられている。   Regarding the position of the wave plate, in the present embodiment, the first to fourth wave plates 45 to 48 are provided on the object side of the telecentric lens. Instead, as shown in FIG. Wave plates 45 to 48 may be provided immediately before the CCD camera. Here, a polarizing plate 49 is provided between the first to fourth wave plates 45 to 48 and the CCD camera 41.

このようにした場合は、波長板を小さくできてコストが低くなるメリットがある。その一方で、テレセントリックレンズが偏光板の外に来るので複屈折伝達関数を求めるときの誤差が大きくなるデメリットがある。   In this case, there is an advantage that the wavelength plate can be made small and the cost is reduced. On the other hand, since the telecentric lens comes out of the polarizing plate, there is a demerit that an error in obtaining the birefringence transfer function becomes large.

また、本実施形態では、光学フイルム12全面を照明する大きさの面照明部14を用い、撮像部15をX方向とY方向に移動させる方式を示したが、図18に示すように、面照明部14に代えて、幅を撮像部15のY方向の視野幅を照明するに足りるまで細くし、撮像部15がY移動するときに照明部14もY方向に移動させる様にした照明部101を使用してもよい。このように構成した場合では、面照明部14のコストを下げるとともにストークスパラメータの取得時間を短縮できる効果が得られる。なお、照明部101を使用した場合には、試料ステージ13に代えて、光学フィルム12が載置される部分に開口が形成された試料ステージ102が用いられる。   In the present embodiment, the surface illumination unit 14 having a size for illuminating the entire surface of the optical film 12 is used and the imaging unit 15 is moved in the X direction and the Y direction. However, as shown in FIG. Instead of the illuminating unit 14, the width is narrowed to illuminate the visual field width of the imaging unit 15 in the Y direction, and the illuminating unit 14 is also moved in the Y direction when the imaging unit 15 moves Y. 101 may be used. In the case of such a configuration, an effect of reducing the cost of the surface illumination unit 14 and shortening the acquisition time of the Stokes parameters can be obtained. When the illumination unit 101 is used, a sample stage 102 in which an opening is formed in a portion where the optical film 12 is placed is used instead of the sample stage 13.

また、本実施形態では、1台のCCDカメラ41をX方向とY方向に移動させることによって、光学フイルム12全体の光学特性の測定を行なったが、測定時間を更に短縮するためには、複数台のCCDカメラで測定を行なってもよい。そのときは、図19に示すように、カメラ1台について1台の専用のカメラCPUを設け、更に、複数台のカメラCPUを統合するメインCPUを上位に設ける。カメラの各結合セルの偏光伝達行列はメインCPU側に置いて、各既知量も事前に算出しておく。キャリブレーション測定用ならびに実測定用のSパラメータ記憶領域もメインCPU内に置く。各カメラでの測定結果を格納する出力値記憶領域もメインCPU側に置いておくが、カメラCPU側には出力値記憶領域の複製(レプリカ)を用意しておく。そして測定ステージのX方向への移動に伴い、各CCDカメラは撮像を繰り返す。カメラCPUは結合セル単位(場合によってSUB結合セル)で出力値を計算し出力値記憶領域の複製(レプリカ)の方に格納していく。X方向への撮像が走査端に到達すると各カメラの視野幅分のY移動と試料ステージのX方向の走査開始端への移動が行われるが、この移動の間は撮像が行われないのでカメラCPUは撮像負荷がなくなる。この負荷の谷間を利用しカメラCPUは、出力値記憶領域の複製からメインCPU側の出力値記憶領域へのデータコピーを行う。メインCPUは、出力値記憶領域へのデータのコピーを検出し、Sパラメータの算出と記憶、さらに光学フイルムの偏光特性の計算を行う。メインCPUは、CCDカメラの撮像中も撮像負荷から免れているので、C`PUパワーの大部分をこの計算にあてがうことができる。以上のように、カメラCPUもメインCPUも効率よく動作させることができて、カメラ台数を増やすことによる処理の高速化効果が得られる。   In the present embodiment, the optical characteristics of the entire optical film 12 are measured by moving one CCD camera 41 in the X and Y directions. However, in order to further shorten the measurement time, a plurality of CCD cameras 41 are measured. Measurement may be performed with a single CCD camera. At that time, as shown in FIG. 19, one dedicated camera CPU is provided for each camera, and a main CPU that integrates a plurality of camera CPUs is provided at the upper level. The polarization transfer matrix of each combined cell of the camera is placed on the main CPU side, and each known amount is calculated in advance. The S parameter storage area for calibration measurement and actual measurement is also placed in the main CPU. An output value storage area for storing the measurement results of each camera is also placed on the main CPU side, but a copy (replica) of the output value storage area is prepared on the camera CPU side. As the measurement stage moves in the X direction, each CCD camera repeats imaging. The camera CPU calculates output values in units of combined cells (in some cases, SUB combined cells) and stores them in a replica (replica) of the output value storage area. When the imaging in the X direction reaches the scanning end, the Y movement corresponding to the visual field width of each camera and the movement of the sample stage to the scanning start end in the X direction are performed, but since the imaging is not performed during this movement, the camera The CPU has no imaging load. Using this load valley, the camera CPU performs data copying from the copy of the output value storage area to the output value storage area on the main CPU side. The main CPU detects a copy of data in the output value storage area, calculates and stores S parameters, and calculates the polarization characteristics of the optical film. Since the main CPU is immune from the imaging load even during the imaging of the CCD camera, most of the C`PU power can be allocated to this calculation. As described above, both the camera CPU and the main CPU can be operated efficiently, and the effect of speeding up the processing by increasing the number of cameras can be obtained.

本実施形態では、キャリブレーション測定及び実測定において、撮像開始と終わりについて詳細に述べなかったが、撮像開始と終わりはCCDカメラの視野全部が有効ではないので、このときの撮像により得られた出力値は事後の計算においては使用しないようにする。また、第1〜第4波長板の境目について詳細に述べなかったが、測定画素Eの撮像が第1〜第4波長板の境目上で行なわれたときは、この撮像により得られた出力値は事後の計算において使用しないようにする。これは、CCDの各結合セルが試料ステージ13のどこを捉えているか位置検出手段で常に特定できているので、試料ステージの不要な位置における情報を除外することが可能なためである。さらに、波長板のつなぎ目が結像される位置にある結合セルも事前にわかるので、この部分を使用しないことが可能になる。   In the present embodiment, in the calibration measurement and the actual measurement, the start and end of imaging are not described in detail. However, since the entire field of view of the CCD camera is not effective at the start and end of imaging, the output obtained by imaging at this time The value should not be used in subsequent calculations. Although the boundary between the first to fourth wavelength plates was not described in detail, when the measurement pixel E was imaged on the boundary between the first to fourth wavelength plates, the output value obtained by this imaging. Should not be used in subsequent calculations. This is because the position detection means can always identify where each CCD-coupled cell captures the sample stage 13, so that information at unnecessary positions on the sample stage can be excluded. Furthermore, since the coupled cell at the position where the joint of the wave plate is imaged is known in advance, it is possible to avoid using this portion.

なお、本発明においては、隣接する複数の撮像セルを結合した結合セル単位で撮像を行なったが、撮像セルサイズが十分大きくノイズの問題が無いようであれば撮像セル単位で撮像を行なってもよい。   In the present invention, imaging is performed in units of combined cells obtained by combining a plurality of adjacent imaging cells. However, if the imaging cell size is sufficiently large and there is no noise problem, imaging may be performed in units of imaging cells. Good.

10 光学特性測定装置
12 光学フイルム
13 試料ステージ
14 面照明部
15 撮像部
16 コンピュータ
20 X方向移動機構
33 Y方向移動機構
41 CCDカメラ
45〜48 第1〜第4波長板
50〜53 第1〜第4撮像エリア
55 CCD
CP1〜CP4 第1〜第4結合セル
DESCRIPTION OF SYMBOLS 10 Optical characteristic measuring apparatus 12 Optical film 13 Sample stage 14 Surface illumination part 15 Imaging part 16 Computer 20 X direction moving mechanism 33 Y direction moving mechanism 41 CCD camera 45-48 1st-4th wavelength plate 50-53 1st-1st 4 imaging area 55 CCD
CP1 to CP4 1st to 4th combined cells

Claims (10)

測定対象に特定の偏光照明を照射する投光手段と、第1の方向に波長板を整列して配列して、第1の方向に少なくとも4種類の偏光特性を具現化し、かつ、前記波長板を透過した光を個別に撮像する撮像エリアに区画されたイメージセンサを備えた撮像手段と、測定対象に対して撮像手段を相対的に前記第1の方向に移動させる走査手段とを備え、前記走査手段による撮像手段の相対移動に伴い、測定対象の各測定画素が各撮像エリアで複数回撮像されて得られる出力値を測定画素ごとに加算してその撮像エリアでの測定値をつくるとともに、各撮像エリアから集まった測定値から、測定画素ごとの光のストークスパラメータを算出することを特徴とする光学特性測定装置。   Projecting means for irradiating a measurement object with a specific polarized illumination, and arranging a wave plate in a first direction so as to arrange at least four kinds of polarization characteristics in the first direction, and the wave plate An imaging unit including an image sensor that is divided into imaging areas that individually capture light transmitted through the scanning unit, and a scanning unit that moves the imaging unit relative to the measurement target in the first direction, Along with the relative movement of the imaging means by the scanning means, an output value obtained by imaging each measurement pixel to be measured a plurality of times in each imaging area is added for each measurement pixel to create a measurement value in that imaging area, An optical characteristic measuring apparatus, wherein a Stokes parameter of light for each measurement pixel is calculated from measurement values collected from each imaging area. 前記イメージセンサは、多数の画素からなる撮像素子で撮像を行い、撮像時には、隣接する複数の画素を結合した結合セルごとに1つの出力値を出力することを特徴とする請求項1記載の光学特性測定装置。   The optical sensor according to claim 1, wherein the image sensor captures an image with an image sensor including a plurality of pixels, and outputs one output value for each combined cell obtained by combining a plurality of adjacent pixels at the time of imaging. Characteristic measuring device. 測定対象から出た光とイメージセンサの各撮像エリアから出力される出力値との関係を表す偏光伝達行列を、測定の前に結合セル単位で求めておいて、前記偏光伝達行列と前記各撮像エリアから出力される出力値とを用いて、測定対象のストークスパラメータを求めることを特徴とする請求項1ないし2いずれか1項記載の光学特性測定装置。   Before the measurement, a polarization transfer matrix representing the relationship between the light emitted from the measurement object and the output value output from each imaging area of the image sensor is obtained for each coupled cell, and the polarization transfer matrix and each imaging 3. The optical characteristic measuring apparatus according to claim 1, wherein a Stokes parameter to be measured is obtained using an output value output from the area. 前記イメージセンサは、所定の測定画素が隣接する2つの結合セルに跨って撮像されることを特徴とする請求項2ないし3いずれか1項記載の光学特性測定装置。   4. The optical characteristic measurement apparatus according to claim 2, wherein the image sensor captures an image of a predetermined measurement pixel across two adjacent combined cells. 5. 前記所定の測定画素の出力値は、一方の結合セルのうち所定の測定画素を撮像した画素が占める割合とその画素の出力平均値を掛けたものと、他方の結合セルのうち所定の測定画素を撮像した画素が占める割合とその画素の出力平均値を掛けたものとからなることを特徴とする請求項4記載の光学特性測定装置。   The output value of the predetermined measurement pixel is obtained by multiplying the ratio of the pixel that has captured the predetermined measurement pixel in one combined cell by the output average value of the pixel, and the predetermined measurement pixel in the other combined cell. 5. The optical characteristic measuring apparatus according to claim 4, wherein the optical characteristic measuring apparatus is composed of a ratio of a pixel that captures the image and an output average value of the pixel. 前記移動手段は、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に移動させるとともに、前記撮像手段による測定対象の第1の方向の撮像が完了するごとに、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に直角で測定対象とは平行な第2の方向に移動させることを特徴とする請求項1ないし5いずれか1項記載の光学特性測定装置。   The moving unit moves at least one of the measurement target and the imaging unit in the first direction, and each time imaging of the measurement target in the first direction by the imaging unit is completed, the measurement unit or the imaging unit 6. The optical characteristic measuring apparatus according to claim 1, wherein at least one of the optical characteristics is moved in a second direction perpendicular to the first direction and parallel to the object to be measured. 前記移動手段が、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に直角で測定対象とは平行な第2の方向に移動させる場合には、撮像手段と投光手段の第2の方向における位置関係に変化が生じないように移動させて、投光手段の偏光照射幅を撮像手段の第2の方向の視野幅を照射できる程度に狭くしたことを特徴とする請求項6に記載の光学特性測定装置。   When the moving means moves at least one of the measuring object and the imaging means in a second direction perpendicular to the first direction and parallel to the measuring object, the second means of the imaging means and the light projecting means 7. The positional relationship in the direction is moved so as not to change, and the polarized light irradiation width of the light projecting means is narrowed to such an extent that the visual field width in the second direction of the imaging means can be irradiated. Optical property measuring device. 前記波長板によって具現化される偏光の種類の数が、4ないし40であることを特徴とする請求項1ないし6いずれか1項記載の光学特性測定装置。   The optical characteristic measuring apparatus according to any one of claims 1 to 6, wherein the number of types of polarized light embodied by the wave plate is 4 to 40. 前記波長板は、遅相量が70°ないし170°または、190°ないし290°のいずれかである波長板と同様の遅相効果を持つことを特徴とする請求項1ないし8いずれか1項記載の光学特性測定装置。   9. The wave plate according to claim 1, wherein the wave plate has a retardation effect similar to that of a wave plate having a retardation amount of 70 ° to 170 ° or 190 ° to 290 °. The optical characteristic measuring apparatus as described. 第1の方向に波長板を整列して配列して、第1の方向に少なくとも4種類の偏光特性を具現化し、かつ、前記波長板を透過した光を個別に撮像する撮像エリアに区画されたイメージセンサを備えた撮像手段を用いて、測定対象に対して撮像手段を相対的に前記第1の方向に移動させ、測定対象の各測定画素が各撮像エリアで複数回撮像されて得られる出力値を加算して測定画素ごとにその撮像エリアでの測定値をつくるとともに、各撮像エリアから同様にして集まった測定値から測定画素ごとに、測定対象から出た光のストークスパラメータを算出することを特徴とする光学特性測定方法。   The wave plates are aligned and arranged in the first direction to realize at least four types of polarization characteristics in the first direction, and are divided into imaging areas for individually imaging the light transmitted through the wave plate. Output obtained by moving the imaging means relative to the measurement object in the first direction using the imaging means provided with the image sensor, and imaging each measurement pixel of the measurement object multiple times in each imaging area A value is added to create a measurement value in the imaging area for each measurement pixel, and a Stokes parameter of the light emitted from the measurement target is calculated for each measurement pixel from the measurement values collected in the same manner from each imaging area. A method for measuring optical characteristics.
JP2010255041A 2010-11-15 2010-11-15 Optical characteristic measuring apparatus and method Active JP5715381B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010255041A JP5715381B2 (en) 2010-11-15 2010-11-15 Optical characteristic measuring apparatus and method
CN2011800545953A CN103210294A (en) 2010-11-15 2011-11-07 Optical characteristic measuring device and method
PCT/JP2011/075599 WO2012066959A1 (en) 2010-11-15 2011-11-07 Optical characteristic measuring device and method
KR1020137011855A KR101650226B1 (en) 2010-11-15 2011-11-07 Optical characteristic measuring device and method
TW100141596A TWI532985B (en) 2010-11-15 2011-11-15 Optical property measuring device and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010255041A JP5715381B2 (en) 2010-11-15 2010-11-15 Optical characteristic measuring apparatus and method

Publications (2)

Publication Number Publication Date
JP2012107893A true JP2012107893A (en) 2012-06-07
JP5715381B2 JP5715381B2 (en) 2015-05-07

Family

ID=46083894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010255041A Active JP5715381B2 (en) 2010-11-15 2010-11-15 Optical characteristic measuring apparatus and method

Country Status (5)

Country Link
JP (1) JP5715381B2 (en)
KR (1) KR101650226B1 (en)
CN (1) CN103210294A (en)
TW (1) TWI532985B (en)
WO (1) WO2012066959A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI512277B (en) * 2013-01-04 2015-12-11 Taiwan Power Testing Technology Co Ltd Monitor inspection equipment
CN103616167B (en) * 2013-12-05 2016-03-09 福州大学 A kind of Automatic detection system for luminance uniformity of backlight source
JP7365263B2 (en) * 2019-05-09 2023-10-19 ローム株式会社 Illuminance sensors, electronic devices and two-dimensional image sensors

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000009659A (en) * 1998-06-19 2000-01-14 Fuji Photo Film Co Ltd Surface inspection method and device
JP2003252511A (en) * 2002-02-28 2003-09-10 Canon Inc Sheet handling device and image forming device
JP2006058055A (en) * 2004-08-18 2006-03-02 Fuji Photo Film Co Ltd Birefringence measurement device and stokes parameter calculation program
JP2009139356A (en) * 2007-12-04 2009-06-25 Photonic Lattice Inc Polarized light measuring device
JP2009168795A (en) * 2007-12-21 2009-07-30 Sharp Corp Polarization detecting device, polarization detecting element, and polarization detecting method
JP2009293957A (en) * 2008-06-02 2009-12-17 Toshiba Corp Pattern defect inspection apparatus and inspection method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05346397A (en) 1992-06-15 1993-12-27 New Oji Paper Co Ltd Double refraction measuring apparatus
JP2003242511A (en) * 2002-02-19 2003-08-29 Nec Corp Similar periodic pattern inspection device and inspection method
JP4781746B2 (en) * 2005-04-14 2011-09-28 株式会社フジクラ Optical fiber birefringence measuring method and measuring apparatus, and optical fiber polarization mode dispersion measuring method
JP5118311B2 (en) 2006-03-27 2013-01-16 株式会社フォトニックラティス Measuring device for phase difference and optical axis orientation
JP2009068922A (en) * 2007-09-11 2009-04-02 Canon Inc Measurement apparatus, exposure apparatus, and device fabrication method
JP2009229279A (en) 2008-03-24 2009-10-08 Fujifilm Corp Birefringence measuring apparatus and method
CN101762891B (en) * 2008-12-23 2011-12-28 财团法人工业技术研究院 Optical property measurement system of liquid crystal unit and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000009659A (en) * 1998-06-19 2000-01-14 Fuji Photo Film Co Ltd Surface inspection method and device
JP2003252511A (en) * 2002-02-28 2003-09-10 Canon Inc Sheet handling device and image forming device
JP2006058055A (en) * 2004-08-18 2006-03-02 Fuji Photo Film Co Ltd Birefringence measurement device and stokes parameter calculation program
JP2009139356A (en) * 2007-12-04 2009-06-25 Photonic Lattice Inc Polarized light measuring device
JP2009168795A (en) * 2007-12-21 2009-07-30 Sharp Corp Polarization detecting device, polarization detecting element, and polarization detecting method
JP2009293957A (en) * 2008-06-02 2009-12-17 Toshiba Corp Pattern defect inspection apparatus and inspection method

Also Published As

Publication number Publication date
TWI532985B (en) 2016-05-11
CN103210294A (en) 2013-07-17
WO2012066959A1 (en) 2012-05-24
KR20130124324A (en) 2013-11-13
KR101650226B1 (en) 2016-08-22
JP5715381B2 (en) 2015-05-07
TW201219769A (en) 2012-05-16

Similar Documents

Publication Publication Date Title
US8514389B2 (en) Inspecting apparatus, three-dimensional profile measuring apparatus, and manufacturing method of structure
KR101509054B1 (en) Rotating-Element Ellipsometer and method for measuring Mueller-matirx elements of the sample using the same
JP5508352B2 (en) Optical characteristic measuring method and apparatus
JP6040930B2 (en) Surface defect detection method and surface defect detection apparatus
CN110914634B (en) Holographic interferometry method and system
JP5535140B2 (en) Optical characteristic measuring method and apparatus
CN109186759B (en) Grating spectrometer image quality measuring method and device
CN109767425B (en) Machine vision light source uniformity evaluation device and method
US20130162980A1 (en) Apparatus for non-invasively inspecting defects and method for inspecting defects using the same
TW201643405A (en) Optical metrology with reduced focus error sensitivity
CN103024427B (en) Testing method of camera modulation transfer function and testing device thereof
JP5715381B2 (en) Optical characteristic measuring apparatus and method
CN104656120A (en) Correction information generation method and correction information generation apparatus
JP2014240766A (en) Surface inspection method and device
JP4313322B2 (en) Defective particle measuring apparatus and defective particle measuring method
KR101566129B1 (en) Moire Technique- based Measurement of the 3-Dimension Profile of a Specimen and its Implementation with Line-Scan Camera
US20160021305A1 (en) Method and apparatus for measuring optical systems and surfaces with optical ray metrology
JP2000002514A (en) Film thickness measuring apparatus, alignment sensor and alignment apparatus
JP2010107355A (en) Optical filter adjusting method and irregularity inspection device
JP2009265026A (en) Inspection device
JP6524357B1 (en) Wavefront sensor, wavefront measuring apparatus and wavefront measuring method
WO2019003329A1 (en) X-ray in-line inspection method and device
JP2012093116A (en) Lens checking apparatus and chart plate
WO2024034067A1 (en) Sample surface quality management device
CN112285028B (en) Polarization detection calibration method, polarization detection method and polarization detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150313

R150 Certificate of patent or registration of utility model

Ref document number: 5715381

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250