WO2012066959A1 - 光学特性測定装置及び方法 - Google Patents

光学特性測定装置及び方法 Download PDF

Info

Publication number
WO2012066959A1
WO2012066959A1 PCT/JP2011/075599 JP2011075599W WO2012066959A1 WO 2012066959 A1 WO2012066959 A1 WO 2012066959A1 JP 2011075599 W JP2011075599 W JP 2011075599W WO 2012066959 A1 WO2012066959 A1 WO 2012066959A1
Authority
WO
WIPO (PCT)
Prior art keywords
measurement
imaging
pixel
optical film
area
Prior art date
Application number
PCT/JP2011/075599
Other languages
English (en)
French (fr)
Inventor
明大 江口
知之 下田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to KR1020137011855A priority Critical patent/KR101650226B1/ko
Priority to CN2011800545953A priority patent/CN103210294A/zh
Publication of WO2012066959A1 publication Critical patent/WO2012066959A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/21Polarisation-affecting properties

Definitions

  • the present invention relates to an optical property measuring apparatus and method for measuring the polarization property of an optical film.
  • a functional plastic resin film (hereinafter referred to as “optical film”) having various optical characteristics such as a polarizing plate, a viewing angle correction film, and an antireflection film is used. Since the liquid crystal display device obtains contrast using the birefringence characteristic of the liquid crystal, the optical film to be used must have a predetermined birefringence characteristic. If the birefringence characteristic of the optical film is not uniform over the entire surface, unevenness in image display in the liquid crystal display device occurs.
  • Birefringence characteristics are measured using a light source that emits measurement light to the optical film to be measured, a light receiver that receives light emitted from the optical film, and a phase difference for measuring the polarization characteristics of the optical film. This is performed using various optical members such as a plate and a polarizing plate.
  • Patent Document 1 various polarization states are created by rotating a phase difference plate around an optical axis between a light source and a CCD camera as a light receiver. Then, images of different polarization states are picked up by a CCD camera, and birefringence characteristics are calculated for each pixel from the luminance value change of each pixel of the image group obtained by the image pickup.
  • Patent Document 2 discloses a method for measuring the birefringence characteristics of an optical film being conveyed in a predetermined direction online.
  • Patent Document 3 when performing measurement while moving a film, imaging is repeated in consideration of the field of view size of the CCD camera and the moving speed of the optical film, so that the birefringence distribution of a wide area optical film is obtained.
  • An apparatus for measuring is disclosed.
  • an optical film having a large area has been used as an optical film incorporated therein. Accordingly, there is a need for an apparatus and method that can measure the birefringence characteristics of an optical film having a large area. For example, an inspection of an optical film having a size of about A3 is necessary for a liquid crystal display device of about 20 inches.
  • Patent Document 1 it is desirable to use a telecentric lens as the imaging lens.
  • the field of view of the lens is at most about 5 cm on a side, the A3 size cannot be inspected with one field of view.
  • Patent Document 2 one point on the optical film is measured along the transport direction. Since there is no special retardation plate rotation, measurement is possible without stopping the camera or film. Therefore, in order to extend the single-point measurement to the surface measurement, it is conceivable to arrange this measuring device in the width direction of the optical film.
  • the measurement spatial resolution of the measurement apparatus disclosed in Patent Document 2 is 1 mm square, for example, a total of 294 apparatuses are required to arrange this measurement apparatus in the width direction of the A3 size optical film. Therefore, it can be said that there is no feasibility.
  • the term “measurement spatial resolution” used here means the size of one measurement point on the measurement object, and when the measurement result distribution is finally imaged, it becomes the pixel size of the image.
  • Patent Document 3 since the CCD camera used in Patent Document 3 is provided with a polarizer necessary for measuring the polarization state of the optical film in each light receiving element, a retardation plate is provided for each imaging as in Patent Document 1. There is no need to rotate. However, in this patent document 3, since the noise problem which a CCD camera has cannot be solved, a highly accurate measurement cannot be performed.
  • Patent Document 3 measurement of one visual field size is performed based on one image obtained by one imaging with a CCD camera.
  • a CCD camera even when continuous imaging is performed under the same conditions, the output value obtained each time varies due to variations in luminance due to CCD noise. That is, in Patent Document 3, it cannot be said that measurement reproduction is insufficient.
  • the present invention When measuring polarization characteristics of an optical film having an area larger than the imaging field of view using a two-dimensional image sensor, the present invention requires the image sensor to be stationary on the optical film for imaging in a plurality of polarization states. To provide a polarization characteristic measuring apparatus and method having a high speed and a high measurement accuracy that can be performed without stopping the image sensor even when the same image is taken a plurality of times to improve the measurement accuracy. It is intended.
  • the optical characteristic measuring apparatus includes at least four types of polarization characteristics in the first direction by arranging a light projecting unit that irradiates a measurement object with specific polarized illumination and a wave plate aligned in the first direction. And an imaging means including an image sensor partitioned into an imaging area for individually imaging light transmitted through the wave plate, and the imaging means relative to the measurement target in the first direction.
  • a scanning means for moving, and with the relative movement of the imaging means by the scanning means an output value obtained by imaging each measurement pixel to be measured a plurality of times in each imaging area is added for each measurement pixel and imaging is performed.
  • a measurement value in the area is calculated, and a Stokes parameter of light for each measurement pixel is calculated from the measurement values collected from each imaging area.
  • the image sensor preferably captures an image using an image sensor having a large number of pixels, and outputs one output value for each combined cell obtained by combining a plurality of adjacent pixels.
  • a polarization transfer matrix representing the relationship between the light emitted from the measurement object and the output value output from each imaging area of the image sensor is obtained for each coupled cell, and the polarization transfer matrix and each imaging It is preferable to obtain the Stokes parameter to be measured using the output value output from the area.
  • the measurement spatial resolution is determined as a condition for the measurement of the optical film 12 as a measurement target. Therefore, the final measurement result is a microscopic image obtained by subdividing the optical film 12 by the size of the measurement spatial resolution. It is a set of measurement results for each area, that is, surface distribution information of optical characteristics. On the optical film 12 to be measured, it is assumed that there are virtually subdivided areas with the measurement spatial resolution, and each of these areas is collectively referred to as “measurement pixel E” hereinafter.
  • the image sensor preferably outputs an output value obtained by imaging in units of coupled cells.
  • the “combined cell” referred to here is a large cell (combined cell) in which a predetermined number of imaging cells of adjacent image sensors are vertically and horizontally arranged, and the output value of the cell is all the imaging cells included in the combined cell. The output value is averaged.
  • Each of the combined cells is collectively referred to as “combined cell CP” hereinafter.
  • the reason why imaging is performed in units of coupled cells CP in this way is as follows.
  • the graph of FIG. 2 shows variations in output values when a 12-bit output CCD camera is used as an image sensor.
  • relatively bright light (light whose output value is near 3740) is input to a combined cell in which a predetermined number of pixels are combined, and the measurement is simply performed 256 times, from the maximum value of all output values.
  • This is a plot of the variation width minus the minimum value.
  • the vertical axis represents the variation in the output value of the CCD camera
  • the horizontal axis represents the number of combined cells indicating the number of combined pixels.
  • a combined cell with 4 combined cells has 2 vertical pixels and 2 horizontal pixels.
  • the black circles represent the variation width (measurement result) of the output values of the CCD camera
  • the dotted line represents the approximate curve obtained from the black circles.
  • the output value of the CCD camera varies greatly, so that accurate measurement cannot be performed unless the number of captured images is increased and averaging is performed.
  • the CCD used to obtain this graph is 1 / 1.8 inches, 2 million pixels, and the imaging cell size is 4.4 ⁇ m square.
  • the number of pixels constituting the combined cell CP is preferably a number of N 2 (N is a natural number) starting from 1, such as 1, 4, 9,..., And the maximum value is formed on the image sensor. It is assumed that the measurement spatial resolution of the measurement target to be measured (that is, the size of the measurement pixel E) is the number that becomes the size of the combined cell.
  • FIG. 3 shows the imaging unit 15.
  • an example using a CCD as an image sensor is shown, but a CMOS may be used as the image sensor.
  • four wave plates are used to realize one kind of polarization characteristic per wave plate.
  • the number of wave plates is not limited to four as will be described later.
  • the structure of the imaging unit 15 includes a camera case 40, a CCD camera 41, a telecentric lens 42, a CCD camera rotation mechanism 43, first to fourth wavelength plates 45 to 48, and a polarizing plate 49.
  • the camera case 40 has a substantially rectangular parallelepiped shape, and one opening 40a (see FIG. 4) for attaching the first to fourth wave plates 45 to 48 and the polarizing plate 49 is formed.
  • a CCD camera 41 In this camera case 40, a CCD camera 41, a telecentric lens 42, and a CCD camera rotation mechanism 43 are provided.
  • the CCD camera rotation mechanism 43 is provided for the purpose of adjusting the one direction of the two-dimensional array of coupled cells to coincide with the scanning direction of the scanning means. Note that an arrow X in FIG. 3 indicates the relative movement direction of the measurement target (either the measurement target or the imaging unit may move).
  • the telecentric lens 42 is a bilateral telecentric lens or an object side telecentric lens.
  • the telecentric lens 42 forms an image of the measurement object on the CCD with a size obtained by multiplying the lens magnification. (A magnification of 1 to 1/3 times is used.) Due to the deep focal depth of the telecentric lens and the ability to capture the light beam parallel to the optical axis, the light transmitted through each wave plate is mixed. It reaches the image sensor without matching and forms an individual area corresponding to each wave plate.
  • each area on the CCD substantially divided by the wave plate that is formed by the light beam that has passed through each wave plate is collectively referred to as an “imaging area”.
  • the light emitted from the measurement pixel E first enters the section of the first wavelength plate 45 for a while. Cross this section.
  • the first wave plate 45 is imaged in the imaging area 50 corresponding to the CCD 55 by the action of the telecentric lens 42. Therefore, while the measurement pixel E crosses the section of the first wave plate 45, the image of the measurement pixel E is the imaging area.
  • Crossing 50 sections imaging is performed a plurality of times in accordance with the movement of the measurement pixel E by a certain distance.
  • the second to fourth wavelength plates 46 to 48 form an image in the imaging areas 51 to 53, and the measurement pixel E is again imaged a plurality of times.
  • the polarization transfer matrix representing the relationship between the Stokes parameter of the light incident on the imaging means and the output value output from the image sensor is obtained in advance for each CCD combined cell CR.
  • the CCD output value for the measurement pixel E obtained by imaging is the matrix product of the Stokes parameter of the light emitted from the measurement pixel E and the polarization transfer matrix of the combined cell that images it.
  • Each output value of the CCD relating to the measurement pixel E obtained by imaging is added for each imaging area and taken out as a measurement value in the imaging area.
  • the matrix sum of the polarization transfer matrix of the combined cell CR used when imaging the measurement pixel E is also performed for each imaging area.
  • the relational expression of the measurement value E, the Stokes parameter of light, and the polarization transfer matrix for the measurement pixel E is obtained by the number of imaging areas (or the number of types of polarization states embodied). Since there are four types of measurement values, the number of imaging areas, Stokes parameters can be calculated from this. By performing this process for each measurement pixel E, the surface distribution information of the Stokes parameter to be measured is calculated.
  • the image sensor captures an image across two adjacent combined cells with a predetermined measurement pixel.
  • the output value of the predetermined measurement pixel is obtained by multiplying the ratio of the pixel that has captured the predetermined measurement pixel in one combined cell by the output average value of the pixel, and the predetermined measurement pixel in the other combined cell. It is preferable that the ratio of a pixel occupied by imaging is multiplied by an average output value of the pixel.
  • the moving unit moves at least one of the measurement target and the imaging unit in the first direction, and each time imaging of the measurement target in the first direction by the imaging unit is completed, the measurement unit or the imaging unit It is preferable that at least one of them is moved in a second direction perpendicular to the first direction and parallel to the measurement object.
  • the moving means moves at least one of the measuring object and the imaging means in a second direction perpendicular to the first direction and parallel to the measuring object
  • the second means of the imaging means and the light projecting means The position is moved while maintaining the positional relationship in the direction, that is, moved so that the positional relationship does not change, so that the polarization irradiation width of the light projecting means is narrowed to the extent that the field width in the second direction of the imaging means can be irradiated. It is preferable.
  • the number of types of polarized light embodied by the wave plate is 4 to 40.
  • the wave plate preferably has a retardation effect similar to that of a wave plate having a retardation amount of 70 ° to 170 ° or 190 ° to 290 °.
  • the wave plates are aligned and arranged in the first direction to realize at least four kinds of polarization characteristics in the first direction, and the light transmitted through the wave plate is individually provided.
  • the image pickup means having an image sensor divided into the image pickup areas to be picked up is used to move the image pickup means relative to the measurement target in the first direction so that each measurement pixel of the measurement target is in each image pickup area.
  • the output values obtained by imaging multiple times are added to calculate the measurement value in the imaging area for each measurement pixel, and the measurement values collected in the same manner from each imaging area are output from the measurement target for each measurement pixel.
  • the Stokes parameter of the obtained light is calculated.
  • each measurement pixel on the measurement object is continuously subjected to four or more types of polarization measurement image pickup during the relative movement as the measurement object moves in the first direction with respect to the image pickup means. Done. Furthermore, within one imaging area, each measurement pixel is imaged multiple times with different measurement pixels, and the polarization transfer matrix of each measurement pixel is pre-measured, so the real average processing is performed as multiple measurements of the same measurement. It is possible to improve the S / N ratio.
  • the measurement surface can be widened by moving the imaging object in the second direction by the visual field width, and movement in the first direction is performed.
  • the entire surface of the measurement object can be measured by repeating the imaging and the movement in the second direction. Since four or more polarization states are measured, the measurement Stokes parameter can be determined. By comparing the Stokes parameter of the light source with the measured Stokes parameter, the polarization characteristic of the measurement object can be calculated.
  • the present invention it is possible to quickly and accurately measure the polarization characteristics of a wide area optical film.
  • the measurement can be performed in about 2 and a half minutes while the conventional method requires about 10 minutes under conditions of a spatial resolution of 1 mm square and an axial direction measurement accuracy of 0.1 °. That is, according to the present invention, a speed increase of about 4 times can be achieved as compared with the conventional method.
  • FIG. 6 is an explanatory diagram for describing imaging of a measurement pixel E in first to fourth imaging areas of a CCD camera. It is the schematic of the optical characteristic measuring apparatus of this invention. It is a flowchart showing the effect
  • FIG. 6 is an explanatory diagram for explaining that the measurement pixel E1 is imaged by each coupled cell in the second to fourth imaging areas of the CCD camera.
  • FIG. 6 is an explanatory diagram for explaining that output values obtained by imaging measurement pixels E1 to En are stored in first to fourth storage units E11 to En4. It is explanatory drawing for demonstrating the case where combined cell CP11 and CP12 image the measurement pixel E1 in the ratio of 7: 3.
  • FIG. 7 is an explanatory diagram for explaining that a measurement pixel E1 is imaged 11 times by combined cells CP11 to CP15. It is explanatory drawing for demonstrating the case where combined cell CP11 and CP12 image the measurement pixel E1 in the ratio of 5: 5. It is a graph which shows the relationship between the amount of retardation of the wavelength plate to be used, and the amount of calculation errors. It is a table
  • FIG. 3 is a schematic diagram showing an imaging unit in which first to fourth wavelength plates are provided immediately before a CCD camera. It is the schematic of the measuring apparatus manufactured by making an illumination part thin. It is the schematic which shows a measuring apparatus provided with two CCD cameras.
  • the optical property measuring apparatus 10 of the present invention measures an optical film 12 having a predetermined birefringence property as a measurement object.
  • the optical film 12 to be measured is placed on the surface illumination unit 14 attached to the sample stage 13.
  • the optical film 12 is illuminated with circularly polarized illumination light emitted from the surface illumination unit 14, and the light emitted from the optical film 12 is imaged while the sample stage 13 is moved in the X direction by the imaging unit 15.
  • the computer 16 obtains the optical characteristics of the optical film 12 by performing various analyzes based on the output values obtained by the imaging unit 15. Note that elliptically polarized light may be used as the polarized illumination.
  • the sample stage 13 can be moved in the X direction along the two rails 22 a and 22 b on the base 22 by the X direction moving mechanism 20.
  • the X-direction moving mechanism 20 includes a servo motor that is driven based on a driving pulse output from the X motor driver 24.
  • the imaging unit 15 is attached to an arm 31 provided on the support base 30.
  • the arm 31 can be moved in the Y direction orthogonal to the X direction by the Y direction moving mechanism 33, and can be moved in the Z direction orthogonal to the X direction or Y direction by the Z direction moving mechanism 34.
  • the imaging unit 15 can also move in the Y direction or the Z direction.
  • the purpose of moving in the Z direction is to adjust the focus of the imaging unit 15.
  • the Y-direction moving mechanism 33 is driven based on a drive pulse output from a Y motor driver (not shown).
  • the drive pulses from the X motor driver 24 and the Y motor driver are also transmitted to an X pulse counter 26 and a Y pulse counter (not shown), respectively. Each pulse counter counts the received drive pulses.
  • the value counted by the pulse counter is sent to the computer 16. Since the computer 16 stores the amount of movement of the sample stage 13 per pulse and the amount of movement of the imaging unit 15, the visual field of the imaging unit 15 is located on the sample stage 13 from the count values of both pulse counters. I can understand.
  • measurement preparation is performed first, and here, the polarization transfer matrix of the imaging unit 15 is specified for each coupled cell CP of the CCD camera 41. This operation is performed only once as an initial setting.
  • the obtained polarization transfer matrix is stored in the computer 16, and after the initial setting, the obtained polarization transfer matrix is used.
  • the calibration measurement is performed next to the measurement preparation.
  • the Stokes parameter (hereinafter referred to as S parameter) of the light emitted from the surface illumination unit 14 is measured in units of measurement resolution over the entire surface of the surface illumination unit 14.
  • the surface illumination unit 14 serving as a light projecting unit is regarded as having virtually subdivided areas in units of measurement resolution, and the individual areas are collectively referred to hereinafter. , Called “projection pixel L”. Therefore, the calibration measurement is a step of obtaining the S parameter in the light projection pixel unit L.
  • Calibration measurement is not necessary unless there is a light source fluctuation, but it is generally desirable to do it at the first measurement of the day.
  • the actual measurement is performed next to the calibration measurement.
  • the optical film 12 is placed on the surface illumination unit 14 and the S parameter of the light transmitted through the optical film 12 is spread over the entire surface of the optical film 12. Measurement is performed in units of measurement resolution (ie, measurement target E).
  • the S-parameters obtained by actual measurement are compared with the S-parameters of the illumination unit to calculate the birefringence characteristics of the measurement object. What is important here is to match the position of each measurement pixel E in actual measurement with the position of each projection pixel L in calibration measurement, and a counter of the measurement target stage is used for this purpose. The current value of the counter tells where each combined cell of the camera captures the stage to be measured. Therefore, the output value of each combined cell obtained at the time of measurement is accurately distributed to each projection pixel L or each measurement pixel E. be able to.
  • the measurement preparation step is a step of specifying the polarization transfer matrix of each coupled cell of the CCD camera used in the imaging unit 15 of the present apparatus prior to actual measurement.
  • the measurement mechanism itself used for this specification may be incorporated in the apparatus, or may be separated from the apparatus, and the polarization transfer matrix measurement may be performed outside, and only the data may be taken into the computer 16 using a means such as a USB memory.
  • locality local polarization transmission characteristics
  • the polarization transfer matrix is a matrix that represents the relationship between the S parameter of the light incident on the imaging unit 15 and the output value output from the CCD camera 41.
  • This polarization transfer matrix can be determined from the product of a Mueller matrix (hereinafter referred to as M matrix) such as an optical member forming the imaging unit 15.
  • M matrix a Mueller matrix
  • the M matrix associated with a certain coupled cell on the CCD is the M matrix of the light beam passing portion of any of the wave plates 45 to 48 through which the light beam incident on the coupled cell has passed, and the M matrix of the light beam passing portion of the polarizing plate 49. Is multiplied by the M matrix of the beam passing portion of the telecentric lens and the M matrix of the coupled cell of the CCD.
  • [Formula 1] represents a general form of the M matrix.
  • the x mark is an element that does not need to be specified because it does not relate to subsequent calculations.
  • Equation 3 Let the matrix of the form shown in [Equation 3] be a general symbol representing the polarization transfer matrix in the combined cell.
  • K is a proportional coefficient of the polarization transfer matrix, and this value also includes the shading effect of the CCD camera (quantity efficiency of each coupled cell of the CCD camera 41 and variations in the gain coefficient).
  • the polarization transfer matrix is obtained individually for every combined cell of the imaging unit 15 using the light 70 whose S parameter is known.
  • the light 70 whose S parameter is known is obtained by allowing the parallel light from the parallel monochromatic light source 72 to pass through the polarizing plate PL1 and the quarter-wave plate QWP1 in the reference projector 71.
  • the polarizing plate PL1 is fixed in orientation and the transmission axis is arranged at 0 ° with the reference direction of the orientation in the imaging unit 15 as 0 °.
  • the quarter-wave plate QWP1 has a motor-driven continuous rotation mechanism (not shown), and is used by continuously rotating this in the measurement of the polarization transfer matrix.
  • the actual retardation amount and axial direction of the wave plate QWP1 are known, and the fast axis direction is defined with the reference direction in the imaging unit 15 being 0 °.
  • the known light 70 is a light beam around the center of the optical axis of the reference projector 71.
  • the polarization transfer matrix of one coupled cell is measured in one measurement.
  • the reference projector 71 and the imaging unit 15 are made to relative to each other using the XY moving mechanism 71a of the reference projector 71 so that the optical axis center of the light beam of the reference projector 71 passes through the center of the coupled cell that is the measurement target of the imaging unit 15. .
  • the polarization transfer matrix measurement of one coupled cell is completed, the polarization transfer matrix measurement of the adjacent measurement pixel is performed using the XY moving mechanism 71a. In this way, the polarization transfer matrix of all the coupled cells of the imaging unit 15 is measured.
  • the orientation of QWP1 is ⁇
  • the phase difference is ⁇
  • C cos2 ⁇
  • S sin2 ⁇
  • K ′ is a coefficient for matching with the actual output value of the CCD camera 41 and is a real number determined during this measurement.
  • the Fdc has a CCD dark current (a CCD that outputs zero light outputs a certain value).
  • BG a value obtained by subtracting BG from Fdc in [Equation 8] is a DC component to be used in the subsequent calculation, and Equation 4 in [Equation 8] is corrected to [Equation 9].
  • the BG can be specified by completely blocking the light from the CCD camera, and this value is obtained in advance.
  • the number of unknowns is K ⁇ K ′, M 12 , M 13 , and M 14 , so the value is obtained.
  • M 12 can be specified from (1) ⁇ (2), then K ⁇ K ′ can be specified, and then M 13 and M 14 can be specified.
  • K ⁇ K ′ is a different value for each combined cell, but K ′ is a value related to the light intensity used in the preparation for the measurement, and can be regarded as being constant during this measurement. Therefore, the value of K ⁇ K ′ specified here can be used as a relative signal strength ratio between the combined cells in the subsequent measurement (calibration measurement, actual measurement). Further, in the subsequent measurement, even if the light intensity may be different from the measurement of the current measurement preparation, this value can be used as the relative signal intensity ratio between the combined cells.
  • each element of the polarization transfer matrix in each identified combined cell CP is stored in the computer 16.
  • the value of K ⁇ K ′ specified here is referred to again by the symbol K in the following description.
  • the wavelength plate, the polarizing plate, the lens, and the CCD are collectively measured as a polarization transfer matrix after being assembled, it is not necessary to specify each one. This creates a significant benefit in reducing the measurement load.
  • a temporary output value storage area is provided in the computer 16 to store the CCD output value.
  • This output value storage area is an array distinguished by two-dimensional XY addresses on the measurement stage of the measurement pixel E, and one array element is the number of wave plates as shown in FIG. 9 and the number of measurements on one wave plate.
  • the two-dimensional structures are distinguished from each other, and the whole is a four-dimensional structure.
  • the sample stage 13 is first moved from one end to the other end in the X direction while the imaging unit 15 is stationary at a predetermined position in the Y direction.
  • an imaging trigger is issued and imaging is automatically performed.
  • optical film 12 an optical film 12
  • the imaging unit 15 captures an image up to the other end of the optical film 12
  • measurement is performed for the visual field width of the camera. Therefore, in order to change the camera field of view, the imaging unit 15 is now moved in the Y direction by the field of view width.
  • the optical film 12 is moved again from the other end to the other end, and an unimaged portion such as the optical film 12 is imaged. The above procedure is repeated to image the entire optical film 12 and the like.
  • the measurement pixel E is set to be the same as the size of the combined cell CP on the CCD. This setting can be adjusted by the magnification setting of the telecentric lens or the number of combined cells.
  • the five first combined cells provided in the first imaging area 50 are CP11 to CP15, and the five second combined cells provided in the second imaging area 51 are CP21 to CP25.
  • the five third combined cells provided in the third imaging area 52 are CP31 to CP35, and the five fourth combined cells provided in the fourth imaging area 53 are CP41 to CP45.
  • the measurement pixels of the optical film 12 are E1 to En (n is a natural number of 2 or more).
  • the image of the measurement pixel E1 reaches the first combined cell CP11 in the first imaging area at a certain timing.
  • the first combination cell CP11 images the measurement pixel E1.
  • the output value obtained by this imaging is stored in the output value storage area EM1 for the measurement pixel E1 in the computer 16.
  • EM1 is a two-dimensional array as shown in FIG. 9, where the row direction is the number of imaging areas and the column direction is the number of measurement values. This output value is stored in the row EM11 for the first imaging area in the output value storage area EM1.
  • the image of the measurement pixel E1 of the optical film 12 is positioned on the first combined cell area CP12. Then, the first combined cell area CP12 images the measurement pixel E1. The output value obtained by this imaging is stored in another area of the row EM11 for the first imaging area in the output value storage area EM1 for the measurement pixel E1. Similarly, the measurement pixel E1 is imaged in the first combined cell areas CP13 to CP15, and the output value obtained by this imaging is stored in the EM11. Therefore, the measurement pixel E1 passes through the first imaging area, and thus imaging is performed five times in total.
  • the combined cell CP21 images the measurement pixel E1.
  • the output value obtained by this imaging is stored in the second imaging area row EM12 of the output value storage area EM1 in the computer 16.
  • imaging is performed every time the measurement pixel E1 passes through the second combined cells CP22 to CP25, and output values obtained by the imaging are sequentially stored in the EM12.
  • the measurement pixel E1 passes through the fourth combined cell CP45 in the fourth imaging area 53, the measurement for the measurement pixel E1 is completed.
  • the measurement pixel E2 located one backward with respect to the traveling direction of the measurement pixel E1 starts and ends with a delay of one imaging trigger with respect to the measurement pixel E1, but the same contents are performed.
  • the measurement pixels E3, E4, E5,... En located further rearward are each imaged while being shifted by one imaging trigger, and the process ends.
  • These output values are stored in the output value storage areas EM21 to EMn4 for the measurement pixels E2 to En corresponding to the output value storage areas EM11 to EM14 shown in FIGS. The correspondence is shown in FIG.
  • the sum of the five output values S11- ⁇ 1 to S14- ⁇ is obtained.
  • the total of such output values is referred to as a measured value, and S is represented by adding a subscript “_ ⁇ ”.
  • the first number 1 attached to S, S11 to S14 is a number for identifying a measurement pixel and is originally a number group corresponding to a two-dimensional address. In this example, it corresponds to 1 of E1.
  • the second numbers 1 and 4 correspond to the imaging areas 1 to 4 and are the wave plate numbers used for the measurement.
  • the subscripts _A1 to _A5 indicate the order of measurement in one imaging area, that is, the first measurement to the fifth measurement result.
  • each of the coupled cells CP11 to CP45 has a unique polarization transfer matrix, and this value is specified in the measurement preparation process.
  • the polarization transfer matrices CP11 to CP45 are written out in order according to the definition, [Formula 11] is obtained.
  • the numbers such as subscript_CP11 are numbers for distinguishing combined cells.
  • the polarization transfer matrix and the measurement pixel of the combined cell are expressed as shown in [Equation 12] below. It should be defined by the matrix product of the S parameter of E1 with
  • the suffix _E1 indicates the S parameter of the measurement pixel E1.
  • the first number of subscripts of a known amount indicates the element number of the S parameter that is a coefficient, and the second number is a number that distinguishes the wavelength plate.
  • _N is a subscript for distinguishing the position of the combined cell in the Y direction. In this example, since one cross section in the X direction is handled, the value indicates a certain cross section position.
  • one measurement pixel E1 is sequentially imaged by the coupled cells arranged in the X direction on the CCD on which the image is formed, and finally the S parameter is calculated. Since all the pixels are imaged simultaneously in the CCD, all the coupled cells capture some measurement pixel E on the optical film 12 and the same processing is performed at the same time while the above processing is performed. . If you look at the CCD as a whole, it has the processing capacity of the combined cells in the field of view.
  • the S parameter for all the measurement pixels E can be obtained in the same manner as the method for obtaining the S parameter for the measurement pixel E1.
  • the obtained S parameter is stored in the actual measurement S parameter storage area in the computer 16 in accordance with the XY address of the measurement pixel E.
  • the S parameter of all the light projection pixels L of the surface illumination unit 14 is measured instead of the measurement pixel E.
  • the S parameters of all the projection pixels L are stored in an S parameter storage area for calibration measurement in the computer 16.
  • the XY address of the measurement pixel E and the XY address of the projection pixel L are determined by the position of the sample stage when the imaging trigger is issued. , The positional relationship is overlapped vertically. Further, the light that illuminates the measurement pixel E can be regarded as being emitted from the projection pixel L having the same XY address by the function of selecting and supplementing the deep focal depth of the telecentric lens and the light component parallel to the optical axis.
  • a numerical value known as a known amount can be calculated in advance. This has an effect that it is very advantageous for speeding up the processing in an application that needs to process a large amount of measurement data such as two-dimensional measurement.
  • the computer 16 calculates the principal axis direction and retardation of the entire surface of the optical film based on the S parameter of the entire surface illumination unit 14 obtained by the calibration measurement and the S parameter of the entire surface of the optical film 12 obtained by the actual measurement. Measurements When the T
  • imaging may be performed five times or more, for example, ten times. In this case, as shown below, it is performed by overlapping imaging (one imaging field of view and the next imaging field of view partially overlap).
  • the overlap imaging is performed by setting the amount of movement of the sample stage between one imaging trigger to be equal to or less than the length L in the X direction of the measurement pixel.
  • a movement amount is set, since one measurement pixel is imaged across two adjacent combined cells, it is necessary to distribute output values.
  • FIG. 13 shows a state of the second imaging in the example of FIG. 10 when the movement amount between one imaging trigger is set to 3/10 of L.
  • the measurement pixel E1 is positioned on the 7/10 region of the combined cell CP11 and is positioned on the 3/10 region of the combined cell CP12. In such a case, a SUB combined cell is defined.
  • the SUB merged cell is an integer multiple of 1/10 of the merged cell CP in the X direction and the same size as the merged cell in the Y direction.
  • the output average of the CCD imaging cell contained in the SUB merged cell is the SUB merged cell.
  • the output value of the combined cell In FIG. 13, a SUB combined cell of CP11 is formed in area 7 (indicated by hatching) and a SUB output value S11_CP11 is formed as an output value, and a SUB combined cell of CP12 is formed in area 3 of CP12 (indicated by hatching) Then, SUB output value S11_CP12 is created as the output value, and each is stored in EM11. Further, at this time, the output value is treated as having the contents shown in [Equation 18].
  • FIG. 14 shows a state in the imaging area 50 when the movement amount between one imaging trigger is set to 5/10 of L
  • FIG. 15 shows a state of the SUB coupled cell at the time of the third imaging.
  • the measurement pixel E1 is imaged a total of 11 times with CP11 to CP15.
  • the definition of the 11 output values is [Equation 19].
  • symbols and “symbols” are symbols used to clearly indicate the difference in measurement timing.
  • the known amount in this result is calculated as [Equation 20]. This is twice the [Equation 14], and can be interpreted as a result of an increase in imaging.
  • the known amount is corrected by the distribution relational expression such as [Equation 18] and [Equation 19]. Since the imaging timing is determined by the position of the sample stage, it is possible to design in advance in which coupling cell CP or SUB coupling cell the measurement pixel E is imaged at all imaging timings. The size and known amount of the combined cell can be calculated in advance at all imaging timings.
  • the first to fourth wave plates 45 to 48 are wave plates having a retardation amount of about 135 °, and the principal axis direction (fast axis direction) is the same as that of the first wave plate 45 in FIG.
  • the second wave plate 46 is arranged so as to have an axial direction of about 20 °.
  • the second wave plate 46 is arranged in an direction in which the axial direction is added to the first wave plate 45 by about 36 °.
  • 47 is arranged in an orientation in which the axial direction is further added by about 36 ° with respect to the second wavelength plate 46
  • the fourth wavelength plate 48 is arranged in an direction in which the axial direction is further added by about 36 ° with respect to the third wavelength plate 47.
  • the polarizing plate 49 was arranged so that the transmission axis was oriented at 0 °.
  • the reason why the word “abbreviated” is used here is that, in the measurement preparation process shown in the flowchart of FIG. 6, the imaging unit specifies the polarization transfer matrix in units of coupled cells CP, and thereafter the polarization transfer matrix is used. This is because strictness is not necessary here. Generally, it should be in the range of ⁇ 0.5 °.
  • the N wave plates there are four types of wave plates, but there may be four or more types of wave plates.
  • N types of wave plates N is a natural number of 5 or more
  • the N wave plates are arranged in such a manner that the main axis orientation is uniformly distributed at 180 °.
  • the amount of retardation of each wave plate is preferably about 135 °.
  • the principal axis orientation of the first wave plate may be an arbitrary direction.
  • this CCD calculation error effect of CCD noise
  • the selection of this coefficient is nothing but the specifications of the wave plate (selection of the amount of slow phase and principal axis orientation).
  • the minimum value of the number of wave plates is four kinds necessary for determining the S parameter, and the maximum value is up to about 40.
  • wave plates For the types of wave plates, it is preferable to use wave plates with the same amount of retardation, and to make a difference in the orientation of the main axis, and to arrange the directions different from each other by an angle obtained by dividing 180 ° by the number of wave plates. But the calculation error was the smallest.
  • Such an installation method of the installation wave plate is hereinafter referred to as equal division, and the number of wave plates is referred to as the division number.
  • the retardation amount of the wave plate has a region where the calculation error is minimized around 135 ° in the number of all wave plates.
  • the angle division of the direction of the wave plate is set to be equal division (however, only four divisions are 36 ° difference). This tendency was confirmed in all of the 4 to 40 divisions.
  • the first to fourth wave plates 45 to 48 are provided on the object side of the telecentric lens. Instead, as shown in FIG. 18, the first to fourth wave plates are provided. Wave plates 45 to 48 may be provided immediately in front of the CCD camera. Here, a polarizing plate 49 is provided between the first to fourth wave plates 45 to 48 and the CCD camera 41.
  • the wavelength plate can be made small and the cost is reduced.
  • the telecentric lens comes out of the polarizing plate, there is a demerit that an error in obtaining the birefringence transfer function becomes large.
  • the surface illumination unit 14 having a size for illuminating the entire surface of the optical film 12 is used to move the imaging unit 15 in the X direction and the Y direction.
  • the width is narrowed to illuminate the visual field width in the Y direction of the imaging unit 15, and the illuminating unit 14 is also moved in the Y direction when the imaging unit 15 moves Y. 101 may be used. In the case of such a configuration, an effect of reducing the cost of the surface illumination unit 14 and shortening the acquisition time of the Stokes parameters can be obtained.
  • a sample stage 102 in which an opening is formed in a portion where the optical film 12 is placed is used instead of the sample stage 13.
  • the optical characteristics of the entire optical film 12 are measured by moving one CCD camera 41 in the X and Y directions.
  • a plurality of CCD cameras 41 are measured. Measurement may be performed with a single CCD camera.
  • one dedicated camera CPU is provided for each camera, and a main CPU that integrates a plurality of camera CPUs is provided at the upper level.
  • the polarization transfer matrix of each combined cell of the camera is placed on the main CPU side, and each known amount is calculated in advance.
  • the S parameter storage area for calibration measurement and actual measurement is also placed in the main CPU.
  • An output value storage area for storing the measurement results of each camera is also placed on the main CPU side, but a copy (replica) of the output value storage area is prepared on the camera CPU side.
  • each CCD camera repeats imaging.
  • the camera CPU calculates output values in units of combined cells (in some cases, SUB combined cells) and stores them in a replica (replica) of the output value storage area.
  • the imaging in the X direction reaches the scanning end, the Y movement corresponding to the visual field width of each camera and the movement of the sample stage to the scanning start end in the X direction are performed, but since the imaging is not performed during this movement, the camera The CPU has no imaging load.
  • the camera CPU performs data copying from the copy of the output value storage area to the output value storage area on the main CPU side.
  • the main CPU detects a copy of data in the output value storage area, calculates and stores S parameters, and calculates the polarization characteristics of the optical film. Since the main CPU is immune from the imaging load even during the imaging of the CCD camera, most of the C ⁇ PU power can be allocated to this calculation. As described above, both the camera CPU and the main CPU can be operated efficiently, and the effect of speeding up the processing by increasing the number of cameras can be obtained.
  • the start and end of imaging are not described in detail.
  • the output obtained by imaging at this time The value should not be used in subsequent calculations.
  • the boundary between the first to fourth wavelength plates was not described in detail, when the measurement pixel E is imaged on the boundary between the first to fourth wavelength plates, the output value obtained by this imaging is obtained. Should not be used in subsequent calculations. This is because the position detection means can always identify where each CCD-coupled cell captures the sample stage 13, so that information at unnecessary positions on the sample stage can be excluded.
  • the coupled cell at the position where the joint of the wave plate is imaged is known in advance, it is possible to avoid using this portion.
  • imaging is performed in units of combined cells obtained by combining a plurality of adjacent imaging cells.
  • imaging may be performed in units of imaging cells. Good.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Liquid Crystal (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

広面積の光学フイルムの光学特性を迅速且つ精度良く測定する。測定対象である光学フイルム12は面照明部14上に載せられている。面照明部14からは光学フイルム12に向けて円偏光が投光される。光学フイルム12がX方向に移動することで、光学フイルム12上の測定画素Eは、撮像部15内のCCDカメラの第1~第4撮像エリアを順に通過する。CCDカメラは、測定画素Eが各撮像エリアを通過するときに、測定画素Eを複数回撮像する。この複数回の撮像により得られる出力値を加算したものをその撮像エリアでの測定値とする。測定画素Eのストークスパラメータは、4つの撮像エリアの測定値から算出する。光学フイルム12上の全ての測定画素Eについてストークスパラメータを取得する。

Description

光学特性測定装置及び方法
 本発明は、光学フイルムの偏光特性を測定する光学特性測定装置及び方法に関する。
 液晶表示装置には、偏光板、視野角補正フイルム、反射防止フイルムなどの各種の光学特性を有する機能性プラスチック樹脂フイルム(以下「光学フイルム」という)が使用されている。液晶表示装置は、液晶のもつ複屈折特性を利用してコントラストを得ているため、使用する光学フイルムにも所定の複屈折特性をもたせる必要がある。この光学フイルムの複屈折特性が面全体にわたって均一性を有していない場合には、液晶表示装置における画像表示にムラが生じてしまうことになる。
 したがって、液晶表示装置に光学フイルムを組み込む前には、フイルムが所望の複屈折特性を有しているか否かを測定する必要がある。複屈折特性の測定は、測定対象となる光学フイルムに対して測定光を照射する光源と、光学フイルムから出た光を受光する受光器と、光学フイルムの偏光特性などを測定するための位相差板や偏光板などの各種光学部材とを用いて行なわれる。
 例えば、特許文献1では、光源と受光器であるCCDカメラの間においた位相差板を光軸まわりに回転させることによって様々な偏光状態を作り出している。そして、異なる偏光状態の画像をCCDカメラで撮像し、撮像により得られた画像群の各画素の輝度値変化から画素ごとに複屈折特性を算出している。また、特許文献2では、所定方向に搬送中の光学フイルムの複屈折特性をオンラインで測定する方法が開示されている。また、特許文献3では、フイルムを移動させながら測定を行う際に、CCDカメラの視野サイズと光学フイルムの移動速度とを考慮して撮像を繰り返すことによって、広い面積の光学フイルムの複屈折分布を測定する装置が開示されている。
特開2009-229279号公報 特開平5-346397号公報 特開2007-263593号公報
 近年では、液晶表示装置が大型化していることから、それに組み込まれる光学フイルムも、広い面積を持った光学フイルムが使われるようになってきている。これに伴い、広い面積を有する光学フイルムの複屈折特性を測定できる装置や方法が求められている。例えば、20インチ程度の液晶表示装置には、A3程度の大きさの光学フイルムの検査が必要となる。
 この点において、上記の特許文献1~3に示すような従来技術では、以下のような理由から、広面積の光学フイルムの複屈折特性を迅速且つ精度良く測定することができない問題がある。特許文献1の場合には、撮像レンズとしてテレセントリックレンズを用いることが望ましいが、レンズの視野はせいぜい一辺5cm前後であるので、A3サイズを一視野で検査することはできない。
 したがって、CCDカメラの視野に合わせて、光学フイルムを複数の測定エリアに分け、その測定エリア毎に複屈折測定を行うことによって、全体の検査を行なう必要がある。このとき、各測定エリアにおいて、光学フイルムの偏光状態を測定するためにCCDカメラを静止させた状態で位相差板の角度を回転しながら撮像する必要がある。そのため、所定の測定エリアで撮像(静止)→別の測定エリアへCCDカメラを移動→別の測定エリアで撮像(静止)→・・・を繰り返すので、測定がなかなか進まずに時間がかかってしまう問題があった。
 また、特許文献2では、光学フイルム上の一点を搬送方向に沿って測定している。特別な位相差板の回転がないことから、カメラまたはフイルムを停止することなく測定が可能である。そこで、一点測定を面測定に拡張するために、この測定装置を光学フイルムの幅方向に並べることが考えられる。しかしながら、特許文献2で示される測定装置の測定空間分解能が例えば1mm平方である場合には、この測定装置をA3サイズの光学フイルムの幅方向に配置しようとすると、全部で294台の装置が必要になってしまうことから、実現性はないといえる。ここで用いた「測定空間分解能」という言葉は、測定対象上の1測定点のサイズを意味しており、最終的に測定結果の分布を画像化したときにはその画像の画素サイズになる。
 また、特許文献3で使用するCCDカメラには、各受光素子に光学フイルムの偏光状態の測定に必要な偏光子が設けられているため、特許文献1のように撮像のたびに位相差板を回転させる必要はない。しかしながら、この特許文献3では、CCDカメラが有するノイズの問題を解決できていないため、高精度な測定を行うことができない。
 特許文献3では、1視野サイズの測定はCCDカメラの1回の撮像で得られる1枚の画像に基づいて行なわれている。CCDカメラにおいては、同一条件で連続撮像した場合にも、CCDのノイズによる輝度のばらつきによって、毎回得られる出力値には値の変動が生ずる。すなわち、特許文献3では測定の再現が不充分といわざるを得ない。
 本発明は、2次元イメージセンサを用いてその撮像視野より広い面積をもつ光学フイルムの偏光特性を測定する場合に、複数の偏光状態の撮像のためにイメージセンサを光学フイルム上に静止させる必要性を無くすとともに、測定精度をあげるために行う同じ画像の複数回撮像についてもイメージセンサを停止させることなく行うことを可能とする、迅速で高い測定精度を有する偏光特性測定装置及び方法を提供することを目的とするものである。
 本発明の光学特性測定装置は、測定対象に特定の偏光照明を照射する投光手段と、第1の方向に波長板を整列して配列して、第1の方向に少なくとも4種類の偏光特性を具現化し、かつ、前記波長板を透過した光を個別に撮像する撮像エリアに区画されたイメージセンサを備えた撮像手段と、測定対象に対して撮像手段を相対的に前記第1の方向に移動させる走査手段とを備え、前記走査手段による撮像手段の相対移動に伴い、測定対象の各測定画素が各撮像エリアで複数回撮像されて得られる出力値を測定画素ごとに加算してその撮像エリアでの測定値を算出し、各撮像エリアから集まった測定値から、測定画素ごとの光のストークスパラメータを算出することを特徴とする。前記イメージセンサは、多数の画素を有する撮像素子で撮像を行い、撮像時には、隣接する複数の画素を結合した結合セルごとに1つの出力値を出力することが好ましい。測定対象から出た光とイメージセンサの各撮像エリアから出力される出力値との関係を表す偏光伝達行列を、測定の前に結合セル単位で求めておいて、前記偏光伝達行列と前記各撮像エリアから出力される出力値とを用いて、測定対象のストークスパラメータを求めることが好ましい。
 図1に示すように、測定対象である光学フイルム12の測定には測定空間分解能が与件として定められるため、最終的な測定結果は光学フイルム12を測定空間分解能の大きさで細分化した微小エリアごとの測定結果の集合、すなわち光学特性の面分布情報である。測定対象である光学フイルム12上には、測定空間分解能で仮想的に細分化されたエリアがあるとみなし、この1つ1つのエリアを総称して、これ以降、「測定画素E」と呼ぶ。
 前記イメージセンサは、撮像により得られる出力値を結合セル単位で出力することが好ましい。ここでいう「結合セル」とは、隣接するイメージセンサの撮像セルを縦横に所定個数まとめて1つの大きなセル(結合セル)とし、そのセルの出力値は、結合セルに含まれる全ての撮像セルの出力値を平均した値とするものである。この1つ1つの結合セルを総称して、これ以降、「結合セルCP」と呼ぶ。
 このように結合セルCP単位で撮像を行なう理由は、以下のとおりである。図2のグラフは、イメージセンサとして12ビット出力のCCDカメラを使用したときの出力値のばらつきを示したものである。このグラフは、所定数の画素を結合した結合セルに対して比較的明るい光(出力値が3740付近になる光)を入力し、単純に256回測定を行なって全出力値のうち最大値から最小値を引いたばらつき幅をプロットしたものである。このグラフでは、縦軸はCCDカメラの出力値のばららつきを、横軸は画素の結合数を示す結合セル数を表している。ここで、例えば、結合セル数が4の結合セルは、縦2画素、横2画素を有している。なお、図2において、黒丸はCCDカメラの出力値のばらつき幅(測定結果)を、点線は黒丸から得た近似曲線を表している。この結果から、CCDカメラの出力にのるノイズは、結合セル数のほぼマイナス1/2乗に比例しており、ランダムノイズの性質があることがわかる。
 このグラフが示すように1セル、4セル、9セル、16セル、・・・とセルサイズ(結合セル数)を大きくするごとに、CCDカメラの出力値のばらつきが低くなっている。したがって、結合セル数をある程度大きくして撮像を行なわなければ、CCDカメラの出力値のばらつきが大きいため、撮像数を増やして平均化等をしない限り、精度良く測定することができない。なお、このグラフを得るために用いたCCDは、1/1.8インチ、200万画素、撮像セルサイズは4.4μm四方のものである。
 結合セルCPを構成する画素の個数は、1、4、9・・・のように、1から始まる N(Nは自然数)の数列の数が好ましく、最大値は前記イメージセンサ上に結像される測定対象の測定空間分解能(すなわち測定画素Eの大きさ)が結合セルの大きさになる数とする。
 図3に、撮像部15を示す。ここではイメージセンサとしてCCDを用いた例を示すが、イメージセンサとしてはCMOSでも良い。波長板は1枚につき1種類の偏光特性を具現化するとして4枚使用した例を示している。波長板の数も、後で述べるように4種類だけに限らない。撮像部15の構造は、カメラケース40と、CCDカメラ41と、テレセントリックレンズ42と、CCDカメラ回転機構43と、第1~第4波長板45~48と、偏光板49とを備えている。カメラケース40は略直方体形状を有しており、第1~第4波長板45~48および偏光板49を取り付けるための開口40a(図4参照)が1つ形成されている。このカメラケース40内に、CCDカメラ41、テレセントリックレンズ42、CCDカメラ回転機構43が設けられている。なお、CCDカメラ回転機構43は、結合セルの2次元配列の1方向を走査手段の走査方向と一致させる調整目的のためにある。なお、図3における矢印Xは、測定対象の相対移動方向(測定対象または撮像部のどちらが移動しても良い)を示している。
 テレセントリックレンズ42は、両側テレセントリックレンズか物体側テレセントリックレンズを用いる。テレセントリックレンズ42は、測定対象の像をCCD上にそのレンズ倍率を掛けた大きさで結像する。(倍率としては、1倍~1/3倍のものが使用される。)テレセントリックレンズの深い焦点深度と光軸に平行な光束を捕捉する能力のために、各波長板を透過した光は混じり合うことなくイメージセンサに届き、それぞれの波長板に対応した個別のエリアを形成する。この各波長板を通過した光束でもってできる実質的に波長板によって区画されたCCD上の各エリアを、以後、総称して「撮像エリア」と呼ぶ。
 光学フイルム12上のある1つの測定画素Eが、第1~第4波長板45~48を通して、撮像部15でどのように測定されるかを、図4を用いて説明する。なお、図4においては、説明を判りやすくするためテレセントリックレンズ42における縮小または拡大効果、さらに倒置結像効果を図に含めておらず、光学フイルム12上の1点がCCD55上に等倍で正立に結像するように描いてある。
 まず、光学フイルム12上のある測定画素Eが走査手段により撮像部15の視野内に入ってきた時、測定画素Eから出た光は、最初に第1波長板45の区画に入りしばらくの間この区画を横断する。第1波長板45はテレセントリックレンズ42の作用で、CCD55上に対応する撮像エリア50に結像するので、測定画素Eが第1波長板45の区画を横断中、測定画素Eの像は撮像エリア50の区画を横断し、測定画素Eの一定距離の移動にあわせて複数回の撮像が行われる。同様に、第2~第4波長板46~48は、撮像エリア51~53に結像し、測定画素Eはここでも複数回の撮像が行われる。
 撮像手段に入射した光のストークスパラメータとイメージセンサから出力される出力値との関係を表す偏光伝達行列を、事前にCCDの結合セルCR単位で求めておく。
 撮像で得られた測定画素Eに関するCCDの出力値は、測定画素Eから出た光のストークスパラメータとそれを撮像した結合セルが持つ偏光伝達行列の行列積である。
 撮像で得られた測定画素Eに関するCCDの各出力値は撮像エリアごとに加算して、その撮像エリアにおける測定値として取り出す。同時に、測定画素Eの撮像時に使われる結合セルCRの偏光伝達行列の行列和も撮像エリアごと行っておく。こうして、測定画素Eに関する、測定値と光のストークスパラメータと偏光伝達行列の関係式が、撮像エリアの数(または具現化した偏光状態の種類の数)だけ得られる。測定値は撮像エリアの数の4種類あるためこれからストークスパラメータが算出できる。この工程を、測定画素Eごとに行うことで、測定対象のストークスパラメータの面分布情報を算出する。
 前記イメージセンサは、所定の測定画素が隣接する2つの結合セルに跨って撮像されることが好ましい。前記所定の測定画素の出力値は、一方の結合セルのうち所定の測定画素を撮像した画素が占める割合とその画素の出力平均値を掛けたものと、他方の結合セルのうち所定の測定画素を撮像した画素が占める割合とその画素の出力平均値を掛けたものとからなることが好ましい。
 前記移動手段は、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に移動させるとともに、前記撮像手段による測定対象の第1の方向の撮像が完了するごとに、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に直角で測定対象とは平行な第2の方向に移動させることが好ましい。
 前記移動手段が、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に直角で測定対象とは平行な第2の方向に移動させる場合には、撮像手段と投光手段の第2の方向における位置関係を維持しつつ移動させ、すなわち位置関係に変化が生じないように移動させて、投光手段の偏光照射幅を撮像手段の第2の方向の視野幅を照射できる程度に狭くしたことが好ましい。
 前記波長板によって具現化される偏光の種類の数が、4ないし40であることが好ましい。前記波長板は、遅相量が70°ないし170°または、190°ないし290°のいずれかである波長板と同様の遅相効果を持つことが好ましい。
 本発明の光学特性測定方法は、第1の方向に波長板を整列して配列して、第1の方向に少なくとも4種類の偏光特性を具現化し、かつ、前記波長板を透過した光を個別に撮像する撮像エリアに区画されたイメージセンサを備えた撮像手段を用いて、測定対象に対して撮像手段を相対的に前記第1の方向に移動させ、測定対象の各測定画素が各撮像エリアで複数回撮像されて得られる出力値を加算して測定画素ごとにその撮像エリアでの測定値を算出し、各撮像エリアから同様にして集まった測定値から測定画素ごとに、測定対象から出た光のストークスパラメータを算出することを特徴とする。
 本発明によれば、偏光特性の異なる少なくとも4種類の波長板が第1の方向に整列して配列され、前記波長板の各々を透過した光を個別に撮像する波長板の4つの撮像エリアから構成されている撮像手段を用いているため、測定対象の撮像手段に対する第1の方向への移動に伴い、測定対象上の各測定画素は4種類以上の偏光測定撮像が前記相対移動中に連続して行われる。更に、1つの撮像エリア内では、各測定画素は異なる測定画素で複数回撮像され、そのおのおのの測定画素の偏光伝達行列が事前測定されているため、同一測定の複数回測定として実質平均処理が出来てS/N比を向上させることが出来る。このように、撮像手段を測定対象に対し止めることなく相対移動しながら、4種以上の偏光状態測定と複数回撮像を同時に達成することができる。測定対象の第1の方向への移動完了(すなわち測定完了)後は、撮像対象を視野幅分第2の方向に移動させることにより、測定面を広げることができ、第1の方向への移動撮像と第2の方向への移動の繰り返しで測定対象の全面測定が可能になる。4種類以上の偏光状態の測定を行っているため、測定ストークスパラメータが決定できる。光源のストークスパラメータと測定ストークスパラメータの比較をすることで、測定対象の偏光特性を算出できる。
 このように本発明によれば広面積の光学フイルムの偏光特性を迅速且つ精度良く測定することができる。例えば、空間分解能1mm四方、軸方位測定精度0.1°の条件で、従来方法で約10分を要していたものが、本発明においては、約2分半で測定することができる。即ち、本発明によれば、従来方法と比較して、約4倍の高速化を達成することができる。
試料である光学フイルムの測定画素を説明する説明図である。 結合セル数とCDDカメラの出力値のばらつき(出力値12ビットのカメラにおいて高輝度な3740/4096付近のデータ)との関係を表すグラフである。 撮像部の概略図である。 CCDカメラの第1~第4撮像エリアで測定画素Eを撮像することを説明するための説明図である。 本発明の光学特性測定装置の概略図である。 本発明の作用を表すフローチャートである。 面照明部の投光画素を説明する説明図である。 偏光伝達行列を求めるために使用する光及び撮像部を示す概略図である。 キャリブレーション測定と測定において使用されるXYアドレスをもつ記憶領域における1要素の2次元配列構造を示す概略図である。 CCDカメラの第1撮像エリア内の各結合セルにより測定画素E1を撮像することを説明するための説明図である。 CCDカメラの第2~第4撮像エリア内の各結合セルにより測定画素E1を撮像することを説明するための説明図である。 測定画素E1~Enの撮像により得られる出力値を第1~第4記憶部E11~En4に記憶することを説明するための説明図である。 結合セルCP11及びCP12が7:3の割合で測定画素E1を撮像する場合を説明するための説明図である。 測定画素E1が結合セルCP11~CP15で11回撮像されることを説明するための説明図である。 結合セルCP11及びCP12が5:5の割合で測定画素E1を撮像する場合を説明するための説明図である。 使用する波長板の遅相量と計算誤差量の関係を示すグラフである。 使用する波長板の遅相量と計算誤差量の関係を示す表である。 第1~第4波長板がCCDカメラの直前に設けられた撮像部を示す概略図である。 照明部を細くして製作した測定装置の概略図である。 2台のCCDカメラを備える測定装置を示す概略図である。
 図5に示すように、本発明の光学特性測定装置10は、所定の複屈折特性を有する光学フイルム12を測定対象として測定する。光学特性測定装置10においては、試料ステージ13に取り付けられた面照明部14上に、測定対象の光学フイルム12が載せられる。そして、面照明部14から発せられた円偏光の照明光で光学フイルム12を照明し、この光学フイルム12から出た光を撮像部15で試料ステージ13をX方向に移動させながら撮像する。そして、コンピュータ16は、撮像部15で得られた出力値に基づいて各種解析を行なうことによって、光学フイルム12の光学特性を求める。なお、偏光照明として楕円偏光を用いてもよい。
 試料ステージ13は、X方向移動機構20によって、基台22上の2本のレール22a,22bに沿ってX方向に移動可能となっている。また、X方向移動機構20は、Xモータドライバ24から出力される駆動パルスに基づいて駆動するサーボモータから構成される。
 同様に、撮像部15は、支持台30に設けられたアーム31に取り付けられている。アーム31は、Y方向移動機構33によって、X方向と直交するY方向に移動可能となっているとともに、Z方向移動機構34によって、X方向またはY方向に直交するZ方向に移動可能となっている。このようにアーム31がY方向またはZ方向に移動することで、撮像部15もY方向またはZ方向に移動可能となる。なお、Z方向への移動目的は撮像部15のピント調整のためである。Y方向移動機構33は、Yモータドライバ(図示せず)から出力される駆動パルスに基づいて駆動する。
 Xモータドライバ24とYモータドライバからの駆動パルスは、それぞれXパルスカウンタ26とYパルスカウンタ(図示せず)にも送信される。各パルスカウンタは、受信した駆動パルスをカウントする。パルスカウンタでカウントされた値は、コンピュータ16に送られる。コンピュータ16では、1パルスあたりの試料ステージ13の移動量と撮像部15の移動量を記憶しているため、両パルスカウンタのカウント値から撮像部15の視野が試料ステージ13上のどの位置にあるかを把握することができる。
 次に、本発明の作用について図6のフローチャートに沿って説明する。まず、最初に行うのが測定準備で、ここでは、CCDカメラ41の結合セルCP単位で撮像部15の偏光伝達行列を特定する。この作業は、初期設定として1回だけ行われる。求めた偏光伝達行列はコンピュータ16内に記憶され、初期設定以降は、その求めた偏光伝達行列を用いる。
 測定準備の次に行うのがキャリブレーション測定である。ここでは面照明部14から発せられる光のストークスパラメータ(以後Sパラメータと記す)を面照明部14の全面に渡って測定解像度の単位で測定する。
 投光手段としての面照明部14には、図7に示すような、仮想的に測定解像度の単位で細分化されたエリアがあるとみなし、この1つ1つのエリアを総称して、これ以降、「投光画素L」と呼ぶ。よって、キャリブレーション測定とは、投光画素単位LでSパラメータを求める工程である。
 キャリブレーション測定は、光源変動がない限り行う必要がないが、おおむね1日の最初の測定時に行うことが望ましい。
 キャリブレーション測定の次に行うのが実測定で、ここでは、面照明部14の上に光学フイルム12を置いて光学フイルム12を透過してくる光のSパラメータを光学フイルム12の全面に渡って測定対象測定解像度(即ち、測定対象E)単位で測定する。
 最後に、実測定で得たSパラメータと照明部のSパラメータを比較して測定対象の複屈折特性を算出する。ここで重要なことは、実測定での各測定画素Eの位置とキャリブレーション測定での各投光画素Lの位置を一致させることで、これには測定対象ステージがもつカウンタが使用される。カウンタの現在値によりカメラの各結合セルが測定対象ステージのどの場所を捕らえているか判るので、測定時に得られる各結合セルの出力値を的確に各投光画素L、または各測定画素Eに振り分けることができる。
 以下に、測定準備工程から詳細に述べる。測定準備工程は、本装置の撮像部15に用いられるCCDカメラの各結合セルの偏光伝達行列を実測定に先駆けて特定しておく工程である。この特定に用いる測定機構自身を本装置の中に組み込んでも良いし、本装置とは切り離して外部で偏光伝達行列測定を行いデータだけをUSBメモリなどの手段を使ってコンピュータ16に取り込んでも良い。
 CCDカメラ41の結合セル単位で撮像部15の偏光伝達行列を求める理由は、同一波長板区画内にある複数個の測定画素Eで得られた測定値を平均してその波長板での1つの信頼性の高い代表測定値を得るためである。同一波長板区画を通過した光といえども、波長板、偏光板、テレセントリックレンズの異なる部分、CCDの異なる測定画素を用いた測定値なので同一に扱うことは出来ない。それは、おのおのに局所的な偏光伝達特性のばらつき(ローカリティ)があるためである。しかし、事前に結合セル単位ごとに偏光伝達行列を求めておけば、複数の測定値からローカリティの影響を補正して信頼性の高い代表測定値1つにまとめることが出来る。
 偏光伝達行列は、撮像部15に入射する光のSパラメータとCCDカメラ41から出力される出力値との関係を表す行列である。この偏光伝達行列は、撮像部15を形成する光学部材等のミュラーマトリックス(以後M行列と記す)の積から決定できる。CCD上のある結合セルに関連付けられるM行列は、その結合セルに入射する光束が通過した波長板45~48のいずれかの光束通過部分のM行列と、偏光板49の光束通過部分のM行列と、テレセントリックレンズの光束通過部分のM行列と、CCDのその結合セルのM行列とを掛け合わせたものである。[数1]に、このM行列の一般的な形を表す。×印は以後の計算に関係しないため特定する必要のない要素である。
Figure JPOXMLDOC01-appb-M000001
このM行列の第1行だけを取り出して、M11 要素で規格化すると[数2]となる。この行列をその結合セルでの偏光伝達行列と定義する。
Figure JPOXMLDOC01-appb-M000002
また、あらためて、M12/M11 、M13/M11 、M14/M11 を、M行列になじみの深い記号 M12、M13、M14、で置き換えなおし、M11を係数 K で置き換えて、[数3]を得る。
Figure JPOXMLDOC01-appb-M000003
[数3]に示された形式の行列を、結合セルにおける偏光伝達行列を表現する一般的な記号とする。ここで、K は偏光伝達行列の比例係数であるが、この値には、CCDカメラのシェーディング効果(CCDカメラ41の各結合セルの量子効率やゲイン係数のばらつき)も含まれている。
 測定準備工程では、図8に示すように、Sパラメータが既知の光70を用い、撮像部15のすべての結合セルごとに個別に偏光伝達行列を求める。ここで、Sパラメータが既知の光70は、基準投光器71内で平行単色光源72からの平行光を、偏光板PL1及び1/4波長板QWP1に透過させることによって得られる。偏光板PL1は方位固定で透過軸が撮像部15における方位の基準方向を0°とし、0°に配されている。1/4波長板QWP1はモータ駆動の連続回転機構(図示省略)を有し、偏光伝達行列の測定においてこれを連続回転させて用いる。波長板QWP1の実際の遅相量と軸方位は既知のものを用い、進相軸方位も撮像部15における基準方位を0°として定義する。
 既知の光70は、基準投光器71の光軸中心辺りの光束である。1回の測定で結合セル1個の偏光伝達行列を測定する。基準投光器71の光束の光軸中心が、撮像部15の測定対象となっている結合セルの中心を通るように、基準投光器71のXY移動機構71aを用い基準投光器71と撮像部15を相対させる。1個の結合セルの偏光伝達行列測定が終了すると、XY移動機構71aを用いて隣の測定画素の偏光伝達行列測定を行なう。こうして、撮像部15のすべての結合セルの偏光伝達行列を測定する。
 ここで、光70の既知Sパラメータを|P P P Pとして、ある1つの結合セルの偏光伝達行列の測定方法を説明する。この結合セルの信号出力値と測定に用いた光70のSパラメータには、この結合セルの偏光伝達行列を[数3]で記述した場合に、[数4]の関係がある。
Figure JPOXMLDOC01-appb-M000004
 光70のSパラメータの各要素をQWP1の定数を使って詳しく記述すると[数5]で表される。
Figure JPOXMLDOC01-appb-M000005
ここでは、QWP1の方位をγ、位相差をε、C=cos2γ、S=sin2γとしている。
K´は実際のCCDカメラ41の出力値との整合をとるための係数でこの測定中に決まる実数である。
 以上より、P、P、P、Pは、以下の[数6]となる。
Figure JPOXMLDOC01-appb-M000006
[数6]を[数4]へ代入すると[数7]が得られる。
Figure JPOXMLDOC01-appb-M000007
 この[数7]についてQWP1の方位γでDFT(Discrete Fourier Transformation)を行なうと、[数8]に示すように、直流成分ならびに下記周波数成分の出力値を示す4本の関係式が得られる。ここで、Fdcは直流成分、Fcos4はcos4γ成分、Fsin4はsin4γ成分、Fsin2はsin2γ成分の測定された振幅を表す。
Figure JPOXMLDOC01-appb-M000008
 ここで、FdcにはCCDの暗電流(光量ゼロでもあるCCDはある値を出力する)分のかさ上げがされていることに注意が必要である。この数値をBGとしたとき、[数8]におけるFdcからBGを差し引いたものが以後の計算に用いるべき直流成分であり、[数8]の4式は[数9] に修正される。なお、BGはCCDカメラの光を完全に遮断することで特定でき、事前にこの値を得ておく。
Figure JPOXMLDOC01-appb-M000009
[数9]に示す4本の式において、未知数はK・K´、M12、M13、M14の4個であるので値が求まる。例えば、(1)÷(2)からM12が特定でき、続いてK・K´が特定でき、その後M13、M14が特定できる。
 こうして、1個の結合セルの偏光伝達行列のすべての要素とK・K´の値が特定できる。これを全結合セルCPで繰り返すことで、撮像部15のすべての結合セルCPにおける偏光伝達行列とK・K´の値が特定できる。K・K´の値のうち、Kは結合セルごとに異なる値であるが、K´は本測定準備において使った光の強さに関係する値でこの測定の間一定あったとみなせる。よって、ここで特定されたK・K´の値は、以後の測定(キャリブレーション測定、実測定)において各結合セル間での相対的信号強度比として使える。さらに以後の測定において、光の強さが今回の測定準備の測定と異なることがあったとしても、各結合セル間での相対的信号強度比としてはこの値を使用することが出来る。
 ここで、特定した各結合セルCPにおける偏光伝達行列の各要素は、コンピュータ16内に記憶しておく。このとき、ここで特定されたK・K´の値は、以後の説明においてはあらためてKという記号で参照する。
 このように、波長板、偏光板、レンズ、CCDを、組みあがった後に一括で偏光伝達行列として測定するので、1つ1つを特定する必要がない。これは、測定の負荷を減らす大きなメリットを生み出す。
 次に、キャリブレーション測定と実測定の詳細について述べる(図6のフローチャート参照)。動作は双方とも全く同じで、測定対象がキャリブレーション測定では面照明部14であり、実測定では光学フイルム12となる点が異なる。以下では、実測定を例にして説明を行う。
 キャリブレーション測定も実測定も、コンピュータ16内に一時的な出力値記憶領域を設けてCCDの出力値を記憶する。この出力値記憶領域は、測定画素Eの測定ステージにおけるXYの2次元アドレスで区別される配列で、1つの配列要素が図9に示すような波長板の数と1つの波長板における測定数で区別される2次元構造であり、全体では4次元構造になっている。
 キャリブレーション測定及び実測定では、まず撮像部15をY方向の所定位置に静止させた状態で、試料ステージ13をX方向にその一端から他端まで移動させる。試料ステージ13が移動すると撮像トリガが発行されて自動的に撮像が行われる。試料ステージ13上には面照明部14と光学フイルム12(以下単に「光学フイルム12等」いう)があり、撮像部15が光学フイルム12等の他端まで撮像すると、カメラの視野幅分の測定が終了した状態であるので、カメラ視野を変更するために今度は撮像部15をY方向に視野幅分移動させる。その後再び、光学フイルム12等の他端から一端まで移動させ、光学フイルム12等の未撮像部分を撮像する。上記手順を繰り返し、光学フイルム12等全体の撮像を行なう。
 以下に撮像からSパラメータが算出されるまでの過程を示す。なお、CCDは撮像タイミングで全画素同時に撮像が行われるので、1回の撮像で全結合セルからデータを取得するが、以下の説明では、代表例として1つの測定画素Eに着目して説明する。また、説明を簡単にするために、CCDカメラ41の各撮像エリア50~53には、X方向に5個の結合セルCPが配列されているものとして、対象である測定画素Eの像が通過するX方向のある1つの断面で説明を行う。なお、ここでは測定画素EがCCD上で結合セルCPのサイズと同じになるように設定してある。この設定は、テレセントリックレンズの倍率設定または結合セル数で調整できる。
 図10(A)に示すように、第1撮像エリア50に設けられた5つの第1結合セルをCP11~CP15とし、第2撮像エリア51に設けられた5つの第2結合セルをCP21~CP25とし、第3撮像エリア52に設けられた5つの第3結合セルをCP31~CP35とし、第4撮像エリア53に設けられた5つの第4結合セルをCP41~CP45とする。また光学フイルム12の測定画素をE1~En(nは2以上の自然数)とする。そして、光学フイルム12をX方向に移動させる際に発する撮像トリガの間隔は、測定画素EがCCD上で結合セルのX方向の長さL(=1つの測定画素におけるX方向の長さ)だけ進む距離に設定する。CCDの各撮像エリアにはX方向に5つの結合セルが配列されていることから、1つの測定画素Eが各撮像エリアを通過すると、各撮像エリアで5回の撮像が行われることになる。
 まず、光学フイルムがX方向に移動することによって、あるタイミングで測定画素E1の像が第1撮像エリアの第1結合セルCP11上に到達する。そして、図10(B)に示すように、測定画素E1の像が第1結合セルCP11上に位置したときに、第1結合セルCP11は測定画素E1を撮像する。この撮像により得られた出力値は、コンピュータ16内の測定画素E1用の出力値記憶領域EM1に記憶される。EM1は図9に示したような2次元配列で、行方向が撮像エリア数、列方向が測定値の個数である。この出力値は、出力値記憶領域EM1の第1撮像エリア用の行EM11に格納される。
 次に、光学フイルム12がX方向に1撮像トリガの移動量分だけ移動すると、光学フイルム12の測定画素E1の像は第1結合セルエリアCP12上に位置する。そして、第1結合セルエリアCP12が測定画素E1を撮像する。この撮像により得られた出力値は、測定画素E1用の出力値記憶領域EM1の第1撮像エリア用の行EM11の別の領域に記憶される。そして、同様にして、第1結合セルエリアCP13~CP15で測定画素E1を撮像し、この撮像により得られる出力値をEM11に記憶する。したがって、測定画素E1が第1撮像エリアを通過することで、合計5回の撮像が行われる。
 次に、図11(A)に示すように、測定画素E1が第2撮像エリア51内の結合セルCP21上に到達すると、結合セルCP21は測定画素E1を撮像する。この撮像により得られた出力値は、コンピュータ16内の出力値記憶領域EM1の第2撮像エリア用行EM12に記憶される。そして、同様にして、測定画素E1が第2結合セルCP22~CP25を通過するごとに撮像を行い、撮像により得られた出力値はEM12に順に記憶される。
 そして、図11(B)に示すように、測定画素E1が第3撮像エリア52内の第3結合セルCP31~CP35を通過したときも、同様にして撮像を行なう。これら第3結合セルCP31~CP35で測定画素E1を撮像したときの出力値は、出力値記憶領域EM1の第3撮像エリア用行EM13に記憶される。また、図11(C)に示すように、測定画素E1が第4撮像エリア53内の第4結合セルCP41~CP45を通過したときも、同様にして撮像を行ない、出力値は出力値記憶領域EM1の第4撮像用エリア用行EM14に記憶される。
 そして、測定画素E1が第4撮像エリア53内の第4結合セルCP45を通過することで、測定画素E1に対する測定は完了する。測定画素E1の進行方向に対し1つ後方に位置する測定画素E2は、測定動作が測定画素E1に対し撮像トリガ1回分遅れて始まり、遅れて終了するものの、同様の内容が行われる。さらに後方に位置する測定画素E3、E4、E5、・・・ Enもそれぞれさらに撮像トリガ1回分ずつずれながら撮像が行われ終了する。それらの各出力値は、図10~図11で示した出力値記憶領域EM11~EM14に相当する測定画素E2~En用の出力値記憶領域EM21~EMn4に記憶される。その対応関係を、図12に示す。
 次に、出力値記憶領域EM1に記憶された測定画素E1の出力値と、測定準備工程で特定された結合セルの偏光伝達行列とから、測定画素E1におけるSパラメータを求める方法を示す。
 測定画素E1におけるSパラメータを求めるに際して、まず、以下の[数10]に示すように、第1~第4撮像エリアでの撮像により得られた出力値の合計、即ちEM11~EM14のそれぞれに記憶された5つの出力値の合計S11―Σ~S14―Σを求める。本発明においては、このような出力値の合計を測定値と呼び、Sに_Σの添字をつけて表す。また、S11~S14というSに添えた最初の数字1は、測定画素を識別する番号で本来なら2次元アドレスに対応する数字群となるが、この例の場合ではE1の1に相当する。2番目の数字1ならびに4は撮像エリア1~4に対応しており、測定に使われた波長板の番号である。_A1~_A5の添字は、1つの撮像エリアにおける測定の順番、すなわち1番目の測定~5番目の測定結果であることを表している。
Figure JPOXMLDOC01-appb-M000010
 一方、結合セルCP11~CP45には、それぞれ固有の偏光伝達行列があり、この値は測定準備工程で特定されている。CP11~CP45の偏光伝達行列を、定義に従って順に書き出すと[数11]となる。
Figure JPOXMLDOC01-appb-M000011
ここで、添字_CP11等の番号は、結合セルを区別する番号である。
 本例では、出力値S11_CP11~S14_CP45 は、結合セルCP11~CP45で個別に測定されたものであるため、以下の[数12]に示すように、その結合セルの偏光伝達行列と測定画素E1のSパラメータ |S0_E1 S1_E1 S2_E1 S3_E1Tとの行列積で定義されるものになっているはずである。ここで、添字_E1は、測定画素E1のSパラメータであることを示している。
Figure JPOXMLDOC01-appb-M000012
 ここで、[数10]の測定値S11_Σ に、[数12]の出力値の定義を代入してSパラメータで整理すると[数13]が得られる。
Figure JPOXMLDOC01-appb-M000013
 この[数13]において測定値S11_Σは、各Sパラメータ要素に、それぞれ何らかの係数がかかった形となっている。これら係数は、測定準備工程で既に特定済みの既知の値を積・和したものになっている。ここで、[数14]に示すように、この係数群を既知量という名前で定義する。既知量は、事前計算が可能であり、以降1つの数値として扱うことが出来る。
Figure JPOXMLDOC01-appb-M000014
  既知量の添字の最初の数は、係数となるSパラメータの要素番号を示し、2番目の数字は波長板を区別する番号である。_Nは、結合セルのY方向での位置を区別する添字であるが、この例ではX方向の1つの断面を扱っているので、ある断面位置を示す値になる。[数14]を[数13]に代入することで、以下の[数15]が得られる。
Figure JPOXMLDOC01-appb-M000015
[数10]の測定値S12_Σ~測定値S14_Σにも同様の処理が適用でき、[数16]が得られる。
Figure JPOXMLDOC01-appb-M000016
 [数15]と[数16]を合わせた4本の式は、未知数がSパラメータの4個であり、式の数が4本であるので、解くことができる。これにより、測定画素E1におけるSパラメータが求まる。
 以上のように、1つの測定画素E1が結像されるCCD上のX方向に並んだ結合セルによって順次撮像され、最終的にSパラメータが算出される様子を述べた。CCDは、全画素同時に撮像が行われるため、上記の処理が行われる間も、全部の結合セルが光学フイルム12上のどこかの測定画素Eを捕らえて、同時進行で同様な処理が行われる。CCD全体で見れば、視野内の結合セル分の処理能力を有している。
 こうして、測定画素E1におけるSパラメータの求め方と同様にして、すべての測定画素EにおけるSパラメータを求めることができる。求められたSパラメータは、測定画素EのXYアドレスに従ってコンピュータ16内の実測定用Sパラメータ記憶領域に記憶される。
 上記測定が、キャリブレーション測定であった場合には、測定画素Eの変わりに面照明部14の全投光画素LのSパラメータが測定される。この全投光画素LのSパラメータは、コンピュータ16内のキャリブレーション測定用のSパラメータ記憶領域に記憶される。
 また、測定画素EのXYアドレスと投光画素LのXYアドレスは、撮像トリガが発行されるときの試料ステージの位置で決まるので、結果的にXYアドレスが同じ測定画素Eと投光画素Lは、上下に重なった位置関係になる。またテレセントリックレンズの深い焦点深度と光軸に平行な光の成分を選別補足する機能により、測定画素Eを照らす光は同じXYアドレスの投光画素Lから照射されたとみなすことが出来る。
 さらに、試料ステージ13のどの位置で撮像トリガを発行するかは事前にコンピュータ16で指定できるので、既知量といわれる数値は事前に計算可能である。このことは、2次元測定という大量の測定データを処理する必要のある用途において処理の高速化に非常に有利に働くという効果がある。
 最後に、光学フイルム12の偏光特性の算出方法を示す。コンピュータ16は、キャリブレーション測定で求めた面照明部14の全面のSパラメータと、実測定で求めた光学フイルム12全面のSパラメータとに基づいて、光学フイルム全面の主軸方位とレタデーションを算出する。光学フイルム12のある測定画素Eから透過した光のSパラメータを|1 Φ Ψ ξ|Tとし、Eの直下にある投光画素Lの発する光のSパラメータを|1 X Y Z|Tとするとき測定画素Eにあたる光学フイルム12の複屈折の主軸方位αと遅相量δは[数17]であらわすことができる。
Figure JPOXMLDOC01-appb-M000017
ここで、S=sin2α、 C=cos2α である。この関係式を用い、光学フイルム12のすべての測定画素Eの複屈折の主軸方位αと遅相量δを計算することで、光学フイルム12の偏光特性分布を試料解像度で測定することができる。
 なお、本実施形態の説明では、各撮像エリアにおいて合計5回の撮像を行うようにしたが、測定精度を上げるために、5回以上、例えば10回の撮像を行なってもよい。この場合には、以下に示すようにオーバーラップ撮像(1回の撮像視野と次の撮像視野が一部重なること)することで行われる。
 オーバーラップ撮像は、1撮像トリガ間の試料ステージの移動量を測定画素のX方向の長さL以下にすることで行う。このような移動量に設定した場合には、1つの測定画素が隣接する2つの結合セルに跨って撮像されるため、出力値の振り分けが必要となる。例えば、図13は1撮像トリガ間の移動量をLの3/10に設定していた場合の、図10の例での第2回目の撮像の様子である。この撮像タイミングでは、測定画素E1が、結合セルCP11のうち7/10の領域上に位置するとともに、結合セルCP12のうち3/10の領域上に位置している。このような場合には、SUB結合セルが定義される。SUB結合セルは、X方向が結合セルCPの1/10の整数倍、Y方向が結合セルと同じ大きさのもので、SUB結合セルの中に含まれるCCDの撮像セルの出力平均をそのSUB結合セルの出力値とする。図13では 7のエリア(斜線で示す)でCP11のSUB結合セルが形成されその出力値としてSUB出力値S11_CP11をつくり、CP12の3のエリア(斜線で示す)でCP12のSUB結合セルが形成されその出力値としてSUB出力値S11_CP12 が作られ、おのおのをEM11に記憶する。また、このときの、出力値は[数18]に示す内容で構成されているものとして扱う。
Figure JPOXMLDOC01-appb-M000018
 図14に、1撮像トリガ間の移動量をLの5/10に設定していた場合の、撮像エリア50における様子、図15に第3回目の撮像時SUB結合セルの様子を示す。測定画素E1はCP11~CP15で合計11回の撮像が行われる。11回の出力値の定義は、[数19]になる。
Figure JPOXMLDOC01-appb-M000019
´記号と´´記号は、測定のタイミングの違いを明示するためにつけた記号で他意はない。この結果における既知量を計算すると[数20]となる。これは、[数14]の2倍であり、撮像が2倍に増加した結果と解釈できる。
Figure JPOXMLDOC01-appb-M000020
 [数18]、[数19]等の配分の関係式により、既知量を修正する。撮像タイミングは試料ステージの位置で決まるので、全部の撮像タイミングで測定画素Eがどの結合セルCPまたはSUB結合セルで撮像されるかは事前に設計できる。全部の撮像タイミングにおける、結合セルの大きさと既知量を事前に計算しておくことが出来る。
 このように、各測定画素Eには、1回の撮像について2個のSUB結合画素からのデータが配分される場合が発生するが、1つの撮像エリアの測定値は依然としてその撮像エリアで得られた全出力値の加算で扱うことができる。この結果、測定値の式が、波長板の種類の数だけにまとめられて、以後、上記説明と同じ方法で測定対象の複屈折分布が求められる。
 本実施例では、第1~第4波長板45~48は、遅相量略135°の波長板であり、主軸方位(進相軸方位)は、第1波長板45が、図3において水平方向を0°とした時に略20°の軸方位になるように配置し、第2波長板46は第1波長板45に対し軸方位が略36°加わった方位に配置し、第3波長板47は第2波長板46に対し更に軸方位が略36°加わった方位に配置し、第4波長板48は第3波長板47に対し更に軸方位が略36°加わった方位に配置した。なお偏光板49は、透過軸が0°の方位になるように配置した。ここで「略」という言葉が使われている理由は、図6のフローチャートに示す測定準備工程において、撮像部を結合セルCP単位で偏光伝達行列を特定し、以後偏光伝達行列の方を使うので、ここでは厳密さが不要になるためである。おおむね、±0.5°の範囲にあればよい。
 本例では、波長板の種類は4種類としたが、波長板の種類は4種類以上であれば良い。例えば、N種類(Nは5以上の自然数)の波長板を使用する場合は、N個の波長板は主軸方位が180°を均等に配分する形で配置することが好ましい。また、各々の波長板の遅相量は略135°が好ましい。このような構成であれば、第1の波長板の主軸方位は任意の方向でよい。
 このように配置した理由は、[数15]、[数16]を連立方程式で解くときの誤差が最小になるからである。[数15]、[数16]から、光のSパラメータを求めるとき、各式の測定値(左辺)にはCCDの出力値に載るノイズが含まれている。これらは、多重撮像による平均効果により削減されているもののゼロではないため、結果的に算出したSパラメータに誤差として含まれる。[数15]、[数16]の左辺に載ったノイズが、コンピュータ16による計算過程でSパラメータに誤差として反映されるその量は、[数15]、[数16]の変数(Sパラメータ)にかかる係数で決まる。すなわち、適切な係数となるように系を組めば、このCCDの計算誤差(CCDのノイズの影響)を最小にすることができる。この係数の選択こそ、波長板の仕様(遅相量と主軸方位の選択)に他ならない。
 筆者らがシミュレーション繰り返した結果、以下のことがわかった。まず、遅相量が同じ波長板を用いて設置の主軸方位を変えて偏光状態の変化を具現化する場合に、波長板の数を多くしても計算精度におおきな改善効果を与えないことがわかった。これは、波長板の数が増えても、1枚の波長板の面積は小さくなるので1枚の波長板での測定値の信頼度が下がってしまうためである。さらに、波長板の種類を増やすと、波長板の境目にあたる結合セルは使えないので、実質的にCCDの受光面積が減ってしまうことになる。受光面積の減少はS/N比の低下を意味する。一方で、波長板の数が多いと信号に含まれるノイズの遮断周波数を高くできる効果もある。両者を考えて、波長板の数の最小値はSパラメータを決定するに必要な4種、最大値は40程度までといえる。
 波長板の種類は、遅相量が同じ波長板を用いて主軸方位の配置で差をつけることがよく、180°を波長板の数で割った角度だけお互いに方位に差をつけて配置したときが、一番計算誤差が小さくなった。このような、設置波長板の設置方法を、以後、均等割りと呼び、波長板の個数を分割数という。
 一方、波長板の間隔角度差が45°の場合では、波長板の種類の数をいくつにしても、計算誤差が大きくなった。波長板が4種では、均等割り角度が45°となるため、一番計算誤差が小さくなるはずの均等割り角度使えなかった。このため、本実施例の配置を選択した。
 一方、波長板の遅相量は、図16及び図17に示すように、すべての波長板の数で135°あたりに計算誤差が最小になる領域があることがわかった。波長板の方位の角度分割は均等割り(ただし4分割だけは36°差)に設定している。4~40分割のすべてにおいてこの傾向があることが確認された。
 波長板の位置については、本実施形態では、第1~第4波長板45~48をテレセントリックレンズの物体側に設けたが、これに代えて、図18に示すように、第1~第4波長板45~48をCCDカメラの直前に設けてもよい。ここで、第1~第4波長板45~48とCCDカメラ41との間には偏光板49が設けられている。
 このようにした場合は、波長板を小さくできてコストが低くなるメリットがある。その一方で、テレセントリックレンズが偏光板の外に来るので複屈折伝達関数を求めるときの誤差が大きくなるデメリットがある。
 また、本実施形態では、光学フイルム12全面を照明する大きさの面照明部14を用い、撮像部15をX方向とY方向に移動させる方式を示したが、図19に示すように、面照明部14に代えて、幅を撮像部15のY方向の視野幅を照明するに足りるまで細くし、撮像部15がY移動するときに照明部14もY方向に移動させる様にした照明部101を使用してもよい。このように構成した場合では、面照明部14のコストを下げるとともにストークスパラメータの取得時間を短縮できる効果が得られる。なお、照明部101を使用した場合には、試料ステージ13に代えて、光学フィルム12が載置される部分に開口が形成された試料ステージ102が用いられる。
 また、本実施形態では、1台のCCDカメラ41をX方向とY方向に移動させることによって、光学フイルム12全体の光学特性の測定を行なったが、測定時間を更に短縮するためには、複数台のCCDカメラで測定を行なってもよい。そのときは、図20に示すように、カメラ1台について1台の専用のカメラCPUを設け、更に、複数台のカメラCPUを統合するメインCPUを上位に設ける。カメラの各結合セルの偏光伝達行列はメインCPU側に置いて、各既知量も事前に算出しておく。キャリブレーション測定用ならびに実測定用のSパラメータ記憶領域もメインCPU内に置く。各カメラでの測定結果を格納する出力値記憶領域もメインCPU側に置いておくが、カメラCPU側には出力値記憶領域の複製(レプリカ)を用意しておく。そして測定ステージのX方向への移動に伴い、各CCDカメラは撮像を繰り返す。カメラCPUは結合セル単位(場合によってSUB結合セル)で出力値を計算し出力値記憶領域の複製(レプリカ)の方に格納していく。X方向への撮像が走査端に到達すると各カメラの視野幅分のY移動と試料ステージのX方向の走査開始端への移動が行われるが、この移動の間は撮像が行われないのでカメラCPUは撮像負荷がなくなる。この負荷の谷間を利用しカメラCPUは、出力値記憶領域の複製からメインCPU側の出力値記憶領域へのデータコピーを行う。メインCPUは、出力値記憶領域へのデータのコピーを検出し、Sパラメータの算出と記憶、さらに光学フイルムの偏光特性の計算を行う。メインCPUは、CCDカメラの撮像中も撮像負荷から免れているので、C`PUパワーの大部分をこの計算にあてがうことができる。以上のように、カメラCPUもメインCPUも効率よく動作させることができて、カメラ台数を増やすことによる処理の高速化効果が得られる。
 本実施形態では、キャリブレーション測定及び実測定において、撮像開始と終わりについて詳細に述べなかったが、撮像開始と終わりはCCDカメラの視野全部が有効ではないので、このときの撮像により得られた出力値は事後の計算においては使用しないようにする。また、第1~第4波長板の境目について詳細に述べなかったが、測定画素Eの撮像が第1~第4波長板の境目上で行なわれたときは、この撮像により得られた出力値は事後の計算において使用しないようにする。これは、CCDの各結合セルが試料ステージ13のどこを捉えているか位置検出手段で常に特定できているので、試料ステージの不要な位置における情報を除外することが可能なためである。さらに、波長板のつなぎ目が結像される位置にある結合セルも事前にわかるので、この部分を使用しないことが可能になる。
 なお、本発明においては、隣接する複数の撮像セルを結合した結合セル単位で撮像を行なったが、撮像セルサイズが十分大きくノイズの問題が無いようであれば撮像セル単位で撮像を行なってもよい。
10 光学特性測定装置
12 光学フイルム
13 試料ステージ
14 面照明部
15 撮像部
16 コンピュータ
20 X方向移動機構
33 Y方向移動機構
41 CCDカメラ
45~48 第1~第4波長板
50~53 第1~第4撮像エリア
55 CCD
CP1~CP4 第1~第4結合セル

Claims (10)

  1.  測定対象に特定の偏光照明を照射する投光手段と、第1の方向に波長板を整列して配列して、第1の方向に少なくとも4種類の偏光特性を具現化し、かつ、前記波長板を透過した光を個別に撮像する撮像エリアに区画されたイメージセンサを備えた撮像手段と、測定対象に対して撮像手段を相対的に前記第1の方向に移動させる走査手段とを備え、前記走査手段による撮像手段の相対移動に伴い、測定対象の各測定画素が各撮像エリアで複数回撮像されて得られる出力値を測定画素ごとに加算してその撮像エリアでの測定値を算出し、各撮像エリアから集まった測定値から、測定画素ごとの光のストークスパラメータを算出することを特徴とする光学特性測定装置。
  2.  前記イメージセンサは、多数の画素を有する撮像素子で撮像を行い、撮像時には、隣接する複数の画素を結合した結合セルごとに1つの出力値を出力することを特徴とする請求項1記載の光学特性測定装置。
  3.  測定対象から出た光とイメージセンサの各撮像エリアから出力される出力値との関係を表す偏光伝達行列を、測定の前に結合セル単位で求めておいて、前記偏光伝達行列と前記各撮像エリアから出力される出力値とを用いて、測定対象のストークスパラメータを求めることを特徴とする請求項1ないし2いずれか1項記載の光学特性測定装置。
  4.  前記イメージセンサは、所定の測定画素が隣接する2つの結合セルに跨って撮像されることを特徴とする請求項2ないし3いずれか1項記載の光学特性測定装置。
  5.  前記所定の測定画素の出力値は、一方の結合セルのうち所定の測定画素を撮像した画素が占める割合とその画素の出力平均値を掛けたものと、他方の結合セルのうち所定の測定画素を撮像した画素が占める割合とその画素の出力平均値を掛けたものとからなることを特徴とする請求項4記載の光学特性測定装置。
  6.  前記移動手段は、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に移動させるとともに、前記撮像手段による測定対象の第1の方向の撮像が完了するごとに、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に直角で測定対象とは平行な第2の方向に移動させることを特徴とする請求項1ないし2いずれか1項記載の光学特性測定装置。
  7.  前記移動手段が、測定対象又は撮像手段の少なくともいずれか一方を第1の方向に直角で測定対象とは平行な第2の方向に移動させる場合には、撮像手段と投光手段の第2の方向における位置関係を維持しつつ移動させて、投光手段の偏光照射幅を撮像手段の第2の方向の視野幅を照射できる程度に狭くしたことを特徴とする請求項6に記載の光学特性測定装置。
  8.  前記波長板によって具現化される偏光の種類の数が、4ないし40であることを特徴とする請求項1ないし2いずれか1項記載の光学特性測定装置。
  9.  前記波長板は、遅相量が70°ないし170°または、190°ないし290°のいずれかである波長板と同様の遅相効果を持つことを特徴とする請求項1ないし2いずれか1項記載の光学特性測定装置。
  10.  第1の方向に波長板を整列して配列して、第1の方向に少なくとも4種類の偏光特性を具現化し、かつ、前記波長板を透過した光を個別に撮像する撮像エリアに区画されたイメージセンサを備えた撮像手段を用いて、測定対象に対して撮像手段を相対的に前記第1の方向に移動させ、測定対象の各測定画素が各撮像エリアで複数回撮像されて得られる出力値を加算して測定画素ごとにその撮像エリアでの測定値を算出するとともに、各撮像エリアから同様にして集まった測定値から測定画素ごとに、測定対象から出た光のストークスパラメータを算出することを特徴とする光学特性測定方法。
PCT/JP2011/075599 2010-11-15 2011-11-07 光学特性測定装置及び方法 WO2012066959A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020137011855A KR101650226B1 (ko) 2010-11-15 2011-11-07 광학 특성 측정 장치 및 방법
CN2011800545953A CN103210294A (zh) 2010-11-15 2011-11-07 光学特性测量装置及方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-255041 2010-11-15
JP2010255041A JP5715381B2 (ja) 2010-11-15 2010-11-15 光学特性測定装置及び方法

Publications (1)

Publication Number Publication Date
WO2012066959A1 true WO2012066959A1 (ja) 2012-05-24

Family

ID=46083894

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/075599 WO2012066959A1 (ja) 2010-11-15 2011-11-07 光学特性測定装置及び方法

Country Status (5)

Country Link
JP (1) JP5715381B2 (ja)
KR (1) KR101650226B1 (ja)
CN (1) CN103210294A (ja)
TW (1) TWI532985B (ja)
WO (1) WO2012066959A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI512277B (zh) * 2013-01-04 2015-12-11 Taiwan Power Testing Technology Co Ltd 顯示器之檢測設備

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103616167B (zh) * 2013-12-05 2016-03-09 福州大学 一种背光源发光均匀性自动检测系统
JP7365263B2 (ja) * 2019-05-09 2023-10-19 ローム株式会社 照度センサ、電子機器および二次元画像センサ

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000009659A (ja) * 1998-06-19 2000-01-14 Fuji Photo Film Co Ltd 表面検査方法及び装置
JP2003242511A (ja) * 2002-02-19 2003-08-29 Nec Corp 類似周期パターン検査装置および検査方法
JP2006058055A (ja) * 2004-08-18 2006-03-02 Fuji Photo Film Co Ltd 複屈折測定装置及びストークスパラメータ算出プログラム
JP2009139356A (ja) * 2007-12-04 2009-06-25 Photonic Lattice Inc 偏光計測装置
JP2009168795A (ja) * 2007-12-21 2009-07-30 Sharp Corp 偏光検出装置及び偏光検出素子、並びに偏光検出方法
JP2009293957A (ja) * 2008-06-02 2009-12-17 Toshiba Corp パターン欠陥検査装置及び検査方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05346397A (ja) 1992-06-15 1993-12-27 New Oji Paper Co Ltd 複屈折測定装置
JP3962605B2 (ja) * 2002-02-28 2007-08-22 キヤノン株式会社 シート処理装置及び画像形成装置
JP4781746B2 (ja) * 2005-04-14 2011-09-28 株式会社フジクラ 光ファイバの複屈折測定方法及び測定装置及び光ファイバの偏波モード分散測定方法
JP5118311B2 (ja) 2006-03-27 2013-01-16 株式会社フォトニックラティス 位相差および光軸方位の測定装置
JP2009068922A (ja) 2007-09-11 2009-04-02 Canon Inc 測定装置、露光装置及びデバイス製造方法
JP2009229279A (ja) 2008-03-24 2009-10-08 Fujifilm Corp 複屈折測定装置及び複屈折測定方法
CN101762891B (zh) * 2008-12-23 2011-12-28 财团法人工业技术研究院 液晶单元的光学特性测量系统及其方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000009659A (ja) * 1998-06-19 2000-01-14 Fuji Photo Film Co Ltd 表面検査方法及び装置
JP2003242511A (ja) * 2002-02-19 2003-08-29 Nec Corp 類似周期パターン検査装置および検査方法
JP2006058055A (ja) * 2004-08-18 2006-03-02 Fuji Photo Film Co Ltd 複屈折測定装置及びストークスパラメータ算出プログラム
JP2009139356A (ja) * 2007-12-04 2009-06-25 Photonic Lattice Inc 偏光計測装置
JP2009168795A (ja) * 2007-12-21 2009-07-30 Sharp Corp 偏光検出装置及び偏光検出素子、並びに偏光検出方法
JP2009293957A (ja) * 2008-06-02 2009-12-17 Toshiba Corp パターン欠陥検査装置及び検査方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI512277B (zh) * 2013-01-04 2015-12-11 Taiwan Power Testing Technology Co Ltd 顯示器之檢測設備

Also Published As

Publication number Publication date
JP5715381B2 (ja) 2015-05-07
TW201219769A (en) 2012-05-16
KR101650226B1 (ko) 2016-08-22
KR20130124324A (ko) 2013-11-13
CN103210294A (zh) 2013-07-17
JP2012107893A (ja) 2012-06-07
TWI532985B (zh) 2016-05-11

Similar Documents

Publication Publication Date Title
JP5508352B2 (ja) 光学特性測定方法及び装置
US8514389B2 (en) Inspecting apparatus, three-dimensional profile measuring apparatus, and manufacturing method of structure
TWI327639B (ja)
TWI421486B (zh) 光學異方性參數測定方法及測定裝置
KR20150025745A (ko) 광소자-회전형 뮬러-행렬 타원계측기 및 이를 이용한 시료의 뮬러-행렬 측정 방법
CN110914634B (zh) 全息干涉度量的方法及系统
JP2015125089A (ja) 表面欠陥検出方法及び表面欠陥検出装置
CN109767425B (zh) 机器视觉光源均匀性评估装置及方法
US20130162980A1 (en) Apparatus for non-invasively inspecting defects and method for inspecting defects using the same
JP2013015443A (ja) 光学特性測定方法及び装置
CN103024427B (zh) 相机调制传递函数的测试方法及其测试装置
TW201643405A (zh) 具有減少聚焦誤差靈敏度之光學度量
WO2012066959A1 (ja) 光学特性測定装置及び方法
CN106768890A (zh) 用于调制传递函数检测的灰度余弦分布光学目标模拟装置
CN104656120A (zh) 校正信息生成方法以及校正信息生成装置
JP2014240766A (ja) 表面検査方法および表面検査装置
US20160021305A1 (en) Method and apparatus for measuring optical systems and surfaces with optical ray metrology
WO2006082932A1 (ja) 欠陥粒子測定装置および欠陥粒子測定方法
TWI413765B (zh) 物質特性量測方法與系統
JP6524357B1 (ja) 波面センサ、波面計測装置および波面計測方法
JP5648937B2 (ja) 評価装置
WO2024034067A1 (ja) 試料表面品質管理装置
CN112285028B (zh) 偏振检测标定方法、偏振检测方法及偏振检测装置
JP2006003168A (ja) 表面形状の測定方法およびその装置
JP5248551B2 (ja) 高さ検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11841820

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20137011855

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11841820

Country of ref document: EP

Kind code of ref document: A1