WO2018088466A1 - 測色計及び2次元測色装置 - Google Patents

測色計及び2次元測色装置 Download PDF

Info

Publication number
WO2018088466A1
WO2018088466A1 PCT/JP2017/040398 JP2017040398W WO2018088466A1 WO 2018088466 A1 WO2018088466 A1 WO 2018088466A1 JP 2017040398 W JP2017040398 W JP 2017040398W WO 2018088466 A1 WO2018088466 A1 WO 2018088466A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
light
filter
unit
pixel region
Prior art date
Application number
PCT/JP2017/040398
Other languages
English (en)
French (fr)
Inventor
滋人 大森
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2018550247A priority Critical patent/JPWO2018088466A1/ja
Publication of WO2018088466A1 publication Critical patent/WO2018088466A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/51Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters

Definitions

  • the present invention relates to a technique for measuring the color display performance of a display device.
  • Display devices are required to improve display performance.
  • low luminance performance has been regarded as important.
  • a measuring device that measures the display performance of a display device is also required to improve measurement accuracy at low luminance.
  • High S / N (Signal Noise Ratio) is required to improve measurement accuracy at low luminance. This is because if the S / N is low, the signal is buried in noise, and chromaticity or luminance cannot be measured accurately.
  • the first method is to increase the amount of light incident on the sensor.
  • the second method is to reduce the noise of the measuring device. Since there is a limit to reducing the noise of the measuring device, it is conceivable to increase the amount of light incident on the sensor.
  • the viewing angle characteristic is better than that of a liquid crystal display. Therefore, when the object to be measured is an organic EL display, the amount of light used for measurement is increased. S / N can be improved.
  • Patent Document 2 In order to increase the amount of light used for measurement, it is conceivable to employ a two-dimensional sensor having a large light receiving area as described in Patent Document 2, for example.
  • a two-dimensional sensor is employed as a light receiving element, and a color filter for a spectral response suitable for color measurement is attached to the two-dimensional sensor.
  • the light receiving surface of the two-dimensional sensor is composed of a plurality of pixels arranged two-dimensionally.
  • a region which is a part of the light receiving surface of the two-dimensional sensor and includes two or more pixels (pixel group) is defined as a pixel region.
  • a structure in which a pixel region facing the X filter, a pixel region facing the Y filter, and a pixel region facing the Z filter are located at different locations on the light receiving surface, that is, the X filter, the Y filter, and the Z filter Consider a colorimeter having a structure facing a light receiving surface at a different location on the light receiving surface of a two-dimensional sensor. It is assumed that an X filter, a Y filter, and a Z filter are separately prepared, and these filters are attached to a passivation film that covers the light receiving surface.
  • the X filter is cut out from a glass substrate on which a large number of X filters are formed by dicing
  • the Y filter is cut out from a glass substrate on which a large number of Y filters are formed
  • the Z filter is formed from a large number of Z filters.
  • the glass substrate is cut out by dicing. Dicing inevitably causes scratches and peeling at the edge of the filter. For this reason, since the edge part of a filter does not function as an appropriate filter, it is not used and becomes a dead space. Since the width of the dead space caused by dicing is several millimeters, the area of the dead space is not small. Therefore, the amount of decrease in the amount of light used for measurement cannot be ignored.
  • This colorimeter is used for color measurement of a type having a direct backlight, among LCD (liquid crystal display) and OLED (Organic Light Emitting Diode). This is because the type having a direct type backlight has a light emission spectrum that is not uniform over the entire screen, and color measurement is required at a plurality of locations on the screen.
  • the light utilization efficiency may be 50% or less.
  • An object of the present invention is to provide a colorimeter capable of improving the utilization efficiency of light used for measurement when a plurality of filters face the light receiving surface at different locations on the light receiving surface of the two-dimensional sensor, and 2 It is to provide a dimension colorimetric device.
  • a colorimeter reflecting one aspect of the present invention includes an optical filter unit, a two-dimensional sensor, and a first calculation unit.
  • the optical filter unit includes a transparent substrate and a plurality of filters that transmit outgoing light emitted from a measurement object, have different spectral transmittance characteristics with respect to wavelengths, and are patterned at different positions on the transparent substrate.
  • the two-dimensional sensor has a light receiving surface including a plurality of pixels arranged two-dimensionally, and outputs a light reception signal from a pixel that receives the emitted light among the plurality of pixels. A plurality of pixel regions that are part of the light receiving surface and include two or more pixels are set at different positions on the light receiving surface.
  • Each of the plurality of pixel regions is opposed to each of the plurality of filters.
  • the emitted light that has passed through the opposing filter is incident on each of the plurality of pixel regions.
  • the first calculation unit calculates a color-related index using the light reception signals output from the pixels respectively included in the plurality of pixel regions.
  • FIG. 1A It is a block diagram which shows the structure of the colorimeter which concerns on embodiment. It is a block diagram which shows the structure of the colorimeter which concerns on the modification 1 of embodiment. It is a block diagram which shows the structure of the colorimeter which concerns on the modification 2 of embodiment. It is a figure which shows roughly the state in which the colorimeter shown by FIG. 1A is measuring the measuring object. It is a top view of the optical filter part affixed on the two-dimensional sensor. It is a graph which shows the relationship between the spectral sensitivity of a filter, and spectral distribution when the whole screen of a display apparatus is white display.
  • FIG. 11 is a first process diagram illustrating a manufacturing process of an optical filter unit according to Modification Example 1.
  • FIG. It is the 2nd process drawing. It is the 3rd process drawing. It is the 4th process drawing. It is the same 5th process drawing. It is the 6th process drawing. It is the 7th process drawing. It is the same 8th process drawing.
  • It is a top view of an example of a display apparatus provided with the display screen which has one measurement location. It is explanatory drawing explaining the state in which one pixel area group is set.
  • FIG. 10 is an explanatory diagram illustrating a state in which a plurality of pixel region groups are set at positions different from the plurality of pixel region groups illustrated in FIG. 9.
  • FIG. 12 is an explanatory diagram illustrating an example of a composite image used in Modification 2.
  • FIG. It is explanatory drawing explaining an example of a synthesized image in which each position of a some pixel area group was shown.
  • 11 is an explanatory diagram for explaining the characteristics of Modification 3.
  • FIG. It is a block diagram which shows the structure of the two-dimensional colorimetric apparatus which concerns on the modification 4. It is a top view of the two-dimensional image sensor in which an example of a plurality of 2nd pixel fields was set up. It is a flowchart explaining operation
  • 12 is a flowchart for explaining the operation of Modification 1 when the screen aspect ratios are different.
  • the main features of the embodiment include feature 1 and feature 2.
  • the knowledge underlying the feature 1 is that the light use efficiency is reduced due to the dead space, as already described.
  • the knowledge that is the basis of Feature 2 will be described.
  • 23 and 24 are diagrams schematically showing a state in which a color filter is attached to the light receiving surface 2a of the two-dimensional sensor 2, respectively.
  • a colorimeter with an expanded measurement area for example, as shown in FIG. 23, it is considered to use a monochrome two-dimensional sensor 2 in which color filters 1X, 1Y, and 1Z are opposed to the light receiving surface 2a. It is done.
  • the light measurement amount corresponding to the color filter 1X is calculated, and based on the light reception signal output from the calculation region 2Y, The photometric quantity corresponding to the color filter 1Y is calculated, and the photometric quantity corresponding to the color filter 1Z is calculated based on the received light signal output from the calculation area 2Z.
  • the color filters 1X, 1Y, and 1Z are arranged to face the light receiving surface 2a of the two-dimensional sensor 2, the positions of the color filters 1X, 1Y, and 1Z are displaced as shown in FIG. Thus, a part of the color filter 1X may be disposed in the calculation area 2Y where the color filter 1Y is to be disposed.
  • the light reception signal output by the light passing through the color filter 1X is included in the calculation region 2Y.
  • the light reception signal output by the light passing through the gap between the color filter 1X and the color filter 1Y is also included in the calculation region 2Y.
  • the photometric quantity corresponding to the color filter 1Y is calculated based on the light reception signal output from the calculation area 2Y, a measurement error occurs.
  • FIG. 1A is a block diagram showing a configuration of a colorimeter 20 according to the embodiment.
  • FIG. 2 is a diagram schematically showing a state in which the colorimeter 20 shown in FIG. 1A is measuring a measurement object.
  • the display device 10 that is a measurement object is, for example, an organic EL display.
  • the display device 10 is not limited to an organic EL display, and may be another display such as a liquid crystal display or a plasma display.
  • the colorimeter 20 receives the emitted light L emitted from the display screen 11 of the display device 10. As shown in FIG. 1A, the colorimeter 20 includes a lens 30, an optical filter unit 50-1, a two-dimensional sensor 60-1, a control processing unit 71, an input unit 73, a display unit 75, And a storage unit 77.
  • the lens 30 (an example of an optical system) is disposed to face the display screen 11 of the display device 10.
  • the lens 30 has an optical axis L0.
  • the lens 30 guides the emitted light L emitted from the display screen 11 of the display device 10 to the optical filter unit 50-1.
  • the lens 30 may be composed of a single lens or may be composed of a plurality of lenses.
  • the optical filter unit 50-1 includes a transparent substrate 54, an X filter 51, a Y filter 52, and a Z filter 53.
  • the transparent substrate 54 is, for example, a glass substrate.
  • an X filter 51, a Y filter 52, and a Z filter 53 are respectively patterned.
  • a Y filter 52 is arranged with a predetermined interval.
  • a Z filter 53 is arranged next to the Y filter 52 with a predetermined interval.
  • the X filter 51, the Y filter 52, and the Z filter 53 each have a combined spectral response with the spectral response of the two-dimensional sensor 60-1 that is a color matching function x ( ⁇ ), y (CIE). ⁇ ) and z ( ⁇ ) have spectral transmittance characteristics that match.
  • the emitted light L passes through the X filter 51, the Y filter 52, and the Z filter 53 and enters the light receiving surface 64 of the two-dimensional sensor 60-1.
  • the X filter 51, the Y filter 52, and the Z filter 53 transmit the emitted light L, have different spectral transmittance characteristics with respect to wavelengths, and are different from each other in the transparent substrate 54. Patterned at different positions.
  • the monochrome two-dimensional sensor 60-1 includes a CMOS (Complementary MOS) sensor or a CCD (Charge Coupled Device) sensor.
  • FIG. 3 is a plan view of the optical filter unit 50-1 attached to the two-dimensional sensor 60-1.
  • the light receiving surface 64 of the two-dimensional sensor 60-1 includes a plurality of pixels (not shown) arranged two-dimensionally. Of the plurality of pixels, a light reception signal is output from a pixel that has received the emitted light L.
  • the number of pixels constituting the light receiving surface 64 (that is, the number of pixels of the two-dimensional sensor 60-1) is assumed to be 1920 ⁇ 1080.
  • the pixel areas 61, 62, and 63 are part of the light receiving surface 64, respectively.
  • the pixel regions 61, 62, and 63 each include two or more pixels, are located at different positions on the light receiving surface 64, and do not overlap each other.
  • the pixel region 61 and the X filter 51 are opposed to each other.
  • the pixel region 62 and the Y filter 52 are opposed to each other.
  • the pixel region 63 and the Z filter 53 are opposed to each other. Therefore, the outgoing light L that has passed through the X filter 51 is incident on the pixel region 61, the outgoing light L that has passed through the Y filter 52 is incident on the pixel region 62, and the outgoing light L that has passed through the Z filter 53 is It enters the region 63.
  • Feature 1 of the embodiment will be described.
  • X filter 51, Y filter 52, and Z filter 53 are patterned at different positions on transparent substrate 54. Therefore, these filters are separated by patterning. Thereby, there is no dead space due to dicing between the filters. Therefore, according to the colorimeter 20 according to the embodiment, the utilization efficiency of light used for measurement can be improved.
  • the control processing unit 71 performs control and processing necessary for executing the functions of the colorimeter 20.
  • the control processing unit 71 includes, for example, hardware such as a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), and HDD (Hard Disk Drive), and functions of the control processing unit 71. It is realized by a program and data for executing Regarding the functions of the control processing unit 71, some or all of the functions may be realized by processing by a DSP (Digital Signal Processor) instead of or by processing by the CPU. Similarly, part or all of the functions of the control processing unit 71 may be realized by processing by a dedicated hardware circuit instead of or by processing with software. What has been described above also applies to the control processing unit 71 (FIG. 19) described later.
  • the control processing unit 71 illustrated in FIG. 1A includes a first calculation unit 710 as a functional block. The first calculation unit 710 will be described later.
  • the input unit 73 is a device for a measurer (user) to input commands, data, and the like to the colorimeter 20.
  • the input unit 73 is realized by a keyboard, a mouse, a touch panel, or the like.
  • the display unit 75 is a device that displays the chromaticity calculated by the control processing unit 71.
  • the display unit 75 is realized by a liquid crystal display, an organic EL display, or the like.
  • the storage unit 77 is realized by a ROM, an HDD, or the like. As will be described later, the storage unit 77 stores in advance positional information of the X filter 51, the Y filter 52, and the Z filter 53 provided in the optical filter unit 50-1 attached to the two-dimensional sensor 60-1.
  • the pixel region 61 is a region facing the X filter 51 on the light receiving surface 64.
  • the pixel region 62 is a region facing the Y filter 52 on the light receiving surface 64.
  • the pixel region 63 is a region facing the Z filter 53 on the light receiving surface 64.
  • the pixel position of each pixel group used for calculation of an index related to color is calculated in advance at the production stage of the colorimeter 20. It is stored in the storage unit 77 (an example of a first storage unit). As indicated by the knowledge underlying the feature 2 described above, the pixel position is important for improving the measurement performance of the colorimeter 20. The calculation of the pixel position will be described.
  • FIG. 4 is a graph showing the relationship between the spectral sensitivity of the filter and the spectral distribution when the entire screen of the display device 10 displays white.
  • the horizontal axis of the graph indicates the wavelength, and the vertical axis indicates the spectral sensitivity.
  • x ( ⁇ ) represents the spectral sensitivity of the X filter 51.
  • y ( ⁇ ) indicates the spectral sensitivity of the Y filter 52.
  • z ( ⁇ ) represents the spectral sensitivity of the Z filter 53.
  • W255 indicates the spectral distribution of the emitted light L emitted from the display device 10 when the gradation of all the pixels of the display device 10 is 255. Since the gradation of the display device 10 is 256, the 255 gradation is full white. Therefore, the entire display device 10 is displayed in white.
  • the display device 10 includes an R light source, a G light source, and a B light source. For this reason, W255 includes a spectral distribution R generated by the light emission of the R light source, a spectral distribution G generated by the light emission of the G light source, and a spectral distribution B generated by the light emission of the B light source.
  • the spectral distribution of the red light is a spectral distribution R. It can be seen that the transmittance of red light is high for the X filter 51, low for the Y filter 52, and zero for the Z filter 53 (does not transmit red light).
  • the green primary color is displayed on the entire display device 10.
  • the spectral distribution of the green light is a spectral distribution G. It can be seen that the transmittance of green light is high for the Y filter 52 and low for the X filter 51 and the Z filter 53.
  • a blue primary color is displayed on the entire display device 10.
  • the spectral distribution of the blue light is a spectral distribution B. It can be seen that the transmittance of blue light is high for the Z filter 53 and low for the X filter 51 and the Y filter 52.
  • the above phenomenon is used to calculate the pixel position.
  • a display device (hereinafter referred to as “standard display device”) with known L value, u ′ value, and v ′ value in the Lu′v ′ color system is measured. It is measured by the color meter 20.
  • FIG. 5 is an explanatory diagram for explaining the relationship between the position of the filter and the output of the two-dimensional sensor 60-1 when, for example, the primary color of red is displayed on the display screen of the standard display device.
  • the number of pixels on the light receiving surface 64 is 1920 ⁇ 1080.
  • FIG. 6 is an explanatory diagram for explaining the calculated pixel position with respect to the pixel region 61.
  • the control processing unit 71 calculates the pixel positions related to the pixel regions 61, 62, and 63 by the following processes S 1 to S 8 and stores them in the storage unit 77.
  • the control processing unit 71 causes the two-dimensional sensor 60-1 to image the display screen of the standard display device in which red is displayed. At this time, the output of the two-dimensional sensor 60-1 is S (x, y). In FIG. 5, the output at y-coordinate 540 is shown for ease of explanation.
  • Control processing unit 71 the light-receiving signals outputted from the two-dimensional sensor 60-1, equal to or greater than the preset threshold Th_r, x coordinate minimum pixel number Pr (x min, 540) and the x-coordinate is the largest The pixel number Pr (x max , 540) is obtained.
  • the threshold Th_r here is lower than the value of the light reception signal generated by the light transmitted through the X filter 51 and larger than the value of the light reception signal generated by the light transmitted through the Y filter 52.
  • control processing unit 71 calculates the number of pixels Nx to be used for the calculation of the X filter 51 by the equation (1).
  • Nx ⁇ ⁇ Pr (x max , j) ⁇ Pr (x min , j) ⁇ (1)
  • j u to b.
  • the data is stored in the storage unit 77.
  • the position of the pixel region 61 (the pixel position of each pixel group included in the pixel region 61) is obtained in advance based on the positional relationship between the X filter 51 and the light receiving surface 64 and stored in the storage unit 77.
  • the position of the pixel region 62 (pixel position of each pixel group included in the pixel region 62) is obtained in advance based on the positional relationship between the Y filter 52 and the light receiving surface 64 and stored in the storage unit 77.
  • the position of the pixel region 63 (pixel position of each pixel group included in the pixel region 63) is obtained in advance based on the positional relationship between the Z filter 53 and the light receiving surface 64 and stored in the storage unit 77.
  • the feature 2 enables the colorimeter 20 according to the embodiment to measure with high accuracy while mounting the two-dimensional sensor 60-1.
  • the control processing unit 71 is configured to display pixel groups indicated by Pr (x min , j) to Pr (x max , j) in a state where the entire display screen 11 provided in the display device 10 is displayed in the primary color red.
  • An average value of pixel values is calculated. That is, the control processing unit 71 calculates a pixel value for each of all the pixels constituting the pixel group using a light reception signal output from the pixel, and calculates an average of the pixel values of all the pixels.
  • the calculated average value is an X value that is one of the tristimulus values.
  • the control processing unit 71 is configured to display pixel groups indicated by Pg (x min , j) to Pg (x max , j) in a state where the entire display screen 11 provided in the display device 10 is displayed in a green primary color.
  • An average value of pixel values is calculated. That is, the control processing unit 71 calculates a pixel value for each of all the pixels constituting the pixel group using a light reception signal output from the pixel, and calculates an average of the pixel values of all the pixels.
  • the calculated average value is a Y value that is one of the tristimulus values.
  • the control processing unit 71 performs the processing for the pixel groups indicated by Pb (x min , j) to Pb (x max , j) in a state where the entire display screen 11 provided in the display device 10 is displayed in the blue primary color.
  • An average value of pixel values is calculated. That is, the control processing unit 71 calculates a pixel value for each of all the pixels constituting the pixel group using a light reception signal output from the pixel, and calculates an average of the pixel values of all the pixels.
  • the calculated average value is a Z value that is one of the tristimulus values.
  • the control processing unit 71 calculates x and y using Expression (2).
  • x X / (X + Y + Z)
  • y Y / (X + Y + Z) (2)
  • the control processing unit 71 has the function of the first calculation unit 710.
  • the first calculation unit 710 calculates an index related to the color of the measurement object using the light reception signals output from the pixels included in the plurality of pixel regions (pixel regions 61, 62, and 63).
  • Modification 1 has a plurality of combinations of the X filter 51, the Y filter 52, and the Z filter 53. Thereby, the following can be coped with. There are multiple measurement points. The number of measurement points is different. The screen aspect ratio is different.
  • Modification 1 is applied to a display device 10 including a display screen 11 having a plurality of measurement locations.
  • FIG. 1B is a block diagram illustrating a configuration of a colorimeter 20 according to Modification 1 of the embodiment. The difference between FIG. 1B and FIG. 1A is a functional block constituting the control processing unit 71.
  • Modification 1 includes a setting unit 711 in addition to the first calculation unit 710. The setting unit 711 will be described later.
  • FIG. 7 is a plan view of an example of the display device 10 including the display screen 11 having a plurality of measurement locations.
  • the display device 10 having a direct type backlight has a light emission spectrum that is not uniform over the entire screen, so color measurement is required at a plurality of measurement locations.
  • nine measurement points 13a to 13i are shown.
  • the generic name of the measurement location is referred to as measurement location 13.
  • FIG. 8 is a plan view of the optical filter unit 50-2 provided in the first modification.
  • the optical filter unit 50-2 is different from the optical filter unit 50-1 shown in FIG. 3 in that the X filter 51, the Z filter 53, and the Y filter 52 are periodically and repeatedly arranged.
  • FIG. 9 is an explanatory diagram for explaining a state in which a plurality of pixel region groups are set.
  • the two-dimensional sensor 60-2 and the optical filter unit 50-2 are shown in a plane.
  • Nine pixel region groups 65 a to 65 i are arranged on the light receiving surface 64.
  • the pixel area group is generically referred to as a pixel area group 65.
  • the light receiving surface 64 of the two-dimensional sensor 60-2 has a rectangular shape.
  • the longitudinal direction of the light receiving surface 64 is defined as a first direction D1
  • the direction orthogonal to the longitudinal direction of the light receiving surface 64 is defined as a second direction D2.
  • the display screen 11 since the display screen 11 has nine measurement points 13a to 13i, nine pixel region groups 65a to 65i are set on the light receiving surface 64.
  • the optical filter unit 50-2 includes five filter groups 55a to 55e.
  • the generic name of the filter group is referred to as a filter group 55.
  • Each of these filter groups 55 includes a set of an X filter 51, a Y filter 52, and a Z filter 53. These filters have a long shape, and these filters are periodically and repeatedly arranged in the order of the X filter 51, the Z filter 53, and the Y filter 52 along the first direction D1. .
  • a predetermined interval is provided between adjacent filters.
  • a portion of one surface of the transparent substrate 54 other than the portion where the X filter 51, the Y filter 52, and the Z filter 53 are disposed is covered with a light shielding film 56.
  • the light shielding film 56 is, for example, a chromium film.
  • the measurement accuracy decreases.
  • the emitted light L that has passed between adjacent filters since there is a light shielding film 56 (an example of a light shielding part) that covers between the adjacent filters, the emitted light L that has passed between adjacent filters is converted into a pixel region group 65 (pixel regions 61, 62, 63).
  • the pixel region groups 65a to 65c are arranged facing the combination of the Y filter 52 of the filter group 55a, the X filter 51 of the filter group 55b, and the Z filter 53 of the filter group 55b. These are arranged along the second direction D2.
  • the pixel region groups 65d to 65f are arranged facing the combination of the X filter 51, the Z filter 53, and the Y filter 52 of the filter group 55c. These are arranged along the second direction D2.
  • the pixel region groups 65g to 65i are arranged so as to face the combination of the Z filter 53 of the filter group 55d, the Y filter 52 of the filter group 55d, and the X filter 51 of the filter group 55e. These are arranged along the second direction D2.
  • the measurement point 13 and the pixel region group 65 have a one-to-one correspondence. That is, the pixel region group 65a is used for the color measurement of the measurement location 13a, the pixel region group 65b is used for the color measurement of the measurement location 13b,... The area group 65h is used, and the pixel area group 65i is used for colorimetry of the measurement location 13i.
  • FIG. 10 is a plan view of an example of the photomask 41 used for patterning the light shielding film 56.
  • the transparent region 42 is shown in white, and the non-transparent region 43 is shown in hatching.
  • the transparent region 42 corresponds to a region where the light shielding film 56 shown in FIG. 9 is patterned.
  • the non-transparent region 43 corresponds to a region where the X filter 51, the Y filter 52, and the Z filter 53 shown in FIG. 9 are patterned.
  • FIG. 11 is a plan view of an example of the photomask 44 used for patterning the X filter 51.
  • the transparent region 45 is shown in white, and the non-transparent region 46 is shown in hatching.
  • the transparent region 45 corresponds to a region where the X filter 51 is patterned.
  • the non-transparent region 46 corresponds to a region where the light shielding film 56, the Y filter 52, and the Z filter 53 are patterned.
  • FIG. 12A to 12H are process diagrams showing a manufacturing process of the optical filter portion 50-2.
  • the transparent substrate 54, the X filter 51, the Y filter 52, the Z filter 53, the light shielding film 56, and the resists 101 to 104 are shown in cross section.
  • resist 101 is applied to the entire surface of one surface of transparent substrate 54.
  • the resist 101 is selectively exposed using the photomask 41 shown in FIG.
  • FIG. 12A shows a state where the exposed portion of the resist 101 is removed.
  • a region where the resist 101 is removed becomes a formation region of the light shielding film 56.
  • a thin film that becomes the light shielding film 56 is formed on the entire surface of one surface of the transparent substrate 54.
  • This thin film is, for example, a chromium film.
  • the resist 101 is removed by cleaning the transparent substrate 54. Thereby, as shown in FIG. 12B, the light shielding film 56 is patterned on one surface of the transparent substrate 54.
  • resist 102 is applied to the entire surface of one surface of transparent substrate 54 in the state shown in FIG. 12B.
  • the resist 102 is selectively exposed using the photomask 44 shown in FIG.
  • FIG. 12C shows a state where the exposed portion of the resist 102 is removed. A region where the resist 102 has been removed becomes a region where the X filter 51 is formed.
  • a thin film that becomes the X filter 51 is formed on the entire surface of one surface of the transparent substrate 54.
  • the resist 102 is removed by cleaning the transparent substrate 54. Thereby, as shown in FIG. 12D, the X filter 51 is patterned on one surface of the transparent substrate 54.
  • resist 103 is applied to the entire surface of one surface of transparent substrate 54 in the state shown in FIG. 12D.
  • the resist 103 is selectively exposed using a photomask (not shown) used for patterning the Y filter 52.
  • FIG. 12E shows a state where the exposed portion of the resist 103 is removed. The region where the resist 103 has been removed becomes the Y filter 52 formation region.
  • a thin film to be the Y filter 52 is formed on the entire surface of one surface of the transparent substrate 54.
  • the resist 103 is removed by cleaning the transparent substrate 54. Thereby, as shown in FIG. 12F, the Y filter 52 is patterned on one surface of the transparent substrate 54.
  • resist 104 is applied to the entire surface of one surface of transparent substrate 54 in the state shown in FIG. 12F.
  • the resist 104 is selectively exposed using a photomask (not shown) used for patterning the Z filter 53.
  • FIG. 12G shows a state where the exposed portion of the resist 104 has been removed. A region where the resist 104 has been removed is a region where the Z filter 53 is formed.
  • a thin film to be the Z filter 53 is formed on the entire surface of one surface of the transparent substrate 54.
  • the resist 104 is removed by cleaning the transparent substrate 54. Thereby, as shown in FIG. 12H, the Z filter 53 is patterned on one surface of the transparent substrate 54. Thus, the optical filter unit 50-2 is completed.
  • the optical filter unit 50-1 shown in FIG. 3 can be created by the same method as the optical filter unit 50-2. However, since the optical filter unit 50-1 does not include the light shielding film 56, the patterning process of the light shielding film 56 is omitted.
  • Modification 1 can deal with a case where the number of measurement points 13 is different. This will be described.
  • a plurality of pixel region groups 65 can be selected according to the number of measurement points 13 included in the display screen 11. For example, in the display device 10 in which the emission spectrum is uniform over the entire screen, only one measurement location 13 is required.
  • FIG. 13 is a plan view of an example of the display device 10 including the display screen 11 having one measurement point 13. The measurement location 13e is located at the center of the display screen 11.
  • the display device 10 whose emission spectrum is not uniform across the entire screen has a plurality of measurement points 13.
  • FIG. 14 is an explanatory diagram for explaining a state in which one pixel region group 65e is set.
  • the two-dimensional sensor 60-2 and the optical filter unit 50-2 are shown in a plane.
  • FIG. 21 is a flowchart for explaining the operation of the first modification when the number of measurement points 13 is different. An example will be described in which one or nine measurement points are selected.
  • the measurer operates input unit 73 (an example of a first input unit) to measure one measurement point 13.
  • a certain command is input (step S1 in FIG. 21).
  • the setting unit 711 determines that there is one measurement location 13 (Yes in step S2 in FIG. 21), and the setting unit 711 sets two pixel region groups 65e that have a one-to-one correspondence with the measurement location 13e illustrated in FIG. It is set on the light receiving surface 64 of the dimension sensor 50-2 (step S3 in FIG. 21).
  • the first calculation unit 710 applies to each of the pixel regions 61, 62, and 63 that constitute the pixel region group 65e that has a one-to-one correspondence with the measurement location 13e.
  • a process (first process) for calculating an index relating to color is performed using the received light signal output from the included pixel (step S4 in FIG. 21).
  • the measurer when there are nine measurement points 13 on display device 10, the measurer operates input unit 73 and inputs an instruction for nine measurement points 13 (FIG. 21). Step S1). Thereby, the setting unit 711 determines that there are nine measurement points 13 (No in step S2 in FIG. 21), and the setting unit 711 has a pixel area that has a one-to-one correspondence with the measurement points 13a to 13i illustrated in FIG.
  • the groups 65a to 65i are set on the light receiving surface 64 of the two-dimensional sensor 50-2 (step S5 in FIG. 21).
  • the first calculation unit 710 performs the first process for each of the measurement points 13a to 13i (step S6 in FIG. 21).
  • the input unit 73 receives selection of one or more pixel region groups 65 from the plurality of pixel region groups 65a to 65i.
  • the control processing unit 71 performs the first process for each of the measurement locations 13 corresponding to the one or more pixel region groups 65 selected using the input unit 73 on a one-to-one basis.
  • Modification 1 can handle a case where the screen aspect ratio is different. This will be described.
  • the plurality of measurement points 13 must be arranged so that the entire screen can be covered by the plurality of measurement points 13.
  • the positions of the plurality of measurement points 13 are made different according to the screen aspect ratio.
  • the arrangement of the pixel region groups 65a to 65i shown in FIG. 9 corresponds to the display device 10 having a screen aspect ratio of, for example, 4: 3.
  • the arrangement of the pixel region groups 65a to 65i shown in FIG. 9 cannot cover the entire display screen 11 when the display device 10 has a screen aspect ratio of, for example, 16: 9.
  • FIG. 15 is an explanatory diagram for explaining a state where a plurality of pixel region groups 65 are set at positions different from the plurality of pixel region groups 65 shown in FIG.
  • the two-dimensional sensor 60-2 and the optical filter unit 50-2 are shown in a plane.
  • the arrangement of the pixel region groups 65a to 65i shown in FIG. 15 corresponds to the display device 10 having a screen aspect ratio of 16: 9.
  • the pixel area groups 65a to 65i shown in FIG. 15 are different from the pixel area groups 65a to 65i shown in FIG. 9 in the positions of the pixel area groups 65a to 65c and the pixel area groups 65g to 65i. More specifically, in FIG. 15, pixel region groups 65a to 65c are arranged to face the combination of the Z filter 53 of the filter group 55a, the Y filter 52 of the filter group 55a, and the X filter 51 of the filter group 55b. Yes. Pixel region groups 65g to 65i are arranged to face the combination of the Y filter 52 of the filter group 55d, the X filter 51 of the filter group 55e, and the Z filter 53 of the filter group 55e.
  • Position information indicating the positions of the plurality of pixel region groups 65 is determined according to the screen aspect ratio (the aspect ratio of the measurement object).
  • a storage unit 77 (an example of a second storage unit) illustrated in FIG. 1 stores position information and a screen aspect ratio in advance in association with each other.
  • FIG. 22 is a flowchart for explaining the operation of the first modification when the screen aspect ratio is different.
  • 16: 9 or 4: 3 is selected as the screen aspect ratio.
  • the measurer operates the input unit 73 (an example of the second input unit) to input a command indicating the screen aspect ratio is 16: 9 (step S11 in FIG. 22).
  • the setting unit 711 determines that the screen aspect ratio is 16: 9 (Yes in step S12 in FIG. 22), and the setting unit 711 sets the pixel region groups 65a to 65i illustrated in FIG. 15 to the two-dimensional sensor 50-2. Is set to the light receiving surface 64 (step S13 in FIG. 22).
  • the measurer operates the input unit 73 (an example of the second input unit) and inputs a command indicating the screen aspect ratio is 4: 3 (FIG. 22).
  • Step S11 determines that the screen aspect ratio is 4: 3 (No in step S12 in FIG. 22), and the setting unit 711 sets the pixel region groups 65a to 65i illustrated in FIG. 9 to the two-dimensional sensor 50-2. Is set to the light receiving surface 64 (step S14 in FIG. 22).
  • the first calculation unit 710 performs the first process for each of the measurement points 13a to 13i (step S15 in FIG. 22). That is, the first calculation unit 710 uses the pixel region groups 65a to 65i set at the positions indicated by the position information associated with the screen aspect ratio input using the input unit 73, to measure the measurement points 13a to 13a. The first process is performed for each of 13i.
  • FIG. 1C is a block diagram illustrating a configuration of a colorimeter 20 according to Modification 2 of the embodiment.
  • the difference between FIG. 1C and FIG. 1A is a functional block constituting the control processing unit 71.
  • Modification 2 includes a display control unit 712 and a setting unit 713 in addition to the first calculation unit 710. The display control unit 712 and the setting unit 713 will be described later. Referring to FIGS.
  • the positions of the plurality of pixel region groups 65 are measured so that all of the plurality of pixel region groups 65 fall within the imaging range of the lens 30 (an example of an optical system).
  • the color meter 20 is preset.
  • a measurer or the like can set the position of each of the plurality of pixel region groups 65.
  • FIG. 16 is an explanatory diagram illustrating an example of the composite image 111 used in the second modification.
  • the composite image 111 is an image obtained by combining the image 112 and the image 113.
  • the image 112 is an image obtained by superimposing the planar image of the two-dimensional sensor 60-2 and the planar image of the optical filter unit 50-2.
  • the planar image of the optical filter unit 50-2 is on the top, and the planar image of the two-dimensional sensor 60-2 is on the bottom.
  • the image 112 is an example of an image including an image of the optical filter unit 50-2.
  • the image 113 is an image showing the imaging range of the lens 30 (a range indicated by a one-dot chain line).
  • the optical axis L0 of the lens 30 is measured by a known measuring method.
  • the control processing unit 71 specifies the position on the image 112 for the measured optical axis L0.
  • the optical axis L0 passes through the center of the imaging range of the lens 30, that is, the center of the image 113.
  • the display control unit 712 generates the composite image 111 by combining the image 112 and the image 113 so that the center of the image 113 is positioned at the position of the optical axis L0 on the image 112.
  • the display control unit 712 displays the composite image 111 on the display unit 75.
  • the measurer or the like uses the input unit 73 (an example of the third input unit) to indicate the positions of the plurality of pixel region groups 65a to 65i on the composite image 111. This means that the position on the light receiving surface 64 is input for each of the plurality of pixel region groups 65a to 65i using the composite image 111.
  • FIG. 17 is an explanatory diagram illustrating an example of the composite image 111 in which the positions of the plurality of pixel region groups 65a to 65i are shown.
  • the measurer or the like uses the input unit 73 to input the positions of the plurality of pixel regions 65a to 65i. Accordingly, the setting unit 713 sets a plurality of pixel region groups 65a to 65i at the position input using the input unit 73, and stores the position information indicating the position in the storage unit 77. When the colorimeter 20 is used, the setting unit 713 reads the position information from the storage unit 77, and sets a plurality of pixel region groups 65a to 65i on the light receiving surface 64 according to the position information.
  • the generic name of the X filter 51, the Y filter 52, and the Z filter 53 is referred to as a filter 5.
  • the pixel area 61, 62, 63 is collectively referred to as a pixel area 6.
  • adjacent filters 5 for example, X filter 51 and Y filter 52
  • outgoing light L incident on one filter 5 X filter 51
  • Y filter 52 the other filter 5
  • the third modification is characterized in that the above phenomenon is prevented by setting the interval between the adjacent filters 5 to a predetermined value or more.
  • FIG. 18 is an explanatory diagram for explaining the characteristics of the third modification.
  • FIG. 18 shows a partial cross section of the two-dimensional sensor 60-2 shown in FIG. 9 in a state where the optical filter unit 50-2 is attached.
  • a transparent protective film 66 for protecting the light receiving surface 64 is formed on the entire surface of the light receiving surface 64 of the two-dimensional sensor 60-2.
  • Adjacent filters 5 are provided with a predetermined interval.
  • a space between adjacent filters 5 is covered with a light shielding film 56.
  • Min is the minimum value of the predetermined interval.
  • the predetermined interval satisfies a condition that in the adjacent pixel region 6, the emitted light L incident on the filter 5 facing one pixel region 6 does not enter the other pixel region 6. More specifically, the predetermined interval satisfies the condition that the outgoing light L incident on the X filter 51 does not enter the pixel region 62, and the outgoing light L incident on the Y filter 52 enters the pixel region 61. Do not meet the conditions.
  • Min k ⁇ d / Fno (3)
  • d represents the distance between the filter 5 and the pixel region 6 facing each other
  • Fno represents the F value of the lens 30 (an example of an optical system)
  • k represents a proportionality constant.
  • the magnitude of the proportionality constant depends on the refractive index of the transparent protective film 66.
  • the proportionality constant is 0.3 to 0.35.
  • the predetermined interval is set to Min or more. Thereby, the above phenomenon can be prevented.
  • Modification 4 is a two-dimensional colorimetric device including the colorimeter 20 shown in FIG.
  • the two-dimensional color image is corrected using the tristimulus values XYZ obtained by the colorimeter 20.
  • FIG. 19 is a block diagram illustrating a configuration of a two-dimensional colorimetric apparatus 200 according to Modification 4.
  • the two-dimensional colorimetric apparatus 200 includes a light receiving unit 210 and a main body unit 220.
  • the light receiving unit 210 includes an imaging optical system 211, a beam splitter 212, an imaging unit 213, an optical filter unit 50-1, and a two-dimensional sensor 60-1.
  • the imaging optical system 211 includes an optical lens and focuses the emitted light L from the entire display screen 11.
  • the beam splitter 212 (an example of a light splitting unit) splits the focused outgoing light L into two. More specifically, the beam splitter 212 transmits a part of the focused outgoing light L and reflects the rest. The reflected outgoing light L is referred to as light L1, and the transmitted outgoing light L is referred to as outgoing light L2. The beam splitter 212 transmits, for example, 10 percent of the focused outgoing light L and reflects 90 percent.
  • the optical filter unit 50-1 and the two-dimensional sensor 60-1 shown in FIG. 1 are arranged.
  • the emitted light L1 enters the two-dimensional sensor 60-1 through the optical filter unit 50-1.
  • each of a plurality of pixels (not shown) constituting the two-dimensional sensor 60-1 outputs a light reception signal. This is the signal SG1 output from the light receiving unit 210.
  • the imaging unit 213 is disposed in the optical path of the emitted light L2.
  • the imaging unit 213 includes a color filter 214 and a two-dimensional imaging element 80.
  • the color filter 214 includes a filter that transmits the R component, a filter that transmits the G component, and a filter that transmits the B component.
  • the two-dimensional image sensor 80 is, for example, a CMOS sensor or a CCD sensor, and is an optical sensor having a two-dimensional region as a measurement range.
  • the two-dimensional image sensor 80 receives the emitted light L2 through the color filter 214 to capture the entire color image of the display screen 11 (the color image displayed on the measurement object), and the captured color image.
  • the electrical signal shown is output. This is the signal SG2 output from the light receiving unit 210.
  • the color image may be a primary color image or a color image (for example, a white image).
  • the main body unit 220 includes a control processing unit 71, an input unit 73, a display unit 75, and a storage unit 77.
  • a difference between the control processing unit 71 illustrated in FIG. 19 and the control processing unit 71 illustrated in FIG. 1A is a functional block that configures the control processing unit 71.
  • the control processing unit 71 illustrated in FIG. 19 includes a second calculation unit 714, a third calculation unit 715, and a correction unit 716 in addition to the first calculation unit 710.
  • the second calculation unit 714, the third calculation unit 715, and the correction unit 716 will be described later.
  • FIG. 20 is a plan view of the two-dimensional image sensor 80 in which three second pixel areas 81, 82, and 83 (an example of a plurality of second pixel areas) are set.
  • the second pixel regions 81, 82, 83 are each part of the light receiving surface 84 of the two-dimensional image sensor 80.
  • the second pixel regions 81, 82, 83 each include two or more pixels, are located at different positions on the light receiving surface 84, and do not overlap each other.
  • the second pixel area 81 corresponds to the pixel area 61 shown in FIG. 3, the second pixel area 82 corresponds to the pixel area 62, and the second pixel area 83 corresponds to the pixel area 63. It corresponds. That is, in the plurality of pixel regions and the plurality of second pixel regions, the pixel region and the second pixel region have a one-to-one correspondence.
  • the emitted light L received by the pixel region 61 and the emitted light L received by the second pixel region 81 are emitted light L emitted from the same portion of the display screen 11 of the display device 10.
  • the emitted light L received by the pixel region 62 and the emitted light L received by the second pixel region 82 are emitted light L emitted from the same portion of the display screen 11 of the display device 10.
  • the emitted light L received by the pixel region 63 and the emitted light L received by the second pixel region 83 are emitted light L emitted from the same portion of the display screen 11 of the display device 10.
  • the positions of the second pixel regions 81, 82, 83 on the light receiving surface 84 are calculated in advance at the production stage of the two-dimensional colorimetric device 200 and stored in the storage unit 77. The calculation of the position will be described.
  • a pixel constituting the light receiving surface 64 of the two-dimensional sensor 60-1 is defined as a pixel P1 (not shown).
  • the pixel which comprises the light-receiving surface 84 of the two-dimensional image sensor 80 be the pixel P2 (not shown).
  • the pixel which comprises the display screen of a standard display apparatus (not shown) be the pixel P3 (not shown).
  • the pixels P3 constituting the display screen of the standard display device are displayed in white one by one in order. That is, the first pixel P3 is displayed in white, the remaining pixel P3 is displayed in black, then the second pixel P3 is displayed in white, the remaining pixel P3 is displayed in black,..., The last pixel P3 is displayed in white, and the remaining pixels P3 are displayed in black.
  • the emitted light L (white light) emitted from each pixel P3 is divided into the emitted light L1 and the emitted light L2 by the beam splitter 212.
  • the emitted light L1 enters the two-dimensional sensor 60-1 through the optical filter unit 50-1.
  • the emitted light L2 enters the two-dimensional image sensor 80 via the color filter 214.
  • the outgoing light L emitted from each pixel P3 is W255 shown in FIG. 4 (full white).
  • W255 includes a red component, a green component, and a blue component. Therefore, when the pixel P1 constituting each of the pixel regions 61, 62, and 63 receives the emitted light L1, it outputs a relatively large light reception signal.
  • the pixel P2 that outputs a relatively large light reception signal among the pixels P2 that constitute the light reception surface 84 of the two-dimensional image sensor 80 is This is the pixel P ⁇ b> 2 constituting the second pixel region 81.
  • the pixel P2 that outputs a relatively large light reception signal among the pixels P2 that configure the light reception surface 84 of the two-dimensional image sensor 80 is This is the pixel P ⁇ b> 2 constituting the second pixel region 82.
  • the pixel P2 that has output a relatively large light reception signal among the pixels P2 that constitute the light reception surface 84 of the two-dimensional image sensor 80 is This is the pixel P ⁇ b> 2 constituting the second pixel region 83.
  • the control processing unit 71 performs the X value of the tristimulus values XYZ and the tristimulus in a state where the entire display screen of the standard display device is displayed in the primary color of red.
  • the R value of the value RGB is calculated. More specifically, the control processing unit 71 calculates an average value of pixel values for the pixel group ⁇ pixel group represented by Pr (x min , j) to Pr (x max , j) ⁇ constituting the pixel region 61. .
  • the control processing unit 71 calculates a pixel value for each of all the pixels P1 constituting the pixel group using the light reception signal (signal SG1) output from the pixel P1, and averages the pixel values of all the pixels P1. Is calculated.
  • the calculated average value is an X value that is one of the tristimulus values XYZ.
  • the control processing unit 71 calculates an average value of the pixel values for the pixel group constituting the pixel region 81. That is, the control processing unit 71 calculates a pixel value for each of all the pixels P2 constituting the pixel group using the light reception signal (signal SG2) output from the pixel P2, and averages the pixel values of all the pixels P2. Is calculated.
  • the calculated average value is an R value that is one of the tristimulus values RGB.
  • the control processing unit 71 calculates the Y value of the tristimulus values XYZ and the G value of the tristimulus values RGB in a state where the entire display screen of the standard display device is displayed in the green primary color. More specifically, the control processing unit 71 calculates an average value of the pixel values for the pixel group ⁇ pixel group represented by Pg (x min , j) to Pg (x max , j) ⁇ constituting the pixel region 62. . That is, the control processing unit 71 calculates a pixel value for each of all the pixels P1 constituting the pixel group using the light reception signal (signal SG1) output from the pixel P1, and averages the pixel values of all the pixels P1. Is calculated.
  • the calculated average value is a Y value that is one of the tristimulus values XYZ.
  • the control processing unit 71 calculates an average value of the pixel values for the pixel group constituting the pixel region 82. That is, the control processing unit 71 calculates a pixel value for each of all the pixels P2 constituting the pixel group using the light reception signal (signal SG2) output from the pixel P2, and averages the pixel values of all the pixels P2. Is calculated.
  • the calculated average value is a G value that is one of the tristimulus values RGB.
  • the control processing unit 71 calculates the Z value of the tristimulus values XYZ and the B value of the tristimulus values RGB in a state where the entire display screen of the standard display device is displayed in the blue primary color. More specifically, the control processing unit 71 calculates an average value of pixel values for the pixel group ⁇ pixel group represented by Pb (x min , j) to Pb (x max , j) ⁇ constituting the pixel region 63. . That is, the control processing unit 71 calculates a pixel value for each of all the pixels P1 constituting the pixel group using the light reception signal (signal SG1) output from the pixel P1, and averages the pixel values of all the pixels P1. Is calculated.
  • the calculated average value is a Z value that is one of the tristimulus values XYZ.
  • the control processing unit 71 calculates an average value of pixel values for the pixel group constituting the pixel region 83. That is, the control processing unit 71 calculates a pixel value for each of all the pixels P2 constituting the pixel group using the light reception signal (signal SG2) output from the pixel P2, and averages the pixel values of all the pixels P2. Is calculated.
  • the calculated average value is a B value that is one of the tristimulus values RGB.
  • the first calculation unit 710 provided in the control processing unit 71 uses the light reception signals output from the pixels included in the plurality of pixel regions 61, 62, and 63 to obtain the tristimulus values XYZ. Calculation is performed (the X value of the pixel area 61, the Y value of the pixel area 62, and the Z value of the pixel area 63 are calculated).
  • the third calculation unit 715 included in the control processing unit 71 calculates tristimulus values RGB using light reception signals output from pixels included in the plurality of second pixel regions 81, 82, and 83, respectively. (The R value of the pixel area 81, the G value of the pixel area 82, and the B value of the pixel area 83 are calculated).
  • the control processing unit 71 converts the calculated tristimulus values RGB into tristimulus values XYZ using a predetermined conversion formula (known conversion formula).
  • the X value at this time is the X ′ value
  • the Y value is the Y ′ value
  • the Z value is the Z ′ value.
  • the control processing unit 71 calculates the following correction coefficients ⁇ X, ⁇ Y, ⁇ Z using the X ′ value, the Y ′ value, the Z ′ value, and the X value, the Y value, and the Z value obtained by the above calculation. .
  • ⁇ X X / X ′
  • control processing unit 71 calculates the correction coefficient using the tristimulus values calculated by the first calculation unit 710 and the tristimulus values calculated by the third calculation unit 715. To do.
  • the correction unit 716 corrects the correction coefficients ⁇ X, ⁇ Y, ⁇ Z. Is used to correct the tristimulus values XYZ (an example of an index related to color).
  • the second calculation unit 714 configures a pixel group that receives the emitted light L (emitted light L2) emitted from the measurement location 13a among all the pixels P2 constituting the light receiving surface 84 of the two-dimensional image sensor 80.
  • the tristimulus value RGB is calculated, and the calculated tristimulus value RGB is converted into a tristimulus value XYZ using a predetermined conversion formula (known conversion formula).
  • the X value at this time is the X ′ value
  • the Y value is the Y ′ value
  • the Z value is the Z ′ value.
  • the correction unit 716 corrects the tristimulus values XYZ for each of the pixels P2 constituting the pixel group using the X ′ value, the Y ′ value, the Z ′ value, and the correction coefficients ⁇ X, ⁇ Y, ⁇ Z.
  • the control processing unit 71 sets the corrected average value of the tristimulus values XYZ as the tristimulus value XYZ of the measurement location 13a.
  • the control processing unit 71 calculates tristimulus values XYZ for the measurement points 13b to 13i in the same manner as the measurement point 13a.
  • the correction unit 716 corrects the tristimulus values of the plurality of measurement points 13a to 13i calculated by the second calculation unit 714 using the correction coefficient.
  • the tristimulus values obtained using the colorimeter 20 (FIG. 1) according to the embodiment are obtained using the imaging unit 213 and the second calculation unit 714 provided in the two-dimensional colorimetric device 200 (FIG. 19). It is assumed that the measurement accuracy is higher than the calculated tristimulus value.
  • the correction coefficient is calculated using the tristimulus values obtained by using the optical filter unit 50-1, the two-dimensional sensor 60-1, and the control processing unit 71 provided in the two-dimensional colorimetric device 200. That is, the correction coefficient is calculated using tristimulus values obtained using the colorimeter 20.
  • the two-dimensional colorimetric device 200 uses the imaging unit 213 and the second calculation unit 714 to determine the tristimulus values of each of the plurality of measurement locations 13a to 13i, and the tristimulus values are corrected as described above. Correct using coefficients. Therefore, it is possible to improve the accuracy of the tristimulus values for each of the plurality of measurement locations 13a to 13i.
  • the colorimeter according to the first aspect of the embodiment transmits a transparent substrate and outgoing light emitted from a measurement object, has different spectral transmittance characteristics with respect to wavelength, and is patterned at different positions on the transparent substrate.
  • a plurality of filters a light receiving surface including a plurality of pixels arranged two-dimensionally, and receiving light from the pixels receiving the emitted light among the plurality of pixels
  • a plurality of pixel regions that are part of the light receiving surface and that include two or more pixels are set at different positions on the light receiving surface, and the plurality of pixels
  • Each of the regions is opposed to each of the plurality of filters, and the emitted light that has passed through the opposed filter is incident on each of the plurality of pixel regions, and further, the plurality of pixel regions are subjected to the same.
  • the Using the light receiving signals output from the pixels included comprises a first calculator for calculating an index related to the color.
  • the plurality of filters are patterned at different positions on the transparent substrate, the plurality of filters are separated by patterning. Thereby, there is no dead space due to dicing between the filters. Therefore, according to the colorimeter which concerns on the 1st aspect of embodiment, the utilization efficiency of the light used for a measurement can be improved.
  • the above configuration further includes a first storage unit that stores a pixel position of each pixel group used for calculation of the index among pixels included in each of the plurality of pixel regions, and the pixel position of each pixel group Is obtained in advance based on the positional relationship between each of the plurality of filters and the light receiving surface, and is stored in the first storage unit.
  • the pixel position of each pixel group is obtained in advance based on the positional relationship between each of the plurality of filters and the light receiving surface, and is stored in the first storage unit. Therefore, according to this configuration, it is possible to measure with high accuracy while mounting the two-dimensional sensor.
  • the pixel position of each pixel group is, for example, the position of a portion of the light receiving surface that faces a plurality of filters. More specifically, the plurality of filters are, for example, an X filter, a Y filter, and a Z filter.
  • a pixel region facing the X filter is a first pixel region
  • a pixel region facing the Y filter is a second pixel region
  • a pixel region facing the Z filter is a third pixel region.
  • the position of the pixel group constituting the first pixel area, the position of the pixel group constituting the second pixel area, and the position of the pixel group constituting the third pixel area are pixel positions of each pixel group.
  • the pixel position of the pixel group may be specified by, for example, the position of the pixel at the four corners of the area defined by the pixel group, or may be specified by the position of the pixel at the center of the area defined by the pixel group.
  • the plurality of pixel regions are set as pixel region groups, and further includes a setting unit that sets the plurality of pixel region groups at different positions on the light receiving surface, and the measurement object has a plurality of measurement locations.
  • the measurement locations and the pixel region groups have a one-to-one correspondence
  • the first calculation unit includes the measurement locations and the measurement locations.
  • a process for calculating the index using the light reception signals output from the pixels included in the plurality of pixel areas constituting the pixel area group corresponding one-to-one is a first process, and the plurality of measurements The first processing is performed for each of the locations.
  • the above configuration further includes a first input unit to which selection of one or more pixel region groups from the plurality of pixel region groups is input, and the first calculation unit includes the first input unit.
  • the first process is performed for each of the measurement locations corresponding to the one or more pixel region groups selected by using one-to-one.
  • position information indicating positions of the plurality of pixel region groups is determined according to an aspect ratio of the measurement object, and the position information and the aspect ratio are stored in advance in association with each other.
  • a second input unit to which the aspect ratio is input, and the first calculation unit is associated with the aspect ratio input using the second input unit.
  • the first processing is performed for each of the plurality of measurement locations using the plurality of pixel region groups set at the positions indicated by the position information.
  • This configuration can cope with a case where the aspect ratio (screen aspect ratio) of the measurement object is different.
  • a composite that combines an optical system that guides the emitted light emitted from the measurement object to the optical filter unit, an image that includes the image of the optical filter unit, and an image that indicates the imaging range of the optical system.
  • a display control unit that generates an image and displays the composite image on a display unit, and a third input that can input a position on the light receiving surface for each of the plurality of pixel region groups using the composite image
  • the setting unit sets the plurality of pixel region groups at positions input using the third input unit.
  • the positions of the plurality of pixel region groups are preset in the colorimeter so that all of the plurality of pixel region groups fall within the imaging range of the optical system.
  • the imaging range of the optical system can be rephrased as the visual field range of the optical system or the imaging range of the colorimeter.
  • the optical system that guides the emitted light emitted from the measurement object to the optical filter unit and the plurality of filters are patterned at different positions on the transparent substrate with a predetermined interval.
  • the emitted light incident on the filter facing one of the pixel regions is not incident on the other pixel region, and the minimum value of the predetermined interval is set. It is set to Min shown by a following formula, and the said predetermined space
  • interval is more than said Min. Min k ⁇ d / Fno (Here, d represents the distance between the filter and the pixel region facing each other, Fno represents the F value of the optical system, and k represents a proportional constant.)
  • the transparent substrate has a light shielding portion that covers between the adjacent filters.
  • a two-dimensional colorimetric apparatus is a two-dimensional colorimetric apparatus including the colorimeter, and includes a light dividing unit that divides the emitted light into two, and the one of the two divided parts.
  • a tristimulus value is calculated as the index using the received light signal output from the pixel to be detected
  • the imaging unit includes a two-dimensional imaging element, images a color image displayed on the measurement object
  • the two-dimensional color measurement device further uses a signal indicating the color image output from the imaging unit to calculate a tristimulus value of each of a plurality of measurement locations included in the measurement object.
  • the tristimulus value calculated by the first calculation unit Using positive coefficient, and a correction unit for correcting the respective tristimulus values of the plurality of measurement points that are calculated
  • the two-dimensional colorimetric apparatus includes the colorimeter according to the first aspect of the embodiment, the same effect as the colorimeter according to the first aspect of the embodiment is obtained. Have.
  • the tristimulus values obtained using the colorimeter according to the first aspect of the embodiment have higher measurement accuracy than the tristimulus values obtained using the imaging unit and the second arithmetic unit.
  • the correction coefficient is calculated using tristimulus values obtained using the colorimeter according to the first aspect of the embodiment.
  • the two-dimensional colorimetric apparatus according to the second aspect of the embodiment obtains tristimulus values of each of a plurality of measurement locations using the imaging unit and the second calculation unit, and calculates these tristimulus values.
  • the correction is performed using the correction coefficient. Therefore, the accuracy of tristimulus values can be improved for each of a plurality of measurement locations.
  • the two-dimensional imaging element includes a plurality of second pixel areas that have a one-to-one correspondence with the plurality of pixel areas, and the pixel area and the second pixel area that have a one-to-one correspondence.
  • the emitted light received by the pixel region and the emitted light received by the second pixel region are the emitted light emitted from the same portion of the measurement object, and the two-dimensional colorimetric device is Further, the image processing apparatus includes a third calculation unit that calculates tristimulus values using light reception signals output from pixels included in each of the plurality of second pixel regions, and the correction unit includes the first calculation unit.
  • the plurality of measurements calculated in the second calculation unit using the correction coefficient calculated using the tristimulus values calculated in step 3 and the tristimulus values calculated in the third calculation unit Correct each tristimulus value of the location.
  • This configuration is an example of how to obtain the correction coefficient.
  • a colorimeter and a two-dimensional colorimeter can be provided.

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

測色計は、光学フィルタ部と、2次元センサと、第1の演算部と、を有する。光学フィルタ部は、透明基板と、測定対象物から出射された出射光を透過し、波長に対する分光透過率の特性が互いに異なり、透明基板の異なる位置にパターニングされた複数のフィルタと、を有する。2次元センサは、2次元的に配列された複数の画素を含む受光面を有しており、前記複数の画素のうち、前記出射光を受光した画素から受光信号を出力する。前記受光面の一部であり、2以上の画素を含む画素領域が、前記受光面の異なる位置に、複数設定されている。前記複数の画素領域のそれぞれは、前記複数のフィルタのそれぞれと対向している。前記複数の画素領域のそれぞれには、対向する前記フィルタを透過した前記出射光が入射される。前記第1の演算部は、前記複数の画素領域にそれぞれ含まれる画素から出力された前記受光信号を用いて、色に関する指標を演算する。

Description

測色計及び2次元測色装置
 本発明は、表示装置のカラー表示性能を計測する技術に関する。
 表示装置は、表示性能の向上が求められており、特に、近年は、低輝度の性能が重要視されてきている。これに応えるべく、表示装置の表示性能を測定する測定装置も、低輝度での測定精度の向上が必要になってきている。
 低輝度での測定精度を向上するためには、高いS/N(Signal Noise Ratio)が必要になる。なぜなら、S/Nが低いと、ノイズの中に信号が埋もれてしまい、色度又は輝度を正確に測定することができないためである。
 S/Nを向上するためには、以下の2つの方法がある。第1の方法は、センサに入射する光量を増加させるものである。第2の方法は、測定装置のノイズを減少させるものである。測定装置のノイズを減少させるにも限界があるため、センサに入射する光量を増加させることが考えられる。
 ところで、例えば特許文献1に記載の従来の測定装置では、表示装置から出射される光量の一部のみを測定装置に導いていた。その結果、測定装置は、表示装置から出射される光量の一部のみしか測定に使用していなかった。
 例えば、表示領域が133mm×75mmの表示装置を測定する場合、特許文献1では直径10mmの測定領域からの測定光を用いて測定しているので、全表示領域に対する測定領域の面積の比率は、下記式で示すように、約0.79%である。このため測定装置は、表示領域の0.79%の光量しか測定に使用していなかった。
  5×5×π/(133×75)×100≒0.79%
 この理由は、例えば、測定対象物が液晶ディスプレイの場合、視野角特性が存在するためである。すなわち、斜めに出射された光が含まれると、視野角特性の影響により斜めの角度に依存して測定結果にずれが生じてしまう。このため、特許文献1では法線方向に出射される光以外は含まれないようにする必要があった。
 しかしながら、例えば、測定対象物が有機エレクトロルミネッセンスディスプレイの場合には、液晶ディスプレイに比べて、視野角特性が良いので、測定対象物が有機ELディスプレイの場合には、測定に使用する光量を増加させてS/Nを向上することが可能となる。
 測定に使用する光量を増加させるために、例えば特許文献2に記載のような、受光面積が大きい2次元センサを採用することが考えられる。特許文献2に記載の技術では、受光素子として2次元センサが採用され、この2次元センサに、色測定に適した分光応答度にするためのカラーフィルタが貼り付けられている。
 2次元センサの受光面は、2次元的に配列された複数の画素により構成される。2次元センサの受光面の一部であり、2以上の画素(画素群)を含む領域を画素領域とする。Xフィルタと対向する画素領域と、Yフィルタと対向する画素領域と、Zフィルタと対向する画素領域とが、受光面の異なる箇所に位置する構造、すなわち、Xフィルタ、Yフィルタ、及び、Zフィルタが、2次元センサの受光面の異なる箇所で受光面と対向する構造を有する測色計について考える。Xフィルタ、Yフィルタ、Zフィルタが別々に用意され、これらのフィルタが、受光面を覆うパッシベーション膜に貼り付けられるとする。
 Xフィルタは、多数のXフィルタが形成されたガラス基板からダイシングによって切り出され、Yフィルタは、多数のYフィルタが形成されたガラス基板からダイシングによって切り出され、Zフィルタは、多数のZフィルタが形成されたガラス基板からダイシングによって切り出される。ダイシングによって、フィルタの縁部に、キズ、剥がれが不可避的に発生する。このため、フィルタの縁部は、適正なフィルタとして機能しないので、使用されず、デッドスペースとなる。ダイシングが原因となるデッドスペースの幅は、数ミリなので、デッドスペースの面積は、小さくない。従って、測定に使用する光量の低下量は、無視できない。
 特に、Xフィルタ、Yフィルタ及びZフィルタの組が複数ある構造の場合、測定に使用される光量の低下が大きな問題となる。この測色計は、LCD(liquid crystal display)やOLED(Organic Light Emitting Diode)のうち、直下型バックライトを有するタイプの測色に使用される。直下型バックライトを有するタイプは、発光スペクトルが画面全体で均一でないので、画面の複数の箇所で測色が必要となるからである。
 上記構造(Xフィルタ、Yフィルタ及びZフィルタの組が複数ある構造)では、多数のフィルタが受光面に配置されるので、これらのフィルタの面積が小さくなる。よって、数ミリの幅を有するデッドスペースは、光の利用効率を著しく悪くする。例えば、フィルタの縦横サイズが、1cmより小さいとき、光の利用効率が50パーセント以下になることがある。
特開2003-247891号公報 特開2010-145177号公報
 本発明の目的は、複数のフィルタが2次元センサの受光面の異なる箇所で受光面と対向する場合において、測定に使用される光の利用効率を向上させることができる測色計、及び、2次元測色装置を提供することである。
 上述した目的を実現するために、本発明の一側面を反映した測色計は、光学フィルタ部と、2次元センサと、第1の演算部と、を有する。前記光学フィルタ部は、透明基板と、測定対象物から出射された出射光を透過し、波長に対する分光透過率の特性が互いに異なり、前記透明基板の異なる位置にパターニングされた複数のフィルタと、を有する。2次元センサは、2次元的に配列された複数の画素を含む受光面を有しており、前記複数の画素のうち、前記出射光を受光した画素から受光信号を出力する。前記受光面の一部であり、2以上の画素を含む画素領域が、前記受光面の異なる位置に、複数設定されている。前記複数の画素領域のそれぞれは、前記複数のフィルタのそれぞれと対向している。前記複数の画素領域のそれぞれには、対向する前記フィルタを透過した前記出射光が入射される。前記第1の演算部は、前記複数の画素領域にそれぞれ含まれる画素から出力された前記受光信号を用いて、色に関する指標を演算する。
 発明の1又は複数の実施形態により与えられる利点及び特徴は以下に与えられる詳細な説明及び添付図面から十分に理解される。これら詳細な説明及び添付図面は、例としてのみ与えられるものであり本発明の限定の定義として意図されるものではない。
実施形態に係る測色計の構成を示すブロック図である。 実施形態の変形例1に係る測色計の構成を示すブロック図である。 実施形態の変形例2に係る測色計の構成を示すブロック図である。 図1Aに示される測色計が測定対象物を測定している状態を概略的に示す図である。 2次元センサに貼り付けられた光学フィルタ部の平面図である。 フィルタの分光感度と、表示装置の画面全体が白色表示のときの分光分布との関係を示すグラフである。 標準表示装置の表示画面に赤の原色が表示されたとき、フィルタの位置と2次元センサの出力との関係を説明する説明図である。 1つの画素領域に関して、算出された画素位置を説明する説明図である。 複数の測定箇所を有する表示画面を備える表示装置の一例の平面図である。 変形例1に備えられる光学フィルタ部の平面図である。 複数の画素領域群が設定されている状態を説明する説明図である。 遮光膜のパターニングに用いられるフォトマスクの一例の平面図である。 Xフィルタのパターニングに用いられるフォトマスクの一例の平面図である。 変形例1に係る光学フィルタ部の作製工程を示す第1工程図である。 同第2工程図である。 同第3工程図である。 同第4工程図である。 同第5工程図である。 同第6工程図である。 同第7工程図である。 同第8工程図である。 1つの測定箇所を有する表示画面を備える表示装置の一例の平面図である。 1つの画素領域群が設定されている状態を説明する説明図である。 図9に示す複数の画素領域群と異なる位置に複数の画素領域群が設定されている状態を説明する説明図である。 変形例2において使用される合成画像の一例を説明する説明図である。 複数の画素領域群のそれぞれの位置が示された、合成画像の一例を説明する説明図である。 変形例3の特徴を説明する説明図である。 変形例4に係る2次元測色装置の構成を示すブロック図である。 複数の第2の画素領域の一例が設定された2次元撮像素子の平面図である。 測定箇所の数が異なる場合について、変形例1の動作を説明するフローチャートである。 画面アスペクト比が異なる場合について、変形例1の動作を説明するフローチャートである。 2次元センサの受光面にカラーフィルタが貼り付けられた状態の第1例を概略的に示す図である。 2次元センサの受光面にカラーフィルタが貼り付けられた状態の第2例を概略的に示す図である。
 以下、図面を参照して、本発明の1又は複数の実施形態が説明される。しかし、発明の範囲は、開示された実施形態に限定されない。
 各図において、同一符号を付した構成は、同一の構成であることを示し、その構成について、既に説明している内容については、その説明を省略する。
 実施形態の主な特徴として、特徴1と特徴2とがある。特徴1の基礎となった知見は、既に説明したように、デッドスペースが原因で光の利用効率が低下することである。特徴2の基礎となった知見について説明する。
 図23、図24は、それぞれ、2次元センサ2の受光面2aにカラーフィルタが貼り付けられた状態を概略的に示す図である。測定領域を広げた測色計を実現するためには、例えば、図23に示されるように、カラーフィルタ1X,1Y,1Zが受光面2aと対向したモノクロの2次元センサ2を用いることが考えられる。この測色計では、測定時に、2次元センサ2の計算領域2Xから出力される受光信号に基づき、カラーフィルタ1Xに応じた測光量が計算され、計算領域2Yから出力される受光信号に基づき、カラーフィルタ1Yに応じた測光量が計算され、計算領域2Zから出力される受光信号に基づき、カラーフィルタ1Zに応じた測光量が計算される。
 しかしながら、カラーフィルタ1X,1Y,1Zが、2次元センサ2の受光面2aと対向して配置される際に、例えば、図24に示されるように、カラーフィルタ1X,1Y,1Zの位置がずれて、カラーフィルタ1Yが配置されるべき計算領域2Yに、カラーフィルタ1Xの一部が配置されてしまうこともあり得る。
 この場合、カラーフィルタ1Xを通った光により出力される受光信号が計算領域2Yに含まれることになる。また、カラーフィルタ1Xとカラーフィルタ1Yとの間の隙間を通った光により出力される受光信号も、計算領域2Yに含まれることになる。この場合、上述のように、計算領域2Yから出力される受光信号に基づき、カラーフィルタ1Yに応じた測光量が計算されるため、測定誤差となる。
 一方、上記位置ずれを予め想定して、計算領域の面積を小さくすると、計算に使用する光量が減少するため、従来技術と変わらなくなり、低輝度の測定性能を向上することが困難になる。
 以上の考察により、本発明者は、実施形態の特徴2を想到するに至った。
 図1Aは、実施形態に係る測色計20の構成を示すブロック図である。図2は、図1Aに示される測色計20が測定対象物を測定している状態を概略的に示す図である。
 図2において、実施形態では、測定対象物である表示装置10は、例えば、有機ELディスプレイである。なお、表示装置10は、有機ELディスプレイに限られず、液晶ディスプレイ、プラズマディスプレイなどの他のディスプレイでもよい。
 測色計20は、表示装置10の表示画面11から出射される出射光Lを受光する。測色計20は、図1Aに示されるように、レンズ30と、光学フィルタ部50-1と、2次元センサ60-1と、制御処理部71と、入力部73と、表示部75と、記憶部77とを備える。
 レンズ30(光学系の一例)は、表示装置10の表示画面11と対向して配置される。レンズ30は、光軸L0を有する。レンズ30は、表示装置10の表示画面11から出射される出射光Lを光学フィルタ部50-1へ導く。レンズ30は、1つのレンズで構成されていてもよいし、複数のレンズで構成されていてもよい。
 光学フィルタ部50-1は、透明基板54、Xフィルタ51、Yフィルタ52、及び、Zフィルタ53を備える。透明基板54は、例えば、ガラス基板である。透明基板54の一方の面上に、Xフィルタ51、Yフィルタ52、Zフィルタ53がそれぞれパターニングされている。Xフィルタ51の隣に、所定の間隔を設けて、Yフィルタ52が配置されている。Yフィルタ52の隣に、所定の間隔を設けて、Zフィルタ53が配置されている。これらのフィルタは、薄膜状である。
 Xフィルタ51、Yフィルタ52、Zフィルタ53は、それぞれ、2次元センサ60-1の分光応答度との合成分光応答度が国際照明委員会(CIE)の等色関数x(λ)、y(λ)、z(λ)に一致するような分光透過率特性を有する。出射光Lは、Xフィルタ51、Yフィルタ52、Zフィルタ53を透過して、2次元センサ60-1の受光面64に入射する。
 以上説明したように、Xフィルタ51、Yフィルタ52、及び、Zフィルタ53(複数のフィルタの一例)は、出射光Lを透過し、波長に対する分光透過率の特性が互いに異なり、透明基板54の異なる位置にパターンニングされている。
 モノクロの2次元センサ60-1は、CMOS(Complementary MOS)センサ又はCCD(Charge Coupled Device)センサで構成される。図3は、2次元センサ60-1に貼り付けられた光学フィルタ部50-1の平面図である。2次元センサ60-1の受光面64は、2次元的に配列された複数の画素(不図示)を含む。複数の画素のうち、出射光Lを受光した画素から受光信号が出力される。受光面64を構成する画素数(すなわち、2次元センサ60-1の画素数)は、ここでは、1920×1080とする。
 画素領域61,62,63は、それぞれ、受光面64の一部である。画素領域61,62,63は、それぞれ2以上の画素を含み、受光面64の異なる位置にあり、互いに重なっていない。画素領域61とXフィルタ51とは、対向している。画素領域62とYフィルタ52とは、対向している。画素領域63とZフィルタ53とは、対向している。従って、Xフィルタ51を透過した出射光Lは、画素領域61に入射し、Yフィルタ52を透過した出射光Lは、画素領域62に入射し、Zフィルタ53を透過した出射光Lは、画素領域63に入射する。
 実施形態の特徴1について説明する。図3を参照して、Xフィルタ51、Yフィルタ52、Zフィルタ53は、透明基板54の異なる位置にパターニングされているので、これらのフィルタどうしは、パターニングによって分離されている。これにより、フィルタとフィルタとの間には、ダイシングよるデッドスペースが存在しない。従って、実施形態に係る測色計20によれば、測定に使用する光の利用効率を向上させることができる。
 図1Aを参照して、制御処理部71は、測色計20が有する機能を実行するために必要な制御及び処理をする。制御処理部71は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、及び、HDD(Hard Disk Drive)等のハードウェア、並びに、制御処理部71の機能を実行するためのプログラムおよびデータ等によって実現される。制御処理部71の機能について、各機能の一部又は全部は、CPUによる処理に替えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、制御処理部71の機能の一部又は全部は、ソフトウェアによる処理に替えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。以上説明したことは、後述する制御処理部71(図19)についても同様である。図1Aに示す制御処理部71は、機能ブロックとして、第1の演算部710を備える。第1の演算部710については後で説明する。
 入力部73は、測定者(ユーザ)が測色計20に命令、データ等を入力するための装置である。入力部73は、キーボード、マウス、タッチパネル等によって実現される。
 表示部75は、制御処理部71が算出した色度等を表示する装置である。表示部75は、液晶ディスプレイ、有機ELディスプレイ等によって実現される。
 記憶部77は、ROM、HDD等によって実現される。記憶部77は、後で説明するように、2次元センサ60-1に貼り付けられる光学フィルタ部50-1に備えられるXフィルタ51、Yフィルタ52、Zフィルタ53の位置情報を予め記憶する。
 図1A及び図3を参照して、上述したように、画素領域61は、受光面64において、Xフィルタ51と対向する領域である。画素領域62は、受光面64において、Yフィルタ52と対向する領域である。画素領域63は、受光面64において、Zフィルタ53と対向する領域である。画素領域61,62,63にそれぞれ含まれる画素のなかで、色に関する指標(例えば、色度)の算出に使用する各画素群の画素位置は、測色計20の生産段階で予め算出されて記憶部77(第1の記憶部の一例)に記憶される。上述した特徴2の基礎となった知見が示すように、上記画素位置は、測色計20の測定性能の向上のために重要である。上記画素位置の算出について説明する。
 図4は、フィルタの分光感度と、表示装置10の画面全体が白色表示のときの分光分布との関係を示すグラフである。グラフの横軸は、波長を示し、縦軸は、分光感度を示す。x(λ)は、Xフィルタ51の分光感度を示す。y(λ)は、Yフィルタ52の分光感度を示す。z(λ)は、Zフィルタ53の分光感度を示す。
 W255は、表示装置10の全画素の階調が255のとき、表示装置10から出射される出射光Lの分光分布を示す。表示装置10の階調は、256なので、255階調は、フルホワイトである。よって、表示装置10の全体が白色表示されている。表示装置10は、R光源、G光源、及び、B光源を備える。このため、W255は、R光源の発光で生じる分光分布R、G光源の発光で生じる分光分布G、及び、B光源の発光で生じる分光分布Bを含む。
 表示装置10のR光源のみが発光したとき、表示装置10の全体に赤色の原色が表示される。この赤色の光の分光分布は、分光分布Rである。赤色の光の透過率は、Xフィルタ51が高く、Yフィルタ52が低く、Zフィルタ53が0(赤色の光を透過しない)であることが分かる。
 表示装置10のG光源のみが発光したとき、表示装置10の全体に緑色の原色が表示される。この緑色の光の分光分布は、分光分布Gである。緑色の光の透過率は、Yフィルタ52が高く、Xフィルタ51及びZフィルタ53が低いことが分かる。
 表示装置10のB光源のみが発光したとき、表示装置10の全体に青色の原色が表示される。この青色の光の分光分布は、分光分布Bである。青色の光の透過率は、Zフィルタ53が高く、Xフィルタ51及びYフィルタ52が低いことが分かる。
 上記画素位置の算出には、以上の現象が利用される。
 上記画素位置を算出するために、例えば、Lu’v’表色系におけるL値、u’値、v’値が既知の表示装置(以下、「標準表示装置」と称される)が、測色計20によって測定される。
 図5は、標準表示装置の表示画面に、例えば、赤の原色が表示されたとき、フィルタの位置と2次元センサ60-1の出力との関係を説明する説明図である。受光面64の画素数は、1920×1080である。図6は、画素領域61に関して、算出された上記画素位置を説明する説明図である。制御処理部71は、画素領域61,62,63に関する上記画素位置を、以下の処理S1~S8によって算出し、記憶部77に記憶させる。
 (処理S1)
 まず、標準表示装置の画面全体が赤の原色に表示される。図4に示すように、Xフィルタ51は、主に赤色に対する分光透過率が高い。そこで、制御処理部71は、これらを利用して、Xフィルタ51に関する上記画素位置を特定する。
 (処理S2)
 制御処理部71は、赤色が表示された標準表示装置の表示画面を、2次元センサ60-1に撮像させる。このとき、2次元センサ60-1の出力をS(x,y)とする。図5では、説明の簡単のために,y座標が540におけるその出力が示されている。
 (処理S3)
 制御処理部71は、2次元センサ60-1から出力される受光信号において、予め設定された閾値Th_r以上になる、x座標が最小の画素番号Pr(xmin,540)とx座標が最大の画素番号Pr(xmax,540)とを求める。ここでの閾値Th_rは、Xフィルタ51を透過した光により発生する受光信号の値より低く、Yフィルタ52を透過した光により発生する受光信号の値より大きい。
 (処理S4)
 制御処理部71は、y軸方向にy=1~1080までy座標を順次変更して、処理S2,S3と同様の操作を行う。これによって、図6に示されるように、Xフィルタ51に関する上記画素位置が特定される。
 (処理S5)
 制御処理部71は、三刺激値を演算する際に、Xフィルタ51の計算に使用する画素数Nxを式(1)により算出する。
  Nx=Σ{Pr(xmax,j)-Pr(xmin,j)} (1)
  ここで、j=u~bである。
 (処理S6)
 制御処理部71は、処理S4で求めたPr(xmin,j),Pr(xmax,j),j=u~bと、処理S5で求めた画素数Nxとを、測色計20の記憶部77に記憶させる。
 (処理S7)
 次に、標準表示装置の画面全体が緑の原色に表示される。図4に示すように、Yフィルタ52は、主に緑色に対する分光透過率が高い。そこで、制御処理部71は、これらを利用して、Yフィルタ52に関する上記画素位置を特定する。すなわち、制御処理部71は、処理S2~S5と同様の動作を行う。そして、制御処理部71は、Pg(xmin,j),Pg(xmax,j),j=u~bと、画素数Nyとを、測色計20の記憶部77に記憶させる。
 (処理S8)
 次に、標準表示装置の画面全体が青の原色に表示される。図4に示すように、Zフィルタ53は、主に青色に対する分光透過率が高い。そこで、制御処理部71は、これらを利用して、Zフィルタ53に関する上記画素位置を特定する。すなわち、制御処理部71は、処理S2~S5と同様の動作を行う。そして、制御処理部71は、Pb(xmin,j),Pb(xmax,j),j=u~bと、画素数Nzとを、測色計20の記憶部77に記憶させる。
 Pr(xmin,j)~Pr(xmax,j),j=u~bは、画素領域61に含まれる画素群(色に関する指標の算出に使用される画素群)、及び、この画素群の画素位置の一例である。Pg(xmin,j)~Pg(xmax,j),j=u~bは、画素領域62に含まれる画素群(色に関する指標の算出に使用する画素群)、及び、この画素群の画素位置の一例である。Pb(xmin,j)~Pb(xmax,j),j=u~bは、画素領域63に含まれる画素群(色に関する指標の算出に使用する画素群)、及び、この画素群の画素位置の一例である。
 以上説明したように、画素領域61の位置(画素領域61に含まれる各画素群の画素位置)は、Xフィルタ51と受光面64との位置関係に基づき予め求められて記憶部77に記憶されている。画素領域62の位置(画素領域62に含まれる各画素群の画素位置)は、Yフィルタ52と受光面64との位置関係に基づき予め求められて記憶部77に記憶されている。画素領域63の位置(画素領域63に含まれる各画素群の画素位置)は、Zフィルタ53と受光面64との位置関係に基づき予め求められて記憶部77に記憶されている。これが実施形態の特徴2である。特徴2によって、実施形態に係る測色計20は、2次元センサ60-1を搭載しつつ、高精度に測定することが可能になる。
 次に、図1Aを参照して、表示装置10から出射される出射光Lの三刺激値X,Y,Zの算出について説明する。制御処理部71は、表示装置10に備えられる表示画面11の全体が赤色の原色に表示された状態で、Pr(xmin,j)~Pr(xmax,j)で示される画素群について、画素値の平均値を算出する。すなわち、制御処理部71は、その画素群を構成する全画素のそれぞれについて、画素から出力された受光信号を用いて画素値を算出し、全画素の画素値の平均を算出する。算出された平均値は、三刺激値の一つであるX値となる。
 制御処理部71は、表示装置10に備えられる表示画面11の全体が緑色の原色に表示された状態で、Pg(xmin,j)~Pg(xmax,j)で示される画素群について、画素値の平均値を算出する。すなわち、制御処理部71は、その画素群を構成する全画素のそれぞれについて、画素から出力された受光信号を用いて画素値を算出し、全画素の画素値の平均を算出する。算出された平均値は、三刺激値の一つであるY値となる。
 制御処理部71は、表示装置10に備えられる表示画面11の全体が青色の原色に表示された状態で、Pb(xmin,j)~Pb(xmax,j)で示される画素群について、画素値の平均値を算出する。すなわち、制御処理部71は、その画素群を構成する全画素のそれぞれについて、画素から出力された受光信号を用いて画素値を算出し、全画素の画素値の平均を算出する。算出された平均値は、三刺激値の一つであるZ値となる。
 制御処理部71は、式(2)を用いて、x、yを算出する。
  x=X/(X+Y+Z)、y=Y/(X+Y+Z)   (2)
 以上説明したように、制御処理部71は、第1の演算部710の機能を有する。第1の演算部710は、複数の画素領域(画素領域61,62,63)にそれぞれ含まれる画素から出力された受光信号を用いて、測定対象物の色に関する指標を演算する。
 実施形態の変形例について説明する。変形例1は、Xフィルタ51、Yフィルタ52、Zフィルタ53の組み合わせを複数有する。これにより、以下のことに対応することができる。
   測定箇所が複数ある。
   測定箇所の数が異なる。
   画面アスペクト比が異なる。
 変形例1は、複数の測定箇所を有する表示画面11を備える表示装置10に適用される。図1Bは、実施形態の変形例1に係る測色計20の構成を示すブロック図である。図1Bと図1Aとの違いは、制御処理部71を構成する機能ブロックである。変形例1は、第1の演算部710に加えて、設定部711を備える。設定部711については後で説明する。図7は、複数の測定箇所を有する表示画面11を備える表示装置10の一例の平面図である。例えば、直下型バックライトを有する表示装置10は、発光スペクトルが画面全体で均一でないので、複数の測定箇所で測色が必要となる。図7では、9個の測定箇所13a~13iが示されている。以下、測定箇所の総称を測定箇所13と記載する。
 図8は、変形例1に備えられる光学フィルタ部50-2の平面図である。光学フィルタ部50-2が図3に示す光学フィルタ部50-1と異なる点はXフィルタ51、Zフィルタ53、Yフィルタ52が周期的に繰り返し配置されていることである。図9は、複数の画素領域群が設定されている状態を説明する説明図である。図9において、二次元センサ60-2及び光学フィルタ部50-2が平面で示されている。受光面64には、9つの画素領域群65a~65iが配置されている。以下、画素領域群の総称を画素領域群65と記載する。
 図8及び図9を参照して、2次元センサ60-2の受光面64は、長方形状を有する。受光面64の長手方向が第1の方向D1とし、受光面64の長手方向と直交する方向が第2の方向D2とする。図7に示すように、表示画面11には、9個の測定箇所13a~13iがあるので、受光面64には、9個の画素領域群65a~65iが設定されている。
 光学フィルタ部50-2は、5個のフィルタ群55a~55eを備える。以下、フィルタ群の総称をフィルタ群55と記載する。これらのフィルタ群55は、それぞれ、一組のXフィルタ51、Yフィルタ52、Zフィルタ53を備える。これらのフィルタは、長尺形状を有しており、Xフィルタ51、Zフィルタ53、Yフィルタ52の順番で、第1の方向D1に沿って、これらのフィルタが周期的に繰り返し配置されている。隣り合うフィルタの間には、所定の間隔が設けられている。透明基板54の一方の面のうち、Xフィルタ51、Yフィルタ52、Zフィルタ53が配置されている箇所以外は、遮光膜56で覆われている。遮光膜56は、例えば、クロム膜である。
 隣り合うフィルタ間を通過した出射光Lが、画素領域群65(画素領域61,62,63)に入射すれば、測定精度が低下する。変形例1によれば、隣り合う前記フィルタ間を覆う遮光膜56(遮光部の一例)があるので、隣り合うフィルタ間を通過した出射光Lが、画素領域群65(画素領域61,62,63)に入射することを防止できる。
 フィルタ群55aのYフィルタ52、フィルタ群55bのXフィルタ51、及び、フィルタ群55bのZフィルタ53の組み合わせと対向して、画素領域群65a~65cが配置されている。これらは、第2の方向D2に沿って配置されている。
 フィルタ群55cのXフィルタ51、Zフィルタ53、及び、Yフィルタ52の組み合わせと対向して、画素領域群65d~65fが配置されている。これらは、第2の方向D2に沿って配置されている。
 フィルタ群55dのZフィルタ53、フィルタ群55dのYフィルタ52、及び、フィルタ群55eのXフィルタ51の組み合わせと対向して、画素領域群65g~65iが配置されている。これらは、第2の方向D2に沿って配置されている。
 図7及び図9を参照して、9個の測定箇所13a~13iと9個の画素領域群65a~65iとにおいて、測定箇所13と画素領域群65とは、1対1対応をしている。すなわち、測定箇所13aの測色には、画素領域群65aが用いられ、測定箇所13bの測色には、画素領域群65bが用いられ、・・・、測定箇所13hの測色には、画素領域群65hが用いられ、測定箇所13iの測色には、画素領域群65iが用いられる。
 光学フィルタ部50-2の作製方法の一例を説明する。図10は、遮光膜56のパターニングに用いられるフォトマスク41の一例の平面図である。フォトマスク41において、透明領域42が白で示され、非透明領域43がハッチングで示される。透明領域42は、図9に示す遮光膜56がパターニングされる領域と対応する。非透明領域43は、図9に示すXフィルタ51、Yフィルタ52、Zフィルタ53がパターニングされる領域と対応する。
 図11は、Xフィルタ51のパターニングに用いられるフォトマスク44の一例の平面図である。フォトマスク44において、透明領域45が白で示され、非透明領域46がハッチングで示される。透明領域45は、Xフィルタ51がパターニングされる領域と対応する。非透明領域46は、遮光膜56、Yフィルタ52、Zフィルタ53がパターニングされる領域と対応する。
 図12A~図12Hは、光学フィルタ部50-2の作製工程を示す工程図である。透明基板54、Xフィルタ51、Yフィルタ52、Zフィルタ53、遮光膜56、及び、レジスト101~104は、断面で示されている。図12Aを参照して、透明基板54の一方の面の全面に、レジスト101が塗布される。図10に示すフォトマスク41を用いて、レジスト101が選択的に露光される。レジスト101のうち、露光された部分が除去された状態が、図12Aである。レジスト101が除去されている領域が、遮光膜56の形成領域となる。図12Aに示す状態で、透明基板54の一方の面の全面に、遮光膜56となる薄膜が形成される。この薄膜は、例えば、クロム膜である。
 透明基板54が洗浄されることにより、レジスト101が除去される。これにより、図12Bに示すように、透明基板54の一方の面に、遮光膜56がパターニングされる。
 図12Cを参照して、図12Bに示す状態で、透明基板54の一方の面の全面に、レジスト102が塗布される。図11に示すフォトマスク44を用いて、レジスト102が選択的に露光される。レジスト102のうち、露光された部分が除去された状態が、図12Cである。レジスト102が除去されている領域が、Xフィルタ51の形成領域となる。図12Cに示す状態で、透明基板54の一方の面の全面に、Xフィルタ51となる薄膜が形成される。
 透明基板54が洗浄されることにより、レジスト102が除去される。これにより、図12Dに示すように、透明基板54の一方の面に、Xフィルタ51がパターニングされる。
 図12Eを参照して、図12Dに示す状態で、透明基板54の一方の面の全面に、レジスト103が塗布される。Yフィルタ52のパターニングに用いられるフォトマスク(不図示)を用いて、レジスト103が選択的に露光される。レジスト103のうち、露光された部分が除去された状態が、図12Eである。レジスト103が除去されている領域が、Yフィルタ52の形成領域となる。図12Eに示す状態で、透明基板54の一方の面の全面に、Yフィルタ52となる薄膜が形成される。
 透明基板54が洗浄されることにより、レジスト103が除去される。これにより、図12Fに示すように、透明基板54の一方の面に、Yフィルタ52がパターニングされる。
 図12Gを参照して、図12Fに示す状態で、透明基板54の一方の面の全面に、レジスト104が塗布される。Zフィルタ53のパターニングに用いられるフォトマスク(不図示)を用いて、レジスト104が選択的に露光される。レジスト104のうち、露光された部分が除去された状態が、図12Gである。レジスト104が除去されている領域が、Zフィルタ53の形成領域となる。図12Gに示す状態で、透明基板54の一方の面の全面に、Zフィルタ53となる薄膜が形成される。
 透明基板54が洗浄されることにより、レジスト104が除去される。これにより、図12Hに示すように、透明基板54の一方の面に、Zフィルタ53がパターニングされる。以上により、光学フィルタ部50-2が完成される。なお、図3に示す光学フィルタ部50-1は、光学フィルタ部50-2と同様の方法で作成することができる。但し、光学フィルタ部50-1は、遮光膜56を備えないので、遮光膜56のパターニング工程は、省略される。
 変形例1は、測定箇所13の数が異なる場合に対応することができる。これについて説明する。変形例1は、表示画面11が有する測定箇所13の数に応じて、複数の画素領域群65を選択することができる。例えば、発光スペクトルが画面全体で均一である表示装置10では、測定箇所13が1つでよい。図13は、1つの測定箇所13を有する表示画面11を備える表示装置10の一例の平面図である。測定箇所13eが、表示画面11の中央に位置する。一方、図7で説明したように、発光スペクトルが画面全体で均一でない表示装置10では、測定箇所13が複数となる。
 図14は、1つの画素領域群65eが設定されている状態を説明する説明図である。図14において、二次元センサ60-2及び光学フィルタ部50-2が平面で示されている。図21は、測定箇所13の数が異なる場合について、変形例1の動作を説明するフローチャートである。測定個所の数として、1つ又は9つが選択される例で説明する。図1及び図14を参照して、表示装置10の測定箇所13が1つのとき、測定者は、入力部73(第1の入力部の一例)を操作して、測定箇所13が1つである命令を入力する(図21のステップS1)。これにより、設定部711は、測定箇所13が1つと判断し(図21のステップS2でYes)、設定部711は、図13に示す測定箇所13eと1対1対応する画素領域群65eを二次元センサ50-2の受光面64に設定する(図21のステップS3)。
 測定者が、入力部73を用いて測定命令を入力したとき、第1の演算部710は、測定箇所13eと一対一に対応する画素領域群65eを構成する画素領域61,62,63にそれぞれ含まれる画素から出力された受光信号を用いて、色に関する指標(例えば、色度)を演算する処理(第1の処理)をする(図21のステップS4)。
 図1及び図9を参照して、表示装置10の測定箇所13が9つのとき、測定者は、入力部73を操作して、測定箇所13が9つである命令を入力する(図21のステップS1)。これにより、設定部711は、測定箇所13が9つと判断し(図21のステップS2でNo)、設定部711は、は、図7に示す測定箇所13a~13iと1対1対応する画素領域群65a~65iを二次元センサ50-2の受光面64に設定する(図21のステップS5)。
 測定者が、入力部73を用いて測定命令を入力したとき、第1の演算部710は、測定箇所13a~13iのそれぞれについて、上記第1の処理をする(図21のステップS6)。
 以上説明したように、入力部73には、複数の画素領域群65a~65iの中から1以上の画素領域群65の選択が入力される。制御処理部71は、入力部73を用いて選択された1以上の画素領域群65と1対1対応する測定箇所13のそれぞれについて、上記第1の処理をする。
 変形例1は、画面アスペクト比が異なる場合に対応することができる。これについて説明する。複数の測定箇所13によって、画面全体をカバーできるように、複数の測定箇所13が配置されなければならない。変形例1は、画面アスペクト比に応じて、複数の測定箇所13の位置を異ならせる。
 図9に示す画素領域群65a~65iの配置は、画面アスペクト比が、例えば、4:3を有する表示装置10に対応する。図9に示す画素領域群65a~65iの配置では、画面アスペクト比が、例えば、16:9を有する表示装置10のとき、表示画面11の全体をカバーできない。
 図15は、図9に示す複数の画素領域群65と異なる位置に複数の画素領域群65が設定されている状態を説明する説明図である。図15において、二次元センサ60-2及び光学フィルタ部50-2が平面で示されている。図15に示す画素領域群65a~65iの配置は、画面アスペクト比が、16:9を有する表示装置10に対応する。
 図15に示す画素領域群65a~65iが、図9に示す画素領域群65a~65iと異なる点は、画素領域群65a~65c、及び、画素領域群65g~65iの位置である。詳しく説明すると、図15において、フィルタ群55aのZフィルタ53、フィルタ群55aのYフィルタ52、及び、フィルタ群55bのXフィルタ51の組み合わせと対向して、画素領域群65a~65cが配置されている。フィルタ群55dのYフィルタ52、フィルタ群55eのXフィルタ51、及び、フィルタ群55eのZフィルタ53の組み合わせと対向して、画素領域群65g~65iが配置されている。
 複数の画素領域群65の位置を示す位置情報が、画面アスペクト比(測定対象物のアスペクト比)に応じて定められている。図1に示す記憶部77(第2の記憶部の一例)は、位置情報と画面アスペクト比とを対応づけて予め記憶する。
 図22は、画面アスペクト比が異なる場合について、変形例1の動作を説明するフローチャートである。画面アスペクト比として、16:9又は4:3が選択される例で説明する。画面アスペクト比が16:9のとき、測定者は、入力部73(第2の入力部の一例)を操作して、画面アスペクト比が16:9を示す命令を入力する(図22のステップS11)。これにより、設定部711は、画面アスペクト比が16:9と判断し(図22のステップS12でYes)、設定部711は、図15に示す画素領域群65a~65iを二次元センサ50-2の受光面64に設定する(図22のステップS13)。一方、画面アスペクト比が4:3のとき、測定者は、入力部73(第2の入力部の一例)を操作して、画面アスペクト比が4:3を示す命令を入力する(図22のステップS11)。これにより、設定部711は、画面アスペクト比が4:3と判断し(図22のステップS12でNo)、設定部711は、図9に示す画素領域群65a~65iを二次元センサ50-2の受光面64に設定する(図22のステップS14)。
 測定者が、入力部73を用いて測定命令を入力したとき、第1の演算部710は、測定箇所13a~13iのそれぞれについて、上記第1の処理をする(図22のステップS15)。すなわち、第1の演算部710は、入力部73を用いて入力された画面アスペクト比に対応付けられた位置情報で示す位置に設定された画素領域群65a~65iを用いて、測定箇所13a~13iのそれぞれについて、上記第1の処理をする。
 実施形態の変形例2を説明する。変形例2において、測定者やサービスマン(以下、測定者等)が複数の画素領域群65の位置を設定することができる。図1Cは、実施形態の変形例2に係る測色計20の構成を示すブロック図である。図1Cと図1Aとの違いは、制御処理部71を構成する機能ブロックである。変形例2は、第1の演算部710に加えて、表示制御部712及び設定部713を備える。表示制御部712及び設定部713については後で説明する。図1及び図9を参照して、複数の画素領域群65のうち、レンズ30の撮像範囲内に配置されていない画素領域群65が存在すれば、その画素領域群65と1対1対応する測定箇所13の測色ができない。そこで、測色計20の製造において、複数の画素領域群65の全てが、レンズ30(光学系の一例)の撮像範囲内に入るように、複数の画素領域群65のそれぞれの位置が、測色計20に予め設定される。
 しかし、測色計20の使用が開始された後、何らかの原因で、レンズ30の光軸L0がずれたとき、レンズ30の撮像範囲内に配置されていない画素領域群65が存在するおそれがある。そこで、変形例2は、測定者等が、複数の画素領域群65のそれぞれの位置を設定できるようにする。
 図16は、変形例2において使用される合成画像111の一例を説明する説明図である。合成画像111は、画像112と画像113とが合成された画像である。画像112は、二次元センサ60-2の平面像と光学フィルタ部50-2の平面像とを重ねた画像である。光学フィルタ部50-2の平面像が上であり、二次元センサ60-2の平面像が下である。画像112は、光学フィルタ部50-2の像を含む画像の一例である。画像113は、レンズ30の撮像範囲(一点鎖線で示される範囲)を示す画像である。
 図1及び図16を参照して、レンズ30の光軸L0が公知の測定方法によって測定される。制御処理部71は、測定された光軸L0について、画像112上の位置を特定する。光軸L0は、レンズ30の撮像範囲の中央、すなわち、画像113の中央を通る。表示制御部712は、画像112上の光軸L0の位置に画像113の中央が位置するように、画像112と画像113とを合成して、合成画像111を生成する。
 表示制御部712は、合成画像111を表示部75に表示させる。測定者等は、入力部73(第3の入力部の一例)を用いて、複数の画素領域群65a~65iのそれぞれの位置を、合成画像111上に示す。これは、合成画像111を用いて、複数の画素領域群65a~65iのそれぞれについて、受光面64上の位置が入力されることを意味する。図17は、複数の画素領域群65a~65iのそれぞれの位置が示された、合成画像111の一例を説明する説明図である。
 測定者等は、入力部73を用いて、複数の画素領域65a~65iのそれぞれの位置を確定する入力をする。これにより、設定部713は、入力部73を用いて入力された上記位置に複数の画素領域群65a~65iを設定し、そして、上記位置を示す位置情報を記憶部77に記憶させる。設定部713は、測色計20が使用されるとき、記憶部77から上記位置情報を読み出して、この位置情報を従って、受光面64に、複数の画素領域群65a~65iを設定する。
 実施形態の変形例3を説明する。以下、Xフィルタ51、Yフィルタ52、Zフィルタ53の総称をフィルタ5と記載する。画素領域61,62,63の総称を画素領域6と記載する。図1を参照して、隣り合うフィルタ5(例えば、Xフィルタ51、Yフィルタ52)において、一方のフィルタ5(Xフィルタ51)に入射した出射光Lが、他方のフィルタ5(Yフィルタ52)と対向する画素領域6(画素領域62)に入射する現象が発生すれば、測色計20の測定精度が低下する。なぜならば、この画素領域6には、一方のフィルタ5に入射した出射光Lと、他方のフィルタ5に入射した出射光Lとが入射するからである。そこで、変形例3は、隣り合うフィルタ5の間隔を所定値以上にして、上記現象を防止することを特徴とする。
 図18は、変形例3の特徴を説明する説明図である。図18は、図9に示す二次元センサ60-2に光学フィルタ部50-2が貼り付けられた状態において、これらの一部の断面が示されている。二次元センサ60-2の受光面64の全面に、受光面64を保護するための透明保護膜66(パッシベーション膜)が形成されている。隣り合うフィルタ5として、Xフィルタ51、Yフィルタ52が示されている。隣り合うフィルタ5は、所定の間隔が設けられている。隣り合うフィルタ5間は、遮光膜56で覆われている。
 Minは、上記所定の間隔の最小値とする。上記所定の間隔は、隣り合う画素領域6において、一方の画素領域6と対向するフィルタ5に入射した出射光Lが、他方の画素領域6に入射しない条件を満たす。具体的に説明すると、所定の間隔は、Xフィルタ51に入射した出射光Lが、画素領域62に入射しない条件を満たし、かつ、Yフィルタ52に入射した出射光Lが、画素領域61に入射しない条件を満たす。
 上記所定の間隔の最小値を、式(3)で示すMinとする。
   Min=k×d/Fno   (3)
 ここで、dは、対向するフィルタ5と画素領域6との距離を示し、Fnoは、レンズ30(光学系の一例)のF値を示し、kは、比例定数を示す。
 比例定数の大きさは、透明保護膜66の屈折率に依存する。例えば、光学用途のポリメタクリル酸メチル樹脂の場合、比例定数は、0.3~0.35である。
 変形例3は、上記所定の間隔が、Min以上にされている。これにより、上記現象を防止することができる。
 実施形態の変形例4を説明する。変形例4は、図1に示す測色計20を備える2次元測色装置である。変形例4は、測色計20によって得られた三刺激値XYZを用いて、2次元カラー画像を補正する。図19は、変形例4に係る2次元測色装置200の構成を示すブロック図である。
 2次元測色装置200は、受光部210及び本体部220を備える。受光部210は、撮像光学系211、ビームスプリッタ212、撮像部213、光学フィルタ部50-1、及び、2次元センサ60-1を備える。
 撮像光学系211は、光学レンズを含み、表示画面11の全体からの出射光Lを集束する。
 ビームスプリッタ212(光分割部の一例)は、集束された出射光Lを2分割する。詳しく説明すると、ビームスプリッタ212は、上記集束された出射光Lの一部を透過し、残りを反射する。反射した出射光Lを光L1とし、透過した出射光Lを出射光L2とする。ビームスプリッタ212は、集束された出射光Lのうち、例えば、10パーセントを透過し、90パーセントを反射する。
 出射光L1の光路には、図1に示す光学フィルタ部50-1及び2次元センサ60-1が配置されている。出射光L1は、光学フィルタ部50-1を介して、2次元センサ60-1に入射する。2次元センサ60-1が出射光L1を受光したとき、2次元センサ60-1を構成する複数の画素(不図示)のそれぞれが受光信号を出力する。これが、受光部210が出力する信号SG1である。
 出射光L2の光路には、撮像部213が配置されている。撮像部213は、カラーフィルタ214と2次元撮像素子80とを備える。カラーフィルタ214は、R成分を透過するフィルタ、G成分を透過するフィルタ、及び、B成分を透過するフィルタにより構成される。
 2次元撮像素子80は、例えば、CMOSセンサ又はCCDセンサであり、2次元領域を測定範囲とする光学センサである。2次元撮像素子80は、カラーフィルタ214を介して出射光L2を受光することにより、表示画面11の全体の色画像(測定対象物に表示された色画像)を撮像し、撮像した色画像を示す電気信号を出力する。これが、受光部210が出力する信号SG2である。色画像とは、原色画像でもよいし、カラー画像(例えば、白色画像)でもよい。
 本体部220は、制御処理部71、入力部73、表示部75及び記憶部77を備える。図19に示す制御処理部71と図1Aに示す制御処理部71との違いは、制御処理部71を構成する機能ブロックである。図19に示す制御処理部71は、第1の演算部710に加えて、第2の演算部714、第3の演算部715及び補正部716を備える。第2の演算部714、第3の演算部715及び補正部716については後で説明する。
 2次元撮像素子80には、複数の第2の画素領域が設定される。図20は、3つの第2の画素領域81,82,83(複数の第2の画素領域の一例)が設定された2次元撮像素子80の平面図である。第2の画素領域81,82,83は、それぞれ、2次元撮像素子80の受光面84の一部である。第2の画素領域81,82,83は、それぞれ2以上の画素を含み、受光面84の異なる位置にあり、互いに重なっていない。
 第2の画素領域81は、図3に示す画素領域61と対応しており、第2の画素領域82は、画素領域62と対応しており、第2の画素領域83は、画素領域63と対応している。すなわち、複数の画素領域と複数の第2の画素領域とにおいて、画素領域と第2の画素領域とが1対1対応している。画素領域61が受光する出射光Lと第2の画素領域81が受光する出射光Lとは、表示装置10の表示画面11の同じ箇所から出射された出射光Lである。画素領域62が受光する出射光Lと第2の画素領域82が受光する出射光Lとは、表示装置10の表示画面11の同じ箇所から出射された出射光Lである。画素領域63が受光する出射光Lと第2の画素領域83が受光する出射光Lとは、表示装置10の表示画面11の同じ箇所から出射された出射光Lである。
 第2の画素領域81,82,83の受光面84上の位置は、2次元測色装置200の生産段階で予め算出され、記憶部77に記憶される。上記位置の算出について説明する。
 図3、図19及び図20を参照して、2次元センサ60-1の受光面64を構成する画素を画素P1(不図示)とする。2次元撮像素子80の受光面84を構成する画素を画素P2(不図示)とする。標準表示装置(不図示)の表示画面を構成する画素を画素P3(不図示)とする。
 標準表示装置の表示画面を構成する画素P3が、1つずつ順番に白色表示される。すなわち、1番目の画素P3が白色表示され、残りの画素P3が黒色表示され、次に、2番目の画素P3が白色表示され、残りの画素P3が黒色表示され、・・・、最後の画素P3が白色表示され、残りの画素P3が黒色表示される。このとき、各画素P3から出射された出射光L(白色光)は、ビームスプリッタ212で出射光L1と出射光L2とに分割される。出射光L1は、光学フィルタ部50-1を介して2次元センサ60-1に入射する。出射光L2は、カラーフィルタ214を介して2次元撮像素子80に入射する。
 各画素P3から出射される出射光Lは、図4に示すW255である(フルホワイト)。図4に示すように、W255は、赤色成分、緑色成分、及び、青色成分を含む。従って、画素領域61,62,63のそれぞれを構成する画素P1が、出射光L1を受光したとき、比較的大きな受光信号を出力する。
 画素領域61を構成する画素P1が比較的大きい受光信号を出力したとき、2次元撮像素子80の受光面84を構成する画素P2の中で、比較的大きい受光信号を出力した画素P2が、第2の画素領域81を構成する画素P2である。
 画素領域62を構成する画素P1が比較的大きい受光信号を出力したとき、2次元撮像素子80の受光面84を構成する画素P2の中で、比較的大きい受光信号を出力した画素P2が、第2の画素領域82を構成する画素P2である。
 画素領域63を構成する画素P1が比較的大きい受光信号を出力したとき、2次元撮像素子80の受光面84を構成する画素P2の中で、比較的大きい受光信号を出力した画素P2が、第2の画素領域83を構成する画素P2である。
 以上によって、第2の画素領域81,82,83の受光面84上の位置が算出される。
 次に、補正係数の算出について説明する。図3、図19及び図20を参照して、制御処理部71は、標準表示装置の表示画面の全体が赤色の原色に表示された状態で、三刺激値XYZのX値、及び、三刺激値RGBのR値を算出する。詳しく説明すると、制御処理部71は、画素領域61を構成する画素群{Pr(xmin,j)~Pr(xmax,j)で示される画素群}について、画素値の平均値を算出する。すなわち、制御処理部71は、その画素群を構成する全画素P1のそれぞれについて、画素P1から出力された受光信号(信号SG1)を用いて画素値を算出し、全画素P1の画素値の平均を算出する。算出された平均値は、三刺激値XYZの一つであるX値となる。また、制御処理部71は、画素領域81を構成する画素群について、画素値の平均値を算出する。すなわち、制御処理部71は、その画素群を構成する全画素P2のそれぞれについて、画素P2から出力された受光信号(信号SG2)を用いて画素値を算出し、全画素P2の画素値の平均を算出する。算出された平均値は、三刺激値RGBの一つであるR値となる。
 制御処理部71は、標準表示装置の表示画面の全体が緑色の原色に表示された状態で、三刺激値XYZのY値、及び、三刺激値RGBのG値を算出する。詳しく説明すると、制御処理部71は、画素領域62を構成する画素群{Pg(xmin,j)~Pg(xmax,j)で示される画素群}について、画素値の平均値を算出する。すなわち、制御処理部71は、その画素群を構成する全画素P1のそれぞれについて、画素P1から出力された受光信号(信号SG1)を用いて画素値を算出し、全画素P1の画素値の平均を算出する。算出された平均値は、三刺激値XYZの一つであるY値となる。また、制御処理部71は、画素領域82を構成する画素群について、画素値の平均値を算出する。すなわち、制御処理部71は、その画素群を構成する全画素P2のそれぞれについて、画素P2から出力された受光信号(信号SG2)を用いて画素値を算出し、全画素P2の画素値の平均を算出する。算出された平均値は、三刺激値RGBの一つであるG値となる。
 制御処理部71は、標準表示装置の表示画面の全体が青色の原色に表示された状態で、三刺激値XYZのZ値、及び、三刺激値RGBのB値を算出する。詳しく説明すると、制御処理部71は、画素領域63を構成する画素群{Pb(xmin,j)~Pb(xmax,j)で示される画素群}について、画素値の平均値を算出する。すなわち、制御処理部71は、その画素群を構成する全画素P1のそれぞれについて、画素P1から出力された受光信号(信号SG1)を用いて画素値を算出し、全画素P1の画素値の平均を算出する。算出された平均値は、三刺激値XYZの一つであるZ値となる。また、制御処理部71は、画素領域83を構成する画素群について、画素値の平均値を算出する。すなわち、制御処理部71は、その画素群を構成する全画素P2のそれぞれについて、画素P2から出力された受光信号(信号SG2)を用いて画素値を算出し、全画素P2の画素値の平均を算出する。算出された平均値は、三刺激値RGBの一つであるB値となる。
 以上説明したように、制御処理部71に備えられる第1の演算部710は、複数の画素領域61,62,63にそれぞれ含まれる画素から出力された受光信号を用いて、三刺激値XYZを演算する(画素領域61のX値、画素領域62のY値、画素領域63のZ値を演算する)。また、制御処理部71に備えられる第3の演算部715は、複数の第2の画素領域81,82,83にそれぞれ含まれる画素から出力された受光信号を用いて、三刺激値RGBを演算する(画素領域81のR値、画素領域82のG値、画素領域83のB値を演算する)。
 制御処理部71は、算出した三刺激値RGBを、所定の変換式(公知の変換式)を用いて、三刺激値XYZに変換する。このときのX値をX’値とし、Y値をY’値とし、Z値をZ’値とする。
 制御処理部71は、X’値、Y’値、Z’値と、上記算出によって得られたX値、Y値、Z値とを用いて、以下の補正係数ΔX、ΔY、ΔZを算出する。
   ΔX=X/X’
   ΔY=Y/Y’
   ΔZ=Z/Z’
 以上説明したように、制御処理部71は、第1の演算部710で演算された三刺激値と、第3の演算部715で演算された三刺激値と、を用いて、補正係数を算出する。
 2次元測色装置200が、表示装置10の表示画面11に含まれる複数の測定箇所13a~13i(図7)のそれぞれについて、測色するとき、補正部716は、補正係数ΔX、ΔY、ΔZを用いて、三刺激値XYZ(色に関する指標の一例)を補正する。
 測定箇所13aを例にして説明する。第2の演算部714は、2次元撮像素子80の受光面84を構成する全画素P2の中で、測定箇所13aから出射された出射光L(出射光L2)を受光した画素群を構成する画素P2のそれぞれについて、三刺激値RGBを算出し、算出した三刺激値RGBを、所定の変換式(公知の変換式)を用いて、三刺激値XYZに変換する。このときのX値をX’値とし、Y値をY’値とし、Z値をZ’値とする。
 補正部716は、X’値、Y’値、Z’値と、補正係数ΔX、ΔY、ΔZとを用いて、上記画素群を構成する画素P2のそれぞれについて、三刺激値XYZを補正する。制御処理部71は、補正した三刺激値XYZの平均値を測定箇所13aの三刺激値XYZとする。制御処理部71は、測定箇所13b~13iについても、測定箇所13a同様にして、三刺激値XYZを算出する。
 以上説明したように、補正部716は、補正係数を用いて、第2の演算部714で演算された複数の測定箇所13a~13iのそれぞれの三刺激値を補正する。
 実施形態に係る測色計20(図1)を用いて求められた三刺激値は、2次元測色装置200(図19)に備えられる撮像部213と第2の演算部714とを用いて求められた三刺激値よりも測定精度が高いことを前提とする。補正係数は、2次元測色装置200に備えられる光学フィルタ部50-1、2次元センサ60-1、及び、制御処理部71を用いて求められた三刺激値を用いて算出される。すなわち、補正係数は、測色計20を用いて求められた三刺激値を用いて算出される。2次元測色装置200は、撮像部213と第2の演算部714とを用いて、複数の測定箇所13a~13iのそれぞれの三刺激値を求め、そして、これらの三刺激値を、上記補正係数を用いて補正する。従って、複数の測定箇所13a~13iのそれぞれについて、三刺激値の精度を向上させることができる。
(実施形態の纏め)
 実施形態の第1の局面に係る測色計は、透明基板と、測定対象物から出射された出射光を透過し、波長に対する分光透過率の特性が互いに異なり、前記透明基板の異なる位置にパターニングされた複数のフィルタと、を有する光学フィルタ部と、2次元的に配列された複数の画素を含む受光面を有しており、前記複数の画素のうち、前記出射光を受光した画素から受光信号が出力される2次元センサと、を備え、前記受光面の一部であり、2以上の画素を含む画素領域が、前記受光面の異なる位置に、複数設定されており、前記複数の画素領域のそれぞれは、前記複数のフィルタのそれぞれと対向しており、前記複数の画素領域のそれぞれには、対向する前記フィルタを透過した前記出射光が入射され、さらに、前記複数の画素領域にそれぞれ含まれる画素から出力された前記受光信号を用いて、色に関する指標を演算する第1の演算部を備える。
 複数のフィルタは、透明基板の異なる位置にパターニングされているので、複数のフィルタどうしは、パターニングによって分離されている。これにより、フィルタとフィルタとの間には、ダイシングよるデッドスペースが存在しない。従って、実施形態の第1の局面に係る測色計によれば、測定に使用する光の利用効率を向上させることができる。
 上記構成において、前記複数の画素領域にそれぞれ含まれる画素のなかで、前記指標の演算に使用する各画素群の画素位置を記憶する第1の記憶部をさらに含み、前記各画素群の画素位置は、前記複数のフィルタのそれぞれと前記受光面との位置関係に基づき予め求められて前記第1の記憶部に記憶されている。
 各画素群の画素位置は、それぞれ、複数のフィルタのそれぞれと受光面との位置関係に基づき予め求められて第1の記憶部に記憶されている。したがって、この構成によれば、2次元センサを搭載しつつ、高精度に測定することが可能になる。
 各画素群の画素位置は、例えば、受光面のうち、複数のフィルタと対向する箇所の位置である。詳しく説明すると、複数のフィルタが、例えば、Xフィルタ、Yフィルタ、Zフィルタとする。Xフィルタと対向する画素領域が第1の画素領域、Yフィルタと対向する画素領域が第2の画素領域、Zフィルタと対向する画素領域が第3の画素領域とする。第1の画素領域を構成する画素群の位置、第2の画素領域を構成する画素群の位置、第3の画素領域を構成する画素群の位置が、各画素群の画素位置である。画素群の画素位置は、例えば、画素群が規定する領域の四隅にある画素の位置で特定してもよいし、画素群が規定する領域の中央にある画素の位置で特定してもよい。
 上記構成において、前記複数の画素領域を画素領域群とし、複数の前記画素領域群を前記受光面の異なる位置に設定する設定部をさらに備え、前記測定対象物は、複数の測定箇所を有しており、前記複数の測定箇所と前記複数の画素領域群とにおいて、前記測定箇所と前記画素領域群とは、1対1対応をしており、前記第1の演算部は、前記測定箇所と1対1対応する前記画素領域群を構成する前記複数の画素領域にそれぞれ含まれる画素から出力された前記受光信号を用いて、前記指標を演算する処理を第1の処理とし、前記複数の測定箇所のそれぞれについて、前記第1の処理をする。
 この構成によれば、測定対象物が複数の測定箇所を有する場合、複数の測定箇所のそれぞれについて、色に関する指標を求めることができる。
 上記構成において、前記複数の画素領域群の中から1以上の前記画素領域群の選択が入力される第1の入力部をさらに備え、前記第1の演算部は、前記第1の入力部を用いて選択された1以上の前記画素領域群と1対1対応する前記測定箇所のそれぞれについて、前記第1の処理をする。
 この構成によれば、1つの測定箇所を有する測定対象物と複数の測定箇所を有する測定対象物のいずれにも対応することができる。
 上記構成において、前記複数の画素領域群の位置を示す位置情報が、前記測定対象物のアスペクト比に応じて定められており、前記位置情報と前記アスペクト比とを対応づけて予め記憶する第2の記憶部と、前記アスペクト比が入力される第2の入力部と、をさらに備え、前記第1の演算部は、前記第2の入力部を用いて入力された前記アスペクト比に対応付けられた前記位置情報で示す位置に設定された前記複数の画素領域群を用いて、前記複数の測定箇所のそれぞれについて、前記第1の処理をする。
 この構成によれば、測定対象物のアスペクト比(画面アスペクト比)が異なる場合に対応することができる。
 上記構成において、前記測定対象物から出射された前記出射光を前記光学フィルタ部に導く光学系と、前記光学フィルタ部の像を含む画像と前記光学系の撮像範囲を示す画像とを合成した合成画像を生成し、前記合成画像を表示部に表示させる表示制御部と、前記合成画像を用いて、前記複数の画素領域群のそれぞれについて、前記受光面上の位置を入力ができる第3の入力部と、をさらに備え、前記設定部は、前記第3の入力部を用いて入力された位置に前記複数の画素領域群を設定する。
 複数の画素領域群のうち、光学系の撮像範囲内に配置されていない画素領域群が存在すれば、この画素領域群と1対1対応する測定箇所の測色ができない。そこで、測色計の製造において、複数の画素領域群の全てが、光学系の撮像範囲内に入るように、複数の画素領域群のそれぞれの位置が、測色計に予め設定される。なお、光学系の撮像範囲は、光学系の視野範囲、又は、測色計の撮像範囲と言い換えることができる。
 しかし、測色計の使用が開始された後、何らかの原因で、光学系の光軸がずれたとき、光学系の撮像範囲内に配置されていない画素領域群が存在するおそれがある。そこで、この構成は、測定者やサービスマンが、複数の画素領域群のそれぞれの位置を設定できるようにする。
 上記構成において、前記測定対象物から出射された前記出射光を前記光学フィルタ部に導く光学系と、前記複数のフィルタは、所定の間隔を設けて、前記透明基板の異なる位置にパターニングされており、前記複数の画素領域のうち隣り合う前記画素領域において、一方の前記画素領域と対向する前記フィルタに入射した前記出射光が、他方の前記画素領域に入射しない、前記所定の間隔の最小値を下記式で示すMinとし、前記所定の間隔は、前記Min以上である。
  Min=k×d/Fno
  (ここで、dは、対向する前記フィルタと前記画素領域との距離を示し、Fnoは、前記光学系のF値を示し、kは、比例定数を示す。)
 隣り合うフィルタにおいて、一方のフィルタに入射した出射光が、他方のフィルタと対向する画素領域に入射する現象が発生すれば、測色計の測定精度が低下する。なぜならば、この画素領域には、一方のフィルタに入射した出射光と、他方のフィルタに入射した出射光とが入射するからである。この構成によれば、上記現象を防止することができる。
 上記構成において、前記透明基板は、隣り合う前記フィルタ間を覆う遮光部を有する。
 隣り合うフィルタ間を通過した出射光が画素領域に入射すれば、測色計の測定精度が低下する。この構成によれば、隣り合うフィルタ間を覆う遮光部があるので、隣り合うフィルタ間を通過した出射光が画素領域に入射することを防止できる。
 実施形態の第2の局面に係る2次元測色装置は、上記測色計を備える2次元測色装置であって、前記出射光を2分割する光分割部と、前記2分割された一方の光の光路に配置された前記測色計と、前記2分割された他方の光の光路に配置された撮像部と、を備え、前記第1の演算部は、前記複数の画素領域にそれぞれ含まれる画素から出力された前記受光信号を用いて、前記指標として三刺激値を演算し、前記撮像部は、2次元撮像素子を含み、前記測定対象物に表示された色画像を撮像し、前記2次元測色装置は、さらに、前記撮像部から出力された前記色画像を示す信号を用いて、前記測定対象物に含まれる複数の測定箇所のそれぞれの三刺激値を演算する第2の演算部と、前記第1の演算部で演算された三刺激値を用いて算出された補正係数を用いて、前記第2の演算部で演算された前記複数の測定箇所のそれぞれの三刺激値を補正する補正部と、を備える。
 実施形態の第2の局面に係る2次元測色装置は、実施形態の第1の局面に係る測色計を備えるので、実施形態の第1の局面に係る測色計と同様の作用効果を有する。
 実施形態の第1の局面に係る測色計を用いて求められた三刺激値は、撮像部と第2の演算部とを用いて求められた三刺激値よりも測定精度が高いことを前提とする。補正係数は、実施形態の第1の局面に係る測色計を用いて求められた三刺激値を用いて算出される。実施形態の第2の局面に係る2次元測色装置は、撮像部と第2の演算部とを用いて、複数の測定箇所のそれぞれの三刺激値を求め、そして、これらの三刺激値を、上記補正係数を用いて補正する。従って、複数の測定箇所のそれぞれについて、三刺激値の精度を向上させることができる。
 上記構成において、前記2次元撮像素子は、前記複数の画素領域と1対1対応する複数の第2の画素領域を含み、1対1対応する前記画素領域と前記第2の画素領域とにおいて、前記画素領域が受光する前記出射光と前記第2の画素領域が受光する前記出射光とは、前記測定対象物の同じ箇所から出射された前記出射光であり、前記2次元測色装置は、さらに、前記複数の第2の画素領域にそれぞれ含まれる画素から出力された受光信号を用いて、三刺激値を演算する第3の演算部を備え、前記補正部は、前記第1の演算部で演算された三刺激値と、前記第3の演算部で演算された三刺激値とを用いて算出された前記補正係数を用いて、前記第2の演算部で演算された前記複数の測定箇所のそれぞれの三刺激値を補正する。
 この構成は、補正係数の求め方の一例である。
 本発明の実施形態が詳細に図示され、かつ、説明されたが、それは単なる図例及び実例であって限定ではない。本発明の範囲は、添付されたクレームの文言によって解釈されるべきである。
 2016年11月11日に提出された日本国特許出願特願2016-220503は、その全体の開示が、その全体において参照によりここに組み込まれる。
 本発明によれば、測色計及び2次元測色装置を提供することができる。

Claims (10)

  1.  透明基板と、測定対象物から出射された出射光を透過し、波長に対する分光透過率の特性が互いに異なり、前記透明基板の異なる位置にパターニングされた複数のフィルタと、を有する光学フィルタ部と、
     2次元的に配列された複数の画素を含む受光面を有しており、前記複数の画素のうち、前記出射光を受光した画素から受光信号が出力される2次元センサと、を備え、
     前記受光面の一部であり、2以上の画素を含む画素領域が、前記受光面の異なる位置に、複数設定されており、
     前記複数の画素領域のそれぞれは、前記複数のフィルタのそれぞれと対向しており、
     前記複数の画素領域のそれぞれには、対向する前記フィルタを透過した前記出射光が入射され、
     さらに、
     前記複数の画素領域にそれぞれ含まれる画素から出力された前記受光信号を用いて、色に関する指標を演算する第1の演算部を備える測色計。
  2.  前記複数の画素領域にそれぞれ含まれる画素のなかで、前記指標の演算に使用する各画素群の画素位置を記憶する第1の記憶部をさらに含み、
     前記各画素群の画素位置は、前記複数のフィルタのそれぞれと前記受光面との位置関係に基づき予め求められて前記第1の記憶部に記憶されている、請求項1に記載の測色計。
  3.  前記複数の画素領域を画素領域群とし、複数の前記画素領域群を前記受光面の異なる位置に設定する設定部をさらに備え、
     前記測定対象物は、複数の測定箇所を有しており、
     前記複数の測定箇所と前記複数の画素領域群とにおいて、前記測定箇所と前記画素領域群とは、1対1対応をしており、
     前記第1の演算部は、前記測定箇所と1対1対応する前記画素領域群を構成する前記複数の画素領域にそれぞれ含まれる画素から出力された前記受光信号を用いて、前記指標を演算する処理を第1の処理とし、前記複数の測定箇所のそれぞれについて、前記第1の処理をする、請求項1又は2に記載の測色計。
  4.  前記複数の画素領域群の中から1以上の前記画素領域群の選択が入力される第1の入力部をさらに備え、
     前記第1の演算部は、前記第1の入力部を用いて選択された1以上の前記画素領域群と1対1対応する前記測定箇所のそれぞれについて、前記第1の処理をする、請求項3に記載の測色計。
  5.  前記複数の画素領域群の位置を示す位置情報が、前記測定対象物のアスペクト比に応じて定められており、前記位置情報と前記アスペクト比とを対応づけて予め記憶する第2の記憶部と、
     前記アスペクト比が入力される第2の入力部と、をさらに備え、
     前記第1の演算部は、前記第2の入力部を用いて入力された前記アスペクト比に対応付けられた前記位置情報で示す位置に設定された前記複数の画素領域群を用いて、前記複数の測定箇所のそれぞれについて、前記第1の処理をする、請求項3又は4に記載の測色計。
  6.  前記測定対象物から出射された前記出射光を前記光学フィルタ部に導く光学系と、
     前記光学フィルタ部の像を含む画像と前記光学系の撮像範囲を示す画像とを合成した合成画像を生成し、前記合成画像を表示部に表示させる表示制御部と、
     前記合成画像を用いて、前記複数の画素領域群のそれぞれについて、前記受光面上の位置を入力ができる第3の入力部と、をさらに備え、
     前記設定部は、前記第3の入力部を用いて入力された位置に前記複数の画素領域群を設定する、請求項3~5のいずれか一項に記載の測色計。
  7.  前記測定対象物から出射された前記出射光を前記光学フィルタ部に導く光学系と、
     前記複数のフィルタは、所定の間隔を設けて、前記透明基板の異なる位置にパターニングされており、
     前記複数の画素領域のうち隣り合う前記画素領域において、一方の前記画素領域と対向する前記フィルタに入射した前記出射光が、他方の前記画素領域に入射しない、前記所定の間隔の最小値を下記式で示すMinとし、
     前記所定の間隔は、前記Min以上である、請求項1~5のいずれか一項に記載の測色計。
      Min=k×d/Fno
      (ここで、dは、対向する前記フィルタと前記画素領域との距離を示し、Fnoは、前記光学系のF値を示し、kは、比例定数を示す。)
  8.  前記透明基板は、隣り合う前記フィルタ間を覆う遮光部を有する、請求項1~7のいずれか一項に記載の測色計。
  9.  請求項1又は2に記載の測色計を備える2次元測色装置であって、
     前記出射光を2分割する光分割部と、
     前記2分割された一方の光の光路に配置された前記測色計と、
     前記2分割された他方の光の光路に配置された撮像部と、を備え、
     前記第1の演算部は、前記複数の画素領域にそれぞれ含まれる画素から出力された前記受光信号を用いて、前記指標として三刺激値を演算し、
     前記撮像部は、2次元撮像素子を含み、前記測定対象物に表示された色画像を撮像し、
     前記2次元測色装置は、さらに、
     前記撮像部から出力された前記色画像を示す信号を用いて、前記測定対象物に含まれる複数の測定箇所のそれぞれの三刺激値を演算する第2の演算部と、
     前記第1の演算部で演算された三刺激値を用いて算出された補正係数を用いて、前記第2の演算部で演算された前記複数の測定箇所のそれぞれの三刺激値を補正する補正部と、を備える2次元測色装置。
  10.  前記2次元撮像素子は、前記複数の画素領域と1対1対応する複数の第2の画素領域を含み、
     1対1対応する前記画素領域と前記第2の画素領域とにおいて、前記画素領域が受光する前記出射光と前記第2の画素領域が受光する前記出射光とは、前記測定対象物の同じ箇所から出射された前記出射光であり、
     前記2次元測色装置は、さらに、前記複数の第2の画素領域にそれぞれ含まれる画素から出力された受光信号を用いて、三刺激値を演算する第3の演算部を備え、
     前記補正部は、前記第1の演算部で演算された三刺激値と、前記第3の演算部で演算された三刺激値とを用いて算出された前記補正係数を用いて、前記第2の演算部で演算された前記複数の測定箇所のそれぞれの三刺激値を補正する、請求項9に記載の2次元測色装置。
PCT/JP2017/040398 2016-11-11 2017-11-09 測色計及び2次元測色装置 WO2018088466A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018550247A JPWO2018088466A1 (ja) 2016-11-11 2017-11-09 測色計及び2次元測色装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016220503 2016-11-11
JP2016-220503 2016-11-11

Publications (1)

Publication Number Publication Date
WO2018088466A1 true WO2018088466A1 (ja) 2018-05-17

Family

ID=62110459

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/040398 WO2018088466A1 (ja) 2016-11-11 2017-11-09 測色計及び2次元測色装置

Country Status (2)

Country Link
JP (1) JPWO2018088466A1 (ja)
WO (1) WO2018088466A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468790A (ja) * 1990-07-04 1992-03-04 Nok Corp 固体光検出装置
JPH04276526A (ja) * 1990-12-17 1992-10-01 Hewlett Packard Co <Hp> 色測定装置及び色較正システム
JPH09210793A (ja) * 1996-02-02 1997-08-15 Hamamatsu Photonics Kk カラーイメージセンサ
JP2000209598A (ja) * 1999-01-20 2000-07-28 Nikon Corp ホワイトバランス調整機能を備える電子カメラ
JP2005341175A (ja) * 2004-05-26 2005-12-08 Olympus Corp 撮影システム
JP2010512049A (ja) * 2006-11-30 2010-04-15 イーストマン コダック カンパニー カラー画素およびパンクロマティック画素を有する画像の処理
US20130153767A1 (en) * 2011-12-19 2013-06-20 Nanohmics, Inc. Wavelength-Selective, Integrated resonance Detector for Electromagnetic Radiation
WO2015159651A1 (ja) * 2014-04-14 2015-10-22 シャープ株式会社 光検出装置および固体撮像装置並びにそれらの製造方法
JP2016001108A (ja) * 2014-06-11 2016-01-07 コニカミノルタ株式会社 測色システム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468790A (ja) * 1990-07-04 1992-03-04 Nok Corp 固体光検出装置
JPH04276526A (ja) * 1990-12-17 1992-10-01 Hewlett Packard Co <Hp> 色測定装置及び色較正システム
JPH09210793A (ja) * 1996-02-02 1997-08-15 Hamamatsu Photonics Kk カラーイメージセンサ
JP2000209598A (ja) * 1999-01-20 2000-07-28 Nikon Corp ホワイトバランス調整機能を備える電子カメラ
JP2005341175A (ja) * 2004-05-26 2005-12-08 Olympus Corp 撮影システム
JP2010512049A (ja) * 2006-11-30 2010-04-15 イーストマン コダック カンパニー カラー画素およびパンクロマティック画素を有する画像の処理
US20130153767A1 (en) * 2011-12-19 2013-06-20 Nanohmics, Inc. Wavelength-Selective, Integrated resonance Detector for Electromagnetic Radiation
WO2015159651A1 (ja) * 2014-04-14 2015-10-22 シャープ株式会社 光検出装置および固体撮像装置並びにそれらの製造方法
JP2016001108A (ja) * 2014-06-11 2016-01-07 コニカミノルタ株式会社 測色システム

Also Published As

Publication number Publication date
JPWO2018088466A1 (ja) 2019-10-03

Similar Documents

Publication Publication Date Title
JP5103507B2 (ja) マルチディスプレイシステム
WO2011142202A1 (ja) 表示装置
KR20200003025A (ko) 디스플레이기의 색채학적 계산방법 및 색도 계산방법
JP7242678B2 (ja) 撮像装置及び撮像システム
US20060176259A1 (en) Liquid crystal display device and display control method and program for the liquid crystal display device
JP5290427B2 (ja) エリアセンサ、およびエリアセンサ付液晶表示装置
WO2018088466A1 (ja) 測色計及び2次元測色装置
US11867538B2 (en) Lower display sensor
JP6919339B2 (ja) 二次元測色装置
KR102056554B1 (ko) 이차원 측색 장치
JP4552719B2 (ja) 電気光学装置及び電子機器
CN107093613B (zh) 像素阵列、显示面板及像素结构
WO2018012478A1 (ja) 測色計
US10009605B1 (en) Multi-camera filter system for characterizing display panels
JP2009031245A (ja) 色票装置
JP2008026147A (ja) カラーフィルタの検査装置及びカラーフィルタの検査方法
KR102571243B1 (ko) 색채측정 장치 및 방법
JP2017227625A (ja) 直線偏光による計測誤差が補正された輝度色度計
CN113767326B (zh) 液晶显示装置
JP5605038B2 (ja) 画像処理装置、画像表示装置、及び画像処理方法
JP2006058760A (ja) 表示パネル装置
US20200357936A1 (en) Illuminance sensor, electronic machine and 2d image sensor
JP2009145096A (ja) 薄膜厚さ測定方法、薄膜の品質評価方法、薄膜厚さ測定装置、および薄膜の品質管理システム
US9332235B2 (en) Imaging capture apparatus having plurality of image sensors generating respective image signals based on emitted light areas
Magarill et al. Multicolor edge function computation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17868685

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018550247

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17868685

Country of ref document: EP

Kind code of ref document: A1