WO2002039076A1 - Procede de correction de sortie de capteur - Google Patents

Procede de correction de sortie de capteur Download PDF

Info

Publication number
WO2002039076A1
WO2002039076A1 PCT/JP2001/009850 JP0109850W WO0239076A1 WO 2002039076 A1 WO2002039076 A1 WO 2002039076A1 JP 0109850 W JP0109850 W JP 0109850W WO 0239076 A1 WO0239076 A1 WO 0239076A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
output
light
correcting
amount
Prior art date
Application number
PCT/JP2001/009850
Other languages
English (en)
French (fr)
Inventor
Atsushi Wada
Kouji Egawa
Original Assignee
Arkray, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Arkray, Inc. filed Critical Arkray, Inc.
Priority to JP2002541352A priority Critical patent/JP3754989B2/ja
Priority to AU2002214275A priority patent/AU2002214275A1/en
Priority to US10/415,991 priority patent/US7110901B2/en
Priority to EP01982755.9A priority patent/EP1333258B1/en
Publication of WO2002039076A1 publication Critical patent/WO2002039076A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/10Photometry, e.g. photographic exposure meter by comparison with reference light or electric value provisionally void
    • G01J1/16Photometry, e.g. photographic exposure meter by comparison with reference light or electric value provisionally void using electric radiation detectors
    • G01J1/1626Arrangements with two photodetectors, the signals of which are compared
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/10Photometry, e.g. photographic exposure meter by comparison with reference light or electric value provisionally void
    • G01J1/12Photometry, e.g. photographic exposure meter by comparison with reference light or electric value provisionally void using wholly visual means
    • G01J1/122Visual exposure meters for determining the exposure time in photographical recording or reproducing
    • G01J1/124Visual exposure meters for determining the exposure time in photographical recording or reproducing based on the comparison of the intensity of measured light with a comparison source or comparison illuminated surface
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4738Diffuse reflection, e.g. also for testing fluids, fibrous materials
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/59Transmissivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/59Transmissivity
    • G01N21/5907Densitometers
    • G01N2021/5915Processing scan data in densitometry
    • G01N2021/5949Correcting nonlinearity of signal, e.g. in measurement of photomedium
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/59Transmissivity
    • G01N21/5907Densitometers
    • G01N2021/5957Densitometers using an image detector type detector, e.g. CCD

Definitions

  • the present invention relates to a method for irradiating an object to be measured with light and receiving light from the detected portion with a sensor and measuring the light, wherein the sensor used in the method does not have linearity in output with respect to the amount of received light.
  • the present invention relates to a method for correcting the sensor output at a certain time.
  • the light to be measured in the present invention includes all light used for quantitative measurement and qualitative measurement, such as reflected light, transmitted light, fluorescence, phosphorescence, and chemical emission. Background art
  • Photodetectors include single-element photodetectors such as photodiodes, linear sensors in which photodetectors such as photodiode arrays are arranged on a line, and CCD sensors and CM-S sensors. There is an area sensor in which light detecting elements are arranged two-dimensionally.
  • the output characteristics of the sensor with respect to the amount of received light are not only those with linearity such as photodiodes, but also sensitivities that deviate from a straight line in areas where the amount of received light is small and large, such as CCD sensors and CMOS sensors. Some have characteristics. Sensors without linearity have been considered unsuitable for quantification.
  • an object of the present invention is to solve the problem of linearity that occurs when a sensor whose output characteristic does not have linearity is used for a detector, thereby enabling measurement using such a sensor. It is assumed that. Disclosure of the invention
  • the present invention relates to a method of irradiating an object to be measured with light and receiving light from the detected portion with a sensor, and using the sensor, the sensor having a non-linear output with respect to a received light amount. I do. Then, there is provided a linearization processing step of correcting the output of the sensor so that the output from the sensor when the light reception amount of the sensor is changed is proportional to the light reception amount.
  • the linearization processing step includes the following steps (A) and (B).
  • (B) a step of correcting the output of the sensor when measuring the device under test based on the linearized data so as to be proportional to the output of the photodetector.
  • the output of the sensor is not linear with respect to the amount of received light, but is corrected based on the linearized data so that the output is proportional to the output of a photodetector that has linearity with respect to the amount of received light.
  • the corrected sensor output becomes linear with respect to the amount of received light.
  • the linearization step includes the following steps (A) and (B).
  • (B) a step of correcting the output of the sensor when measuring the device under test based on the linearized data so as to be proportional to the light from the standard plate.
  • the output of the sensor does not have linearity with respect to the received light amount
  • the corrected sensor output becomes linear with respect to the amount of received light by correcting it based on the linearized data so as to be proportional to the light from the standard plate.
  • the linearization step includes the following steps (A) and (B).
  • the sensor has a variable exposure time setting, and the relationship between the sensor output and the exposure time when the exposure time for measuring one reference object is measured in different stages is defined as the exposure time Maintaining linearized data on light from a reference object proportional to
  • Step c of correcting the output of the sensor when measuring the object to be measured so as to be proportional to the light from the reference object derived from the exposure time based on the linearized data.
  • a uniform reflector or blank state in which all the measurement light enters the image sensor without placing the object to be measured.
  • the amount of light received by the sensor is proportional to the exposure time for exposing the reference object.
  • the output of the sensor does not have linearity with respect to the amount of received light, but is corrected by correcting the light in proportion to the light from the reference object derived from the exposure time based on the linearized data.
  • the sensor output becomes linear with respect to the amount of received light.
  • linearized data in addition to the advantages obtained in the second aspect, linearized data can be constructed using only one reference object without the need for multiple standard plates. Work becomes easier.
  • a reference white plate is incorporated in the apparatus as a reference object, it is easy to obtain linearized data at each measurement or at an appropriate interval. It is also easy to automatically obtain linearized data, which is convenient for maintaining measurement accuracy.
  • One example of a sensor targeted by the present invention is an error sensor.
  • the above-described linearization process can be performed for each pixel.
  • the linearization process can be performed by selecting some pixels near the brightest pixel in the image and using the average of the output of those pixels.
  • Examples of clear sensors are CCD or CMOS sensors.
  • the output of the sensor is a value after offset processing in which the output when the amount of received light is zero is subtracted as dark data.
  • One of the analyzers using sensors is a reflectance measuring device.
  • Photodiodes are mainly used as sensors in reflectivity measuring devices from the viewpoint of high accuracy, cost performance, and technical difficulty.
  • it is necessary to move the optical system or the test piece.
  • the photodiode obtains the averaged data within the spot diameter, it is not suitable for performing detailed detection of the coloring condition such as spotted color detection.
  • One way to solve these problems is to use an error sensor. Since the data of the area sensor is image information of the target area, it is possible to measure a plurality of items, detect a spotted color, and detect a displacement of a test piece from information of one frame.
  • an image of a test strip for immunoassay is A method has been proposed in which the image is captured by a camera and the determination is performed based on the area of the image or the ratio of the length to the width (see Japanese Patent Application Laid-Open No. Hei 9-257780).
  • the shape of the image is measured after the captured signal is binarized as a luminance signal, and the density of the image is not measured.
  • Another example of performing two-dimensional measurement using an area sensor is a urine meter.
  • the measurement is generally made by determining the color tone (hue), not the shading (brightness) of the color of the urine test paper, and the color CCD is used.
  • a reference object is measured as an object to be measured, and the output of each pixel of the area sensor at that time is measured. It is preferable to further include a light non-uniformity correction process for correcting the output of each pixel so that the result of the correction by the above-described linearization process becomes uniform.
  • Raw image information captured by a measurement device using an area sensor is It is affected by individual differences in sensor pixel sensitivity, uneven illumination of light sources (eg, LEDs), and cosine fourth-law (aberration) of lenses. “Light unevenness” is the result of all these effects.
  • the output from the area sensor has linearity by the linearization processing, if the light unevenness in the plane is further eliminated by the light unevenness correction processing, a two-dimensional image can be obtained without using a mechanical drive system.
  • the measurement can be performed with high accuracy.
  • One method of the light unevenness correction method is to measure a reference object as an object to be measured, and to perform it on image data with a certain percentage of the amount of received light when the amount of received light from the pixel reaches the saturated amount. It is. By setting the ratio to a value relatively close to the saturated light amount, for example, 0.8, it becomes possible to accurately perform the light unevenness correction processing.
  • a CCD (charge coupled device) type sensor or a CMOS type sensor can be used as the area sensor.
  • the following effects can be achieved by performing measurement using the error sensor.
  • the speed of capturing the entire image is faster than that of a device that requires a mechanical drive type, enabling high-speed measurement.
  • FIG. 1 is a block diagram partially showing an example of a reflectance measuring apparatus to which the present invention is applied.
  • FIG. Fig. 2 shows a specific example of the optical system in the reflectance measuring apparatus, where (a) is an external view of the optical system, (b) is a vertical sectional view thereof, and (c) is a circle in (b). It is an enlarged view inside.
  • FIG. 3 is a diagram showing the output characteristics of the area sensor.
  • FIG. 4 is a three-dimensional contour surface graph when a white board is imaged by the error sensor.
  • FIG. 5 is a flowchart showing one embodiment of the correction processing of the present invention.
  • FIG. 6 is a plan view showing the positions of pixels for acquiring data.
  • Fig. 7 is a diagram showing an example of the correction.
  • FIG. 8 shows a three-dimensional image of a white board in three stages from dark to bright LED light intensity, and the image information is arranged into a three-dimensional contour surface graph. The state (b) is obtained by correcting light unevenness in the graph (a).
  • FIG. 9 is a plan view showing an example in which one image is divided into 11 ⁇ 11 areas.
  • FIG. 10 is a plan view showing an example in which one image is divided into 11 ⁇ 11 areas.
  • FIG. 6 is a plan view showing the positions of pixels for which light unevenness correction is performed.
  • FIG. 11 is a diagram in which five points of each image shown in FIG. 6 are captured with uneven light and plotted.
  • FIG. 12 is a diagram showing the relationship between the passage of time and the temperature of the main cuts of the reflectometer of the embodiment.
  • FIG. 13 is a plot of the results of the reflectance measured three times every 10 minutes.
  • FIG. 14 is a schematic configuration diagram partially showing a block diagram of another example of a reflectance measuring apparatus to which the present invention is applied.
  • FIG. 15 shows the measurement results of standard plates having different reflectances in the second embodiment, together with the output of the area sensor.
  • FIG. 16 shows the result of FIG. 15 for one pixel of the error sensor.
  • FIG. 15 shows the measurement results of standard plates having different reflectances in the second embodiment, together with the output of the area sensor.
  • FIG. 17 is a flowchart showing a procedure for obtaining linearized data in the embodiment.
  • Fig. 18 shows the procedure for measuring the reflectance of an unknown sample.
  • FIG. 19 is a diagram showing the relationship between the output of the area sensor and the exposure time when the exposure time is reduced in the third embodiment.
  • FIG. 20 shows the result of FIG. 19 for one pixel of the area sensor.
  • FIG. 21 is a flowchart showing a procedure for obtaining linearized data in the embodiment.
  • FIG. 22 is a flowchart showing a procedure for measuring the reflectance of an unknown sample.
  • FIG. 23 is a plan view showing a data acquisition pixel position for confirming the accuracy of data after correction in the embodiment.
  • FIG. 24 is a graph showing the relationship between the captured output and the reflectance at each pixel.
  • the present invention can be similarly applied to the case where the transmittance, the fluorescence, the phosphorescence, the chemiluminescence, and the like are measured instead of the reflectance.
  • FIG. 1 shows an outline of an example of a two-dimensional reflectance measuring apparatus using an area sensor as a sensor and to which the output correction method according to the first aspect of the present invention is applied.
  • Reference numeral 2 denotes an object to be measured, which is held at a sample stage (not shown) and placed at a predetermined position.
  • the DUT 2 is a test strip such as a urine test strip or an immunoassay test strip, a thin-layer chromatogram in chemical analysis, etc. This corresponds to a white plate with uniform reflectance.
  • three LEDs (light emitting diodes) 4 as light sources are placed at the same height at 120 ° intervals from each other above the circumference of the DUT 2, and the center of the DUT 2
  • the object 2 is irradiated at an incident angle of 45 degrees toward. All LEDs 4 have a central emission wavelength of 635 nm It is.
  • a CMOS area sensor 8 is arranged above the DUT 2 via an imaging lens 6.
  • the reflected light of the device under test 2 is imaged by the lens 6 on the area sensor 8, so that the image information of the device under test 2 is detected by the area sensor 8.
  • a photodetector (PD) 10 is arranged at a position outside the angle of view of the area sensor 8 so that the light amount of the LED 4 can be sensed.
  • the photodetector 10 is a photodiode, has an output that is linear with respect to the amount of light received, and converts the amount of light applied to the device under test 2 into a voltage.
  • Reference numeral 12 denotes a voltmeter for converting the amount of light received by the photodetector 10 into a voltage.
  • a dashed block 14 indicates that the LED 4, the lens 6, the area sensor 8, and the light detector 10 constitute an optical system of the reflectance measuring device.
  • a block 20 indicated by a broken line is an error sensor drive circuit, which is an amplifier 22 that amplifies the output of the area sensor 8, an A / D converter 24 that converts the amplified analog output into a digital signal, and a digital signal that has been captured. It has a temporary RAM (random 'access' memory) 26.
  • the area sensor drive circuit 20 controls the area sensor 8 such as register setting such as an imaging time and image data acquisition.
  • the area sensor drive circuit 20 adjusts the light intensity of the LED 4, performs serial communication (560 bps) with a personal computer (personal computer) 28, and issues an instruction from the computer 28. Or to run.
  • the personal computer 28 sets various registers of the area sensor 8, gives an instruction to the area sensor drive circuit 20, captures image information, and displays it on a monitor. Also, save the data in the appropriate format.
  • PC 28 is used for offset processing, linearization processing and ⁇ The light unevenness correction processing is also realized.
  • FIG. 2 shows a specific example of the optical system 14.
  • (A) is an external view of the optical system,
  • (b) is a vertical sectional view, and
  • (c) is an enlarged view of the circle in (b).
  • This optical system is structured so that the distance from the lens 6 to the device under test 2 and the distance from the lens 6 to the area sensor 8 can be freely fine-tuned, making it easy to change the focus, change the magnification, etc. .
  • the DUT 2 can be replaced together with the base plate 3 of the sample stage.
  • the amount of light emitted by the LED 4 with respect to the DUT 2 and the output of the error sensor 8 are not directly proportional.
  • the graph in Fig. 3 shows a white plate (ND (neutral density) 9.5, measured reflectivity 87.00% (actual measured reflectivity was measured with a spectrophotometer (MINOLIA CM-503c)). The same applies to the following.)) Is the DUT 2, and shows the output of the error sensor 8 when the light amount of the LED 4 is changed.
  • the horizontal axis shows the output of the photodetector 10 arranged in the optical system 14 ( mV), and the vertical axis shows the appropriate 5 pixels in a row where the area sensor 8 receives the strongest light. This is a value obtained by averaging the data.
  • Fig. 4 shows an image of a white board (ND 9.5, measured reflectivity 87.0%) (all white board areas within the angle of view range), and the image information was converted to a 3D contour surface graph. Things. Contour planes were generated by dividing the image into 10 x 10 areas and averaging the pixels contained in each area.
  • the correction processing is performed according to the following procedure. The procedure will be described with reference to FIG.
  • the white plate (ND 9.5, measured reflectivity 87.00%) is the DUT 2, and the light detector (PD) 1 when the brightest pixel in the captured image reaches the saturation light amount Obtain a voltage value of 0 (steps S1 to S5).
  • step S12 Perform offset processing on all image data (subtract dark data value from each image data for each pixel) (step S12).
  • the image data per saturated light quantity X 0.8 is set as the white plate data for reference for correcting unevenness (step S14).
  • Step S 15 Convert the A / D data of 128 ⁇ 128 pixels of the measured image to the voltage value of photodetector 10 based on the relationship in Fig. 3 (PD voltage value conversion: linearization processing) (Step S 15). The conversion is performed by linear interpolation between the sample points in the graph of FIG.
  • the pixels to be corrected are the five points shown in Fig. 6, and point 1 (32, 32), point 2 (96, 32), point 3 (64, 64), and point 4 (32, 9). 6) and point 5 (96, 96).
  • the graph in Fig. 7 (a) shows the results obtained when the white plate (ND 9.5, measured reflectivity 87.00%) was set as the DUT 2 and the light amount of the LED 4 was changed. This is the output of the five error sensors indicated by.
  • Fig. 7 (c) is a graph in which the unevenness of light is corrected using the unevenness correction data for (b). Each point is plotted on approximately the same line.
  • the correction output of the area sensor is 1, the five points completely match because light unevenness is corrected from the whiteboard data of this brightness. From (c), it can also be seen that the lower the light quantity, the more the points vary, and the correction accuracy is poor.
  • the graph in Fig. 8 (a) shows a white board (ND 9.5, measured reflectivity 87.0%) imaged in three stages from dark to bright LED light (angle of view range). Inside is a white board area), and its image information is arranged in a 3D contour plane. Contour planes are generated by dividing the image into 10 x 10 areas and averaging the output of the pixels contained in each area. Of the three dome-shaped white board data, the left end data has the least amount of light and the right end data Has the largest amount of light.
  • the difference between the maximum value and the minimum value in the white board data at the right end is narrower than that in the middle white board data even though the amount of light is large. This is because the pixel light amount in the bright part of the white plate is approaching the saturation amount.
  • Table 1 shows the results of one of the ten measurements.
  • the upper row of the table averages the light intensity of each area when ND 9.5 is imaged, the middle row averages the light quantity of each area when ND 6.5 is imaged, and the lower row shows the ratio of the same area as the reflectance. It is a thing. 111423890562171 (ooooooo oooooo Table 1)
  • AVE is the average value, C.V. (%) Is the rate of change, and represents (standard deviation / average value).
  • represents the difference between the maximum value and the minimum value in the area.
  • Table 2 shows the average value of the reflectivity of each area (upper row) and the variation of the reflectivity of each area (lower row) as a result of 10 measurements.
  • the area is divided into ND 9.5 and ND 6.5 areas by the center line, and the same area (for example, the area of the horizontal axis 10 and the area of 50, the horizontal axis 5
  • the ratio of the area of 0 to the area of 110 is defined as the reflectance (described as one-way reflectance). 114523689170 (1 ooooooo## Table 3)
  • Table 4 shows the average (upper) and the variation (lower) when the calculations shown in the lower part of Table 3 were performed for 10 measurements. (Table 4.)
  • the result of the simultaneous reproducibility 2 is about twice as good in C.V. (%) (change rate: standard deviation / mean). This is considered to be because the subject had to be replaced by hand for each measurement in the simultaneous reproducibility 1 measurement, whereas the simultaneous reproducibility 2 measurement did not require any touch. In other words, the result of simultaneous reproducibility 2 is considered to be close to the imaging reproducibility of a pure CMOS area sensor.
  • the graph in Fig. 11 shows the values measured with a spectrocolorimeter on the horizontal axis, and the vertical axis plots the 5 points (pixels) of each image shown in Fig. 6 with the light unevenness corrected according to the present invention. is there.
  • Measurement was performed to grasp the temperature characteristics of the reflectance measuring apparatus of the example. Perform the following operation after the system (power ON state) is fully adjusted in each environment of 10 ° C, 20 ° C, and 30 ° C. Cover the base plate so that ND 9.5 (actual reflectivity 87.0 0%) and ND 6.5 (actual reflectivity 36.2 1%) are half the angle of view. Measured object.
  • Table 5 shows the results of the average reflectance over the entire area at each temperature by 10 measurements. S. D. indicates standard deviation.
  • thermocouple is attached to the main unit (in the drive circuit 20, near the LED 4, near the area sensor 8) of the reflectance measuring apparatus of the embodiment so that the temperature can be monitored. (2) Sufficiently adapt the reflectance measuring device to the environment with the power supply OFF.
  • the graph in Fig. 12 shows the relationship between the time lapse (every 10 minutes) and the temperature of the main cuts (near drive circuit 20, near LED 4, near area sensor 8) of the reflectance measuring apparatus of this embodiment. Is shown.
  • the graph in Fig. 13 is a plot of the reflectance results measured three times every 10 minutes.
  • FIG. 14 shows an outline of an example of a two-dimensional reflectance measuring apparatus to which the output correction method according to the second aspect is applied.
  • the difference is that the photodetector 10 for monitoring the light amount is not provided.
  • Other configurations are basically the same.
  • Light reflected from the device under test 2 is imaged on the area sensor 8 a by the lens 6 via the reflector 5.
  • the area sensor 8a includes one including the amplifier 22 in FIG.
  • the detection signal of the area sensor 8a is taken into the arithmetic unit 28a via the AZD converter 24.
  • the arithmetic unit 28a corresponds to the RAM 26 and the personal computer 28 in FIG.
  • a display 30, a keyboard 32, and a printer 34 are connected to the arithmetic section 28 a.
  • Reference numeral 36 denotes an image storage unit for storing the captured image data, and is constituted by, for example, a hard disk device.
  • the calibration curve data 40 is stored in a hard disk device or a floppy disk device in order to convert the reflectance calculated by the arithmetic unit 28a into a density.
  • the data processing result of the operation unit 28a can be taken out to a necessary external device as an external output 38.
  • FIG. 15 shows the results of measuring these standard plates as the device under test 2 together with the output of the area sensor 8a.
  • the vertical axis shows the output
  • the horizontal axis shows the standard plates arranged in descending order of reflectivity. The output data of each standard plate is curved because the optical unevenness correction processing is not performed.
  • Fig. 16 Shows the relationship between reflectance and output for one pixel of area sensor 8a.
  • Fig. 16 shows the result.
  • the vertical axis represents the output of the area sensor 8a, and the horizontal axis represents the known reflectance of the standard plate. Since the output of the area sensor 8a is non-linear with respect to the amount of received light, this curve shows an S-shape, which means the same as that shown in FIG.
  • data as shown in FIG. 16 is stored as linearized data for each pixel.
  • the reflectance is determined from the output using the linearized data for each pixel as indicated by the arrow in FIG. 16. The reflectance is obtained by interpolating between the measured points of this linearized data.
  • the reflectance of the unknown sample obtained in this way is corrected reflectance data including the unevenness of illumination by the light source, the non-linearity of the lens and the area sensor 8a, and the reflectance data with linearity is obtained. Become.
  • FIG. 17 shows the procedure for obtaining linearized data.
  • One reference plate is placed at the position of the DUT 2, and an image is taken by the area sensor 8a.
  • the known reflectance r of the reference plate and the imaging data at that time are stored. This operation is repeated for all the reference plates.
  • an output correction method according to a third aspect of the present invention will be described using an area sensor as a sensor.
  • the reflectivity measuring device used is the same as that shown in FIG.
  • an area sensor 8a having a programmable exposure time is used.
  • an area sensor for example, the Mitsubishi CMOS image sensor (H640283FP) used in the embodiment of FIG. 1 is used.
  • the area sensor 8a to be used is not limited to the CMOS image sensor, but may be a CCD image sensor as long as the exposure time can be programmed.
  • the output of the sensor 8a does not have a linear relationship with the amount of received light, but the amount of received light is proportional to the exposure time. Also, since the amount of received light is proportional to the reflectance, the exposure time is varied by using one reference plate, and even if the reference plate is used in common, the exposure time is changed by changing the exposure time. The result equivalent to the measurement using can be obtained.
  • a white plate as a reference plate is placed at the position of the DUT 2 in FIG. First, measurement is performed at a reference exposure time. Next, the same measurement is performed while the exposure time is reduced to 90% of the reference exposure time while the white plate of the object to be measured is left as it is. Similarly, the exposure time is changed to 80%, 70%, and so on.
  • Fig. 19 shows the output of the area sensor 8a (vertical axis) and the exposure time (horizontal axis; exposure time is shorter on the right side) when the exposure time is reduced in this manner. Also in this case, since the light unevenness correction in the error sensor 8a is not performed, the output between pixels fluctuates.
  • FIG. 20 The relationship between the output and the exposure time for each pixel is shown in FIG. 20, and the result is the same as in FIGS. 16 and 3.
  • FIG. 20 for the cell is stored as linearized data.
  • Figure 21 summarizes the procedure for acquiring this linearized data. Set the reference white plate as the DUT 2 and set the reference exposure time t. Irradiation is performed at the exposure time, imaging is performed by the area sensor 8a, and the exposure time t and imaging data are stored. .
  • FIG. 20 illustrates the relationship between the sensor output and the exposure time for each pixel while setting the exposure time so as to decrease sequentially and repeatedly measuring.
  • the exposure time on the horizontal axis corresponds to the reflectance.
  • FIG. 22 shows a procedure for measuring a sample whose reflectance is unknown, and is the same as the procedure shown in FIG. In this embodiment, an exposure time corresponding to the reflectance is obtained for each pixel.
  • the accuracy of the data after the correction was confirmed.
  • Multiple subjects with known reflectance were measured. Pixels at each position of the central part and the peripheral part of the area sensor 8a are selected as shown in FIG. 23, and the relationship between the corrected output and the reflectance at each pixel is shown in FIG.
  • the output of a pixel at each location may be the output of a single pixel, or the average of the output of several pixels around that location.
  • the straight line is the average value of all pixels.
  • the horizontal axis is the known reflectance
  • the vertical axis is the corrected output.
  • the correction method of the present invention uses a test piece provided with a reagent portion on a support. It can be used in many fields such as clinical testing, food analysis, and chemical analysis as a method of correcting sensor output in various analyzers, including chemistry analyzers.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

センサ出力の補正方法 技術分野
本発明は被測定物を光照射しその被検出部からの光をセンサで受光し て測定する方法において、 そこ明で用いられるセンサが受光量に対して出 力の直線性をもたないものである場糸合におけるそのセンサ出力の補正方 法に関するものである。
本発明で測定対象とする光は、 反射光、 透過光、 蛍光、 燐光、 化学発 光など、 定量測定や定性測定に使用されるあらゆる光を含んでいる。 背景技術
光検出器にはフォトダイォードのような単素子の光検出素子、 フォト ダイォードアレイのような光検出素子がライン上に配列されたリニァセ ンサ、 及ぴ C C Dセンサや C M〇 Sセンサのように光検出素子が二次元 に配列されたエリアセンサがある。
受光量に対するセンサの出力特性として、 フォトダイォードのような 直線性をもったものだけでなく、 C C Dセンサや C M O Sセンサなどェ リァセンサのように受光量の小さい領域と大きい領域で直線から外れた 感度特性をもっているものがある。 直線性をもたないセンサは定量には 適さないと考えられてきた。
そこで、 本発明は出力特性が直線性をもたないセンサを検出器に用い た場合に起こる直線性の問題を解決することにより、 そのようなセンサ を用いても測定を可能にすることを目的とするものである。 発明の開示
本発明は、 被測定物に光を照射しその被検出部からの光をセンサで受 光して測定する方法において、 そのセンサとして受光量に対して出力が 直線性をもたないものを使用する。 そして、 センサの受光量を変化させ たときのセンサからの出力が受光量に比例するようにセンサの出力を補 正する直線化処理工程を備えていることを特徴とするものである。 第 1の局面では、 直線化処理工程は次の工程 (A ) と (B ) を含んで いる。
( A ) 受光量に対して出力が直線性をもつ光検出器を別途設け、 センサ に入射する光をその光検出器にも同時に入射させるとともに、 その入射 光量を変化させたときのセンサの出力とその光検出器の出力との関係を 直線化データとして保持しておく工程、 及び
( B ) 被測定物を測定したときのセンサの出力をその直線化データに基 づいて光検出器の出力に比例するように補正する工程。
センサの出力は受光量に対して直線性をもっていないが、 直線化デー タに基づいて、 受光量に対して出力が直線性をもつ光検出器の出力に比 例するように補正することにより、 補正されたセンサ出力は受光量に対 して直線性をもつようになる。
第 2の局面では、 直線化処理工程は次の工程 (A ) と (B ) を含んで いる。
( A ) 発生する光が既知で互いに異なる複数の標準板を用意し、 それら の標準板を測定したときのセンサの出力と標準板からの光との関係を直 線化データとして保持しておく工程、
( B ) 被測定物を測定したときのセンサの出力を直線化データに基づい て標準板からの光に比例するように補正する工程。
この場合もセンサの出力は受光量に対して直線性をもっていないが、 直線化データに基づいて、 標準板からの光に比例するように補正するこ とにより、 補正されたセンサ出力は受光量に対して直線性をもつように なる。
第 2の局面では、 光量モニタ用に受光量に対して出力が直線性をもつ 光検出器とその光検出器の計測器を別途設ける必要がない。この方法は、 光源を光量調整した後、 標準板を交換して測定するだけであるので、 作 業が簡単である。 実際にセンサが受光したデータで補正するので、 誤差 要因を軽減することができる。
第 3の局面では、 直線化処理工程は次の工程 (A ) と (B ) を含んで レヽる。
( A) センサは露光時間の設定が可変なものであり、 1つの基準物を測 定する露光時間を複数段階に異ならせて測定したときのセンサの出力と 露光時間との関係を、 露光時間に比例した基準物からの光に関する直線 化データとして保持しておく工程、 及び
( B ) 被測定物を測定したときのセンサの出力を直線化データに基づい て露光時間から導かれる基準物からの光に比例するように補正する工程 c 基準物として、 例えば面内の濃淡が均一な反射板又はブランク (被測 定物を置かないで測定光を全てイメージセンサに入射させる状態) を用 いる。
第 3の局面では、 センサの受光量は基準物を露光する露光時間に比例 している。 この場合もセンサの出力は受光量に対して直線性をもってい ないが、 直線化データに基づいて、 露光時間から導かれる基準物からの 光に比例するように捕正することにより、 捕正されたセンサ出力は受光 量に対して直線性をもつようになる。
第 3の局面では、 第 2の局面で得られる利点の他に、 複数の標準板を 必要とせず、 基準となる 1枚の基準物のみで直線化データを構築するこ とができるので、 作業がより簡便になる。
この局面では、基準物として例えば基準白板を装置に内蔵しておけば、 測定ごと、 又は適当な間隔で直線化データを得ることが容易になる。 ま た、 自動で直線化データを得ることも容易であるため、 測定精度を維持 する上で好都合である。
本発明の対象とするセンサの 1つの例はェリァセンサである。 その場 合、 上で述べた直線化処理工程はピクセル (画素) ごとに行なうことが できる。 また、 その直線化処理工程を画像内で最も明るいピクセル付近 の幾つかのピクセルを選択して、 それらのピクセルの出力の平均値を用 いて行なうこともできる。
ェリァセンサの例は、 C C D型又は C M O S型センサである。
センサの出力は、 受光量がゼロのときの出力をダークデータとして差 し引いたオフセット処理後の値であることが好ましい。
センサを用いる分析計の 1つとして反射率測定装置がある。 反射率測 定装置のセンサとしては、 精度の良さ、 コストパフォーマンス、 技術的 難易度の観点から主にフォトダイオードが用いられている。 しかし、 フ ォトダイォードを用いて複数項目の反射率を得ようとした場合、 光学系 あるいは試験片を移動させる必要がある。 また、 フォトダイォードはス ポット径内の平均化されたデータを得るものであるため、 斑発色検知に 代表されるような発色具合の詳細検知を行なう場合には不向きである。
これらの問題を解消する一つの手段として、 ェリァセンサの採用が考 えられる。 エリアセンサのデータは対象領域の画像情報であるため、 1 フレームの情報から複数の項目の測定、 斑発色の検知、 試験片の位置ず れの捕正等を行なうことができる。
エリアセンサによって対象物の形状や色彩を検出することは広く知ら れている。 例えば、 免疫測定用のテス トストリ ップの画像を C C Dカメ ラで取り込み、 画像の面積又は縦と横の長さの比率に基づいて判定を行 なう方法が提案されている (特開平 9一 2 5 7 7 0 8号公報参照)。 そこ では取り込んだ信号を輝度信号として二値化した後に画像の形状を測定 しており、 その画像内の濃淡を測定するものではない。
エリァセンサを用いて二次元的な測定を行なっている他の例としては、 尿測定機がある。 そこでは、 尿試験紙の発色の濃淡 (明度) ではなく、 色調 (色相) を判定することによって測定するのが一般的であり、 カラ 一 C C Dが用いられている。
エリアセンサで被測定物の二次元的な濃淡分布を精度よく検出しょう とすると、 光の照射むら、 レンズの収差などのほか、 エリアセンサのピ クセル間の感度差により面内の光むらが発生する。 そのため、 精度よく 検出を行なうために、 機械的な駆動系を用いてセンサ又は被測定物を移 動させるのが一般的である。 その場合、 エリアセンサを用いていても、 一次元のリユアセンサとして利用されているにすぎない。
エリアセンサを用いて、 被測定物からの光をもとにした定量測定を行 おうとすると、 非直線性に基づく上のような問題の他に、 次のような問 題が生じる。 すなわち、 二次元的な測定を行おうとすると、 光の照射む ら、 レンズの収差、 場所によるピクセルの感度のパラツキなどに基づい て面内での光むらが発生するため、 二次元的な測定を行なうと定量結果 に場所的なバラツキが生じる。
そこで、 エリアセンサを用いて、 機械的な駆動系を必要としない簡便 な二次元の測定方法を実現するためには、 被測定物として基準物を測定 し、 そのときのエリァセンサの各ピクセルの出力を前述の直線化処理に より補正したものが均一になるように各ピクセルの出力を捕正する光む ら補正処理をさらに含んでいることが好ましい。
エリアセンサを用いた測定装置で撮像した生の画像情報は、 エリアセ ンサの各ピクセル感度の個体差、 光源 (例えば L E D ) の照射むら、 ンズのコサイン 4乗則 (収差) などの影響をうける。 「光むら」 はこれら の全ての影響を受けて生じたものである。
直線化処理によりエリァセンサからの出力が直線性をもったものにな るので、 さらに光むら補正処理により面内での光むらがなくなれば、 機 械的な駆動系を用いなくても二次元の測定を精度よく行なうことができ るようになる。
光むら補正処理の 1つの方法は、 被測定物として基準物を測定し、 ピ クセルの'受光量が飽和光量に達したときの光量に対する一定割合の受光 量での画像データに対して行なう方法である。 その割合は、 例えば 0 . 8というような比較的飽和光量に近い値にすることにより、 精度よく光 むら補正処理を行なうことができるようになる。
エリアセンサとしては、 C C D (電荷結合デバイス) 型センサ又は C M O S型センサを用いることができる。
本発明により直線化処理を施すことにより、 受光量に対して出力が直 線性をもたないセンサを用いても、 定量測定が可能になる。
さらに光むら補正処理まで施せば、 ェリァセンサを用いて測定を実施 すれば、 次のような効果を達成することができる。
( 1 ) 尿試験紙などを測定する際に、 同じ色相で濃淡が変化する項目に ついても測定することができる。
( 2 ) 機械的な駆動型を必要とする装置に比べて全体画像を取り込む速 度が早く、 高速測定が可能になる。
( 3 ) 機械的な駆動型を必要としないので、 安価に実現できる。 図面の簡単な説明
第 1図は本発明が適用される反射率測定装置の一例を一部プロック図 で示す概略構成図である。 第 2図は同反射率測定装置における光学系の 具体例を示したものであり、 (a ) は光学系の外観図、 (b ) はその垂直 断面図、 (c ) は (b ) における円内の拡大図である。 第 3図はエリアセ ンサの出力特性を示す図である。 第 4図はェリァセンサにて白板を撮像 したときの 3次元等高面グラフである。 第 5図は本発明の補正処理の一 実施例を示すフローチヤ一ト図である。 第 6図はデータ取得を行なうピ クセルの位置を示す平面図である。第 7図は補正の一例を示す図であり、 ( a ) は白板を被測定物としたときのェリァセンサの各ピクセル出力の グラフ、 (b ) は P D電圧値変換した後の出力のグラフ、 (c ) はさらに ( b ) に対して光むら補正したグラフである。 第 8図は L E D光量の暗 いものから明るいものまで 3段階に分けて白板を撮像し、 その画情報を 並べて 3次元等高面グラフにしたものであり、 (a )は光むら補正前の状 態、 (b ) は (a ) のグラフに対して光むら補正を行なったものである。 第 9図は 1枚の画像を 1 1 X 1 1の領域に分割する例を示す平面図であ る。 第 1 0図は 1枚の画像を 1 1 X 1 1の領域に分割する例を示す平面 図である。 第 6図は光むら補正を行なうピクセルの位置を示す平面図で ある。 第 1 1図は第 6図で示す各画像の 5点を光むら捕正してプロット した図である。 第 1 2図は実施例の反射率測定装置の主なュ-ットの時 間経過と温度の関係を示す図である。 第 1 3図は 1 0分おきに 3回ずつ 測定した反射率の結果をプロットした図である。 第 1 4図は本発明が適 用される反射率測定装置の他の例を一部プロック図で示す概略構成図で ある。 第 1 5図は第 2の実施例において反射率の異なる標準板を測定し た結果をエリァセンサの出力とともに示したものである。 第 1 6図は第 1 5図の結果をェリァセンサの 1つのピクセルについて示したものであ る。 第 1 7図は同実施例で直線化データを得るための手順を示したフロ 一チャート図である。 第 1 8図は未知試料の反射率測定手順を示したフ ローチャート図である。 第 1 9図は第 3の実施例において露光時間を減 少させていったときのエリアセンサの出力と露光時間の関係を示した図 である。 第 2 0図は第 1 9図の結果をェリアセンサの 1つのピクセルに ついて示したものである。 第 2 1図は同実施例で直線化データを得るた めの手順を示したフローチヤ一ト図である。 第 2 2図は未知試料の反射 率測定手順を示したフローチャート図である。 第 2 3図は同実施例にお レ、て補正後のデータの精度を確認するためのデータ取得ピクセル位置を 示す平面図である。 第 2 4図はそれぞれのピクセルにおける捕正された 出力と反射率の関係を示すグラフである。 発明を実施するための最良の形態
以下では反射率を測定する場合を例として説明するが、 本発明は反射 率に代えて透過率、 蛍光、 燐光、 化学発光などを測定する場合にも同様 に適用することができる。
[実施例 1 ]
第 1の実施例として、 センサとしてエリアセンサを使用し、 本発明の 第 1の局面による出力補正方法を適用した二次元の反射率測定装置の一 例の概要を第 1図に示す。
2は被測定物であり、 試料台 (図示略) に保持されて所定の位置に載 置される。 臨床検査などの実際の測定では、 被測定物 2は尿試験紙や免 疫測定用試験紙などの試験紙、 化学分析における薄層クロマトなどであ るが、 ェリァセンサを補正する場合には表面での反射率が均一な白板が 該当する。 被測定物 2を照射するために、 光源として 3つの L E D (発 光ダイオード) 4が被測定物 2の周囲上方に互いに 1 2 0度間隔で同じ 高さに配置され、 被測定物 2の中心に向って 4 5度の入射角で被測定物 2を照射する。 L E D 4はいずれも発光の中心波長が 6 3 5 n mのもの である。
被測定物 2の上方には結像レンズ 6を介して CMO Sエリアセンサ 8 が配置されている。 被測定物 2の反射光がそのレンズ 6によりエリアセ ンサ 8に結像されることにより、 被測定物 2の画情報がェリアセンサ 8 により検出される。
L ED 4の光量を感知でき、 かつェリァセンサ 8の画角外の場所に光 検出器 (PD) 1 0が配置されている。 光検出器 1 0はフォトダイォー ドであり、 受光する光量に対して出力が直線性をもっており、 被測定物 2への照射光量を電圧に変換する。 1 2はその光検出器 1 0が受光した 光量を電圧に変換する電圧計である。
破線のブロック 1 4は、 LED 4、 レンズ 6、 エリアセンサ 8及ぴ光 検出器 1 0がこの反射率測定装置の光学系を構成していることを示して いる。
破線のプロック 2 0はェリァセンサドライブ回路であり、 エリァセン サ 8の出力を増幅する増幅器 2 2、 増幅されたアナログ出力をデジタル 信号に変換する A/D変換器 24及ぴ取り込んだデジタル信号を一時的 に保持する RAM (ランダム 'アクセス ' メモリ) 2 6を備えている。 エリアセンサドライブ回路 2 0は、 撮像時間などのレジスタ設定、 画像 データ取込み等、 エリアセンサ 8を制御するものである。 また、 エリア センサドライブ回路 20は、 L ED 4の光量を調節したり、パソコン(パ 一ソナルコンピュータ) 2 8とシリアル通信 (5 6 0 00 b p s ) を行 なったり、 ノ ソコン 2 8からの命令を実行したりする。
パソコン 2 8は、 エリァセンサ 8の各種レジスタ設定を行なったり、 エリアセンサドライブ回路 2 0に命令を与えたり、画像情報を取り込み、 モニタに表示したりする。 また、 適宜の形式のフォーマッ トでデータを 保存する。 パソコン 2 8は、 上に示したオフセッ ト処理、 直線化処理及 ぴ光むら補正処理も実現するものである。
■ 第 2図は光学系 1 4の具体例を示したものである。 (a)は光学系の外 観図であり、 (b) はその垂直断面図、 (c) は (b) における円内の拡 大図である。
この光学系は、 レンズ 6から被測定物 2までの距離、 及ぴレンズ 6か らエリァセンサ 8までの距離を自在に微調整できる構造になっており、 焦点あわせ、 倍率の変更などが容易にできる。 また、 被測定物 2は試料 台のベースプレート 3ごと交換できるようになっている。
エリァセンサ 8として三菱製 CMO Sイメージセンサ (H 64 2 8 3 F P) を使用して反射率測定を行なった結果について説明する。
まず、 エリアセンサ 8の補正処理について説明する。
( 1 ) オフセット処理 (ダーク処理) :
LED 4の電流値を 0 (mV) としたときの、 エリアセンサ 8の出力 (AZDカウント値) をダーク (オフセッ ト) とした。 以降に記述する 全ての演算結果 (補正処理、 反射率演算等) は、 LED 4照射時のエリ ァセンサ 8の出力 (A/Dカウント値) とダーク成分の差をエリアセン サ 8の生出力 (A/Dカウント値) とした。
(2) 光量とエリアセンサ出力の関係 (直線化補正) :
被測定物 2に対して L E D 4が放つ光の量とェリァセンサ 8の出力 (V o u tを A/D変換したカウント値) とは正比例の関係にはない。 第 3図のグラフは、 白板 (ND (ニュートラル'デンシティ) 9. 5、 反射率実測値 8 7. 00 % (反射率実測値は分光測色計 (M I N O L I A CM— 5 03 c)により測定した(以下も同じ))を被測定物 2とし、 L ED 4の光量を変化させたときのェリァセンサ 8の出力を示している。 横軸は光学系 14内に配置した光検出器 1 0の出力(mV)、縦軸はエリ ァセンサ 8が最も強く光を受ける部分の連続して並ぶ適当な 5ピクセル のデータを平均した値である。
光むら補正を行なうためには、 エリアセンサ 8の出力 (A/Dカウン ト値) を光検出器 1 0の出力 (mV) に換算する処理を前処理として行 なう必要がある。 光むら補正を行なう前に、 2 5°Cの環境下で第 3図の 特性を測定し、 その結果をもとにエリアセンサ 8の各ピクセルの出力を 補正演算する。
(3) 画像のむら (光むら) 補正:
この反射率測定装置を用いて撮像した生の画像情報は、 エリアセンサ
8の各ピクセル感度の個体差、 LED 4の照射むら、 レンズ 6のコサイ ン 4乗則の影響などを受けて光むらを生じている。 第 4図は、 白板 (N D 9. 5、 反射率実測値 8 7. 0 0%) を撮像し (画角範囲内は全て白 板領域)、その画情報を 3次元等高面グラフにしたものである。等高面は、 画像を 1 0 X 1 0の領域に分割し、 各領域に含まれるピクセルの平均値 から生成した。
白板のように濃淡具合の均一な平面を撮像した場合にも、 光むらの影 響を受けて画角内の濃淡情報がドーム状に変形してしまっていることが 第 4図のグラフから読み取れる。 このドーム状に変形した画像情報を濃 淡の一様な水平面に補正する処理は、 ェリァセンサ 8を反射率測定装置 の光検出器として用いる場合に必須である。 本発明では、 測定結果は、 すべてこの光むら補正を施したものである。
本発明では、 以下の手順によって補正処理を行なった。 第 5図を参照 してその手順を説明する。
<補正参照データ獲得手順 >
( 1) 白板 (ND 9. 5、 反射率実測値 8 7. 0 0%) を被測定物 2とし、 撮像した画像内の最も明るいピクセルが飽和光量に達するとき の光検出器 (PD) 1 0の電圧値を求める (ステップ S 1〜S 5)。 (2) 0 (mV) からピクセルが飽和光量に達したときの光検出器 1 0の電圧値を 2 0等分し、 2 1段階の各電圧値を求め、 低い方から P 0〜P 2 1とする (ステップ S 6)。
(3) L ED 4の光量を調整し、 光検出器 1 0の電圧値が各段階に なるようにセ.ットする。 それそれの光量で白板を撮像しデータを記憶す る ( 2 1枚の画像データが得られる。 0 (mV) のときの画像はダーク データである) (ステップ S 7〜S 1 1 )。
(4) 全ての画像のデータをオフセット処理する (ピクセルごとに 各画像データからダークデータの値を引く) (ステップ S 1 2)。
(5) 画像内で最も明るいピクセル付近の連続して並ぶ 5ピクセル の値を平均する。 この処理を各画像に対して行ない、 光検出器 1 0の電 圧値に対するエリアセンサ出力の関係 (第 3図) を獲得する (ステップ S 1 3 )。
(6) 2 1枚の画像データのなかで、 飽和光量 X 0. 8あたりの画 像データを光むら補正参照用白板データとする (ステップ S 1 4)。
<測定画像の光むら補正手顆〉
(7) 測定画像の 1 2 8 X 1 28ピクセル分の A/Dデータを第 3 図の関係から光検出器 1 0の電圧値に変換 (PD電圧値変換:直線化処 理) する (ステップ S 1 5)。 変換は、 第 3図のグラフのサンプル点間を 直線補間することにより行なう。
(8) (6) で獲得した光むら補正参照用白板データに対しても同 様に、 PD電圧値変換を行なう。
(9) 光むら補正参照用白板データ (PD電圧値変換後) に対する 測定画像のデータ (PD電圧値変換後) の比を 1 2 8 X 1 28の各ピク セルに対して求める。 この比を光むら補正データとする (ステップ S 1 6)。 補正例)
前述までの補正方法により、 生の各ピクセルの出力から反射光量を導 いた例を示す。 補正するピクセルは第 6図に示す 5点であり、 それぞれ 点 1 (3 2, 3 2 )、 点 2 (9 6, 3 2 )、 点 3 (64, 64 )、 点 4 (3 2, 9 6 )、 点 5 ( 9 6 , 9 6 ) とした。
第 7図 (a) のグラフは、 白板 (ND 9. 5、 反射率実測値 8 7. 0 0%) を被測定物 2として、 L ED 4の光量を変化させたときの、 第 6 図で示す 5点のェリァセンサの出力である。
これを第 3図のグラフの関係からエリァセンサ出力 (A//Dカウント 値) を光検出器の電圧値に変換 (PD電圧値変換) すると、 第 7図 (b) のように補正される。 第 7図 (b) では各点の反射光量に、 光むらの影 響なとを受けて差異が生じているが、 各点は L ED 4の光量に対して正 比例の関係を持つようになる。
第 7図 (c) は (b) に対して光むら補正データを用いて光むらを捕 正したグラフである。 各点はほぼ同一線上にプロットされている。 (c) でエリァセンサの捕正出力が 1のときに完全に 5点が一致するのは、 こ の明るさの白板データから光むらを補正しているためである。 ( c )から は光量が下がるほど各点がばらつき、 補正精度が悪くなっていることも 読み取ることができる。
(領域補正例)
第 8図 (a ) のグラフは、 L ED光量の暗いものから明るいものまで 3段階に分けて白板 (ND 9. 5、 反射率実測値 8 7. 0 0%) を撮像 し(画角範囲内は全て白板領域)、その画情報を並べて 3次元等高面ダラ フにしたものである。 等高面は、 画像を 1 0 X 1 0の領域に分割し、 各 領域に含まれるピクセルの出力の平均値から生成している。 3つのドー ム状の白板データのうち、 左端のものが最も光量が少なく、 右端のもの が最も光量が多い。
右端の白板データは、 真中の白板データに比べて光量が多いにもかか わらず最大値と最小値の差が狭くなっている。 これは白板の明るい部分 のピクセル光量が飽和量に近づいているためである。
第 8図 (a ) のグラフに対して光むら補正を行なうと、 第 8図 (b) のグラフのように平坦になる。
(同時再現性 1 )
同一ピクセルを対象に異なる反射率の NDぺーパを撮像し、 それらの 濃淡値の比を反射率として演算した場合の同時再現性を検証した。 手順は次の通りである。
( 1) L E D 4の電流値を 0 mAにし、 ダーク (オフセッ ト) 画像を 撮像する。
(2) ND 9. 5 (反射率実測値 8 7. 00%) と ND 6. 5 (反射 率実測値 3 6. 2 1 %) をそれそれベースプレートに貼り付けたものを 用意し、 これらを交互に 1 0回撮像する。
(3) 各ピクセルを光むら補正した後で、 1枚の画像を第 9図のよう に 1 1 X 1 1の領域 ( 1つの領域は 1 0 X 1 0 = 1 0 0ピクセル) に分 割し、 各領域の光量の平均値を算出する。 この光量の平均値の ND 9.
5と ND 6. 5の比を反射率として、 各領域について演算する。
表 1は、 1 0回測定したうちの 1回分の測定結果である。 表の上段は ND 9. 5を撮像したときの各領域の光量の平均、 中段は ND 6. 5を 撮像したときの各領域の光量の平均、 下段は各々同じ領域の比を反射率 として求めたものである。 111423890562171 (ooooooo oooooo表 1)
Figure imgf000017_0001
表中で、 A V E . は平均値、 C . V . ( %) は変化率で、 (標準偏差/平 均値) を表わしている。 Δは領域内の最大値と最小値との差を表わす。 表 2は、 1 0回測定した結果の各領域の反射率の平均値 (上段) と各 領域の反射率のばらつき (下段) を示したものである。
Figure imgf000018_0001
表 1、表 2から各領域の反射率を比較すると、レンズ 8の光軸付近(あ るいは L E D 4の照射光が最も集光している部分) のばらつきが最も少 なく、 そこから同心円状に離れていくほどばらつきが多くなる傾向がみ られる。 これは、 光軸から遠いほど補正量が多くなるためであると考え られる。
また、 エリアセンサを用いて反射率を測定する場合の特徴として、 濃 淡が一様なはずの被測定物を測定しても、 各領域別に得られる反射率に かなりの差異があることがわかる。 原因としては、 光むら補正精度が場 所によって異なることや、 もともと被測定物にある濃淡むらの影響が考 えられる。
(同時再現性 2)
同一画像内に異なる反射率の NDぺーパを配置し、 それらの濃淡値の 比を反射率として演算した場合の同時再現性を検証した。 手順は次の通 りである。
( 1 ) LED 4の電流値を OmVにし、 ダーク (オフセッ ト) 画像を 撮像する。
( 2) ND 9. 5 (反射率実測値 8 7. 0 0 %) と ND 6. 5 (反射 率実測値 3 6. 2 1 %) が画角に半分づっ入るようにベースプレートに 貼り付けたものを用意し、 これを 1 0回撮像する。
( 3) 各ピクセルを光むら補正した後で、 1枚の画像を第 1 0図のよ うに 1 1 X 1 1の領域 ( 1つの領域は 1 0 X 1 0 = 1 0 0ピクセル) に 分割し、各領域の光量の平均値を算出する。この光量の平均値の ND 9. 5と ND 6. 5の比を反射率として、 各領域の反射率を算出する。 表 3は、 1 0回測定したうちの 1回分の測定結果である。 表 3の上段 左側は ND 9. 5、上段右側はND 6. 5の各領域の光量の平均である。 下段の左側は、 画像内で ND 9. 5と ND 6. 5の交わる部分を中心線 とし、 これから線対称に求めた比を反射率としたものである (対称反射 率と記述)。 また、 下段の右側は、 その中心線で領域を ND 9. 5と ND 6. 5の領域に分割し、 それぞれの同じ領域 (例:横軸 1 0の領域と 5 0の領域、 横軸 5 0の領域と 1 1 0の領域) の比を反射率としたもので ある (一方向反射率と記述)。 114523689170 (1 ooooooooooo表 3 )
No.l
光量ブロック平均分布
o
10 20 30 40 50 60 70 80 90 100 110
10 0.997 0.999 1.001 0.996 0.990 0.458 0.458 0.460 0.467 0.474
20 0.995 0.994 0.994 0.995 0.989 0.455 0.455 0.458 0.463 0.468
30 0.992 0.990 0.991 0.993 0.453 0.451 0.452 0.459 0.464
40 0.994 0.991 0.991 0.992 0.989 0.452 0.450 0.450 0.455 0.461
50 0.990 0.990 0.993 0.992 0.988 0.449 0.449 0.448 0.453 0.458
60 0.992 0.991 0.993 0.990 0.989 0.449 0.447 0.448 0.451 0.455
70 0.991 0.989 0.995 0.994 0.991 0.447 0.447 0.448 0.450 0.453
80 0.990 0.992 0.996 0.994 0.990 0.448 0.447 0.447 0.450 0.455
90 0.992 0.991 0.998 0.997 ο 0. cn992 0.448 0.446 0.447 0.451 0.454
100 0.994 0.992 1.001 1.001 0.997 0.448 0.445 0.448 0.451 0.456
110 0.993 0.997 1.001 0.996 0.448 0.445 0.448 0.452 0.460
C.V.(%) 0.33 C.V.(%) 1.40
Δ 0.013 Δ 0.030
No.l 対称反射率 一方向反射率
Figure imgf000020_0001
Figure imgf000020_0002
Figure imgf000020_0003
表 4は、表 3下段のような演算を 1 0測定分行なった場合の平均値(上 段) とばらつき (下段) を示している。 (表 4.)
Figure imgf000021_0001
同時再現性 1の結果に比べて、同時再現性 2の結果は C.V. (%) (変 化率:標準偏差/平均値) で約 2倍程度良好である。 これは同時再現性 1の測定では、 測定毎に被写体を手で交換しなければならないのに対し て、 同時再現性 2の測定では全く手を触れる必要がなかったためである と考えられる。 つまり、 同時再現性 2の結果は純粋な CMOSエリアセ ンサの撮像再現性に近いものであるとも考えられる。
(反射率直線性)
精度管理された既存の分光色測計 (M I NOLTA CM— 5 0 3 c :エリアセンサを用いたものではない) にて、 異なる反射率の NDぺ ーパを複数種類測定し、 本発明の実施例の反射率測定装置との相関を検 証した。
あらかじめ、 分光色測計により対象とする複数種の NDぺーパの反射 率を測定しておく。 反射率は NDぺーパ上の無作為な位置 5点について 測定し、 平均したものを用いる。
( 1) L E D 4の電流値を 0 mAにし、 ダーク (オフセット) 画像を 撮像する。
(2) あらかじめ分光色測計にて計測しておいた NDぺーパを撮像す る。
(3) 第 6図に示されるように、 各画像の一様に分布した 5点 (ピク セル) について光むら捕正を行なう。
第 1 1図のグラフは、 横軸が分光色測計で測定した値、 縦軸が本発明 により第 6図で示す各画像の 5点 (ピクセル) を光むら補正してプロッ トしたものである。
第 1 1図のグラフの結果は領域平均ではなくピクセル単位での結果を 示しているが、 光軸に近いピクセル点 3 ( 9 6 , 3 2) などの直線性は 良好であるといえる。 点 1 (3 2, 3 2) は 5つのピクセルの中では最 も暗い値を示す (生データにて) ピクセルであるが、 直線性は 5つのピ クセルの中で最も劣っている。 この実験からも、 光軸から離れた部分の 光むら捕正が難しいことが読み取れる。
(温度特性)
実施例の反射率測定装置の温度特性を把握するための測定を行なった。 以下の操作を 1 0°C、 20°C、 3 0°Cの各環境でシステム (電源 ON 状態) を十分になじませた後行なう。 ND 9. 5 (反射率実測値 8 7. 0 0%) と ND 6. 5 (反射率実測値 3 6. 2 1 %) が画角に半分づっ 入るようにベースプレートに貼り付けたものを被測定物とする。
( 1) L E D 4の電流値を 0 mAにし、 ダーク (オフセッ ト) 画像を 撮像する。
(2)各環境温度で LED 4の電流値を( 1 0°C: 1 6. 52 (mV)、 20 °C: 1 7. 20 (mA), 30 °C: 1 7. 9 5 (mA)) にセットし、 光検出器 10が検知する LED光量が(1 0°C: 0. 788 (V)、 20°C: 0. 786 (V)、 30°C: 0. 783 (V)) を超えるのを待つ。
(3) (2) の条件を満たした直後、 撮像する。 以上の作業を 1 0回繰 り返す。
表 5は各 1 0回の測定による各温度での全領域平均反射率の結果を示 したものである。 S. D. は標準偏差を表わす。
(表 5)
平均反射率 (%) 温度特性
Figure imgf000023_0001
この結果から、 環境温度による影響はほとんどなく、 およそ 0. 28 (%/ 1 0°C) の程度の温度傾向であった。
(ドリフト特性)
使用状態 (時間、 温度を含む) における、 実施例の反射率測定装置の ドリフト傾向を把握するための測定を行なった。
(1)実施例の反射率測定装置の主なュニット(ドライブ回路 20内、 LED4付近、 エリアセンサ 8付近) に熱電対を装着して温度をモニタ できるようにする。 (2)反射率測定装置を電源 OF Fの状態で十分に環境になじませる。
(3) 1^£04の電流値を0!11¥にし、 ダーク (オフセット) 画像を 撮像する。
(4) LED 4の電流値を 1 7. 3 (mV) にセッ ト し、 光検出器 1 0が検知する L E D光量が 0. 789 (V) を超えるのを待つ。
(5) (2) の条件を満たした直後、' 3回撮像する。
(6) (3) 〜 (5) の処理を 1 0分おきに繰り返し、 モユタしている ュ-ット温度が全て平衡になるまで行なう。
第 1 2図のグラフは、 実施例の反射率測定装置の主なュュッ ト (ドラ イブ回路 20付近、 LED 4付近、エリアセンサ 8付近) の時間経過(1 0分おき) と温度の関係を示している。
第 1 3図のグラフは 1 0分おきに 3回ずつ測定した反射率の結果をプ 口ットしたものである。
第 1 2図、 第 1 3図の結果から、 使用環境 (温度、 時間を含む) にお けるドリフト現象は確認できず、 仮りに存在するとしても、 同時測定毎 に発生するばらつきの中に包含される程度である。
以上の検証の結果、 実施例の反射率測定装置は、 同時再現性 (n= l 0) では、 C. V. =0. 23% (反射率 45%付近にて)、 温度特性と しては反射率 45%付近において、 およそ 0. 28 {%/ 10°C)、 使用 状態 (時間、 温度を含む) においてドリ フ トの傾向はほとんど見られな いことが確認された。
実施例で使用した CMO Sエリアセンサは、 尿試験紙の測定機など半 定量レベルの測定には十分適用できることが判明した。 [実施例 2]
第 2の実施例として、 センサとしてエリアセンサを使用し、 本発明の 第 2の局面による出力補正方法を適用した二次元の反射率測定装置の一 例の概要を第 1 4図に示す。
第 1図の反射率測定装置と比較すると、 光量をモニタする光検出器 1 0が配置されていない点で異なる。 他の構成は基本的に同じである。 被 測定物 2の反射光が反射板 5を介してレンズ 6によりエリアセンサ 8 a に結像される。 エリアセンサ 8 aは第 1図における増幅器 2 2まで含ん だものを示している。 エリアセンサ 8 aの検出信号は AZ D変換器 2 4 を経て演算部 2 8 aに取り込まれる。 演算部 2 8 aは、 第 1図における R A M 2 6とパソコン 2 8に該当するものである。 演算部 2 8 aには、 表示器 3 0、 キーボード 3 2、 プリンタ 3 4が接続されている。 3 6は 取り込んだ画像データを保存するイメージ保存部であり、 例えばハード ディスク装置により構成される。 演算部 2 8 aで算出された反射率を濃 度に変換するために検量線データ 4 0がハードディスク装置やフロッピ 一ディスク装置に保存されている。
演算部 2 8 aのデータ処理結果は外部出力 3 8として必要な外部機器 に取り出すことができる。
この実施例ではエリアセンサ 8 aの出力と被測定物 2の反射率との関 係を直線化データとして取得するために、 被測定物 2として反射率が既 知の標準板を測定する。 標準板としては N Dペーパーを使用し、 反射率 が最も大きいものから最も小さいものまで 1 1段階のものを用意する。 それらの標準板を被測定物 2として測定した結果をエリアセンサ 8 a の出力とともに示したものが第 1 5図である。 縦軸は出力を表わし、 横 軸は各標準板を反射率の大きいものから順に並べたものである。 各標準 板の出力データは光むら補正処理を施していないので湾曲したものとな つている。
エリアセンサ 8 aの 1つのピクセルについて反射率と出力の関係を示 したものが第 1 6図である。 縦軸はェリアセンサ 8 aの出力を表わし、 横軸は標準板の既知の反射率を表している。 エリアセンサ 8 aは受光量 に対して出力が非直線性を持っているので、 この曲線は S字型を示して おり、 第 3図に示したものと同じことを意味している。
エリアセンサ 8 aの各ピクセルについて第 1 6図に示されるようなデ ータをピクセルごとの直線化データとして保持しておく。
反射率が未知の試料を測定したとき、 各ピクセルについてそれぞれの 直線化データを用いてその出力から第 1 6図中に矢印で示されるように 反射率を求める。 反射率はこの直線化データの実測点の間を補間するこ とにより得られる。
このようにして得られた未知試料の反射率は、 光源による照射むらや レンズ、 エリアセンサ 8 aの非直線性を含めて補正された反射率データ となり、 直線性を持った反射率的データとなる。
この動作を第 1 7図と第 1 8図により改めて説明する。
第 1 7図は直線化データを得るための手順を示したものである。 基準 板として反射率の異なる N種類のものを用意する。 反射率は 1 0 0 %か ら 0まで 1 0 %単位で変化している 1 1種類である。 1つの基準板を被 測定物 2の位置に置き、 エリアセンサ 8 aにより撮像する。 そのときの その基準板の既知の反射率 r と撮像データを記憶する。 この動作を全て の基準板について繰り返す。
これにより撮像データの各ピクセルの出力と反射率の関係を示す第 1 6図の直線化データがピクセルごとに得られる。
第 1 8図の操作では、 反射率が未知の試料を被測定物の位置に置き、 エリアセンサ 8 aで撮像する。 その撮像結果から、 ピクセルの位置を示 す座標 (X , y ) について、 各ピクセルの出力データから第 1 6図に矢 印で示されるように反射率を求める。 この動作を全ピクセルについて行 Ό。
[実施例 3 ]
第 3の実施例として、 本発明の第 3の局面による出力補正方法をセン サとしてエリアセンサを使用して説明する。
用いる反射率測定装置は第 1 4図に示されたものと同じである。
この実施例ではエリアセンサ 8 aとして受光する露光時間がプロダラ ム可能なものを使用する。 そのようなエリアセンサとしては、 例えば、 第 1図の実施例で使用した三菱製 C M O Sイメージセンサ (H 6 4 2 8 3 F P ) を使用する。 しかし、 用いるエリアセンサ 8 aは、 C M O Sィ メージセンサに限らず、 C C Dイメージセンサでも露光時間がプロダラ ム可能なものであれば、 使用することができる。
ェリァセンサ 8 aの出力は受光量に対して直線性を持っていないが、 受光量は露光時間に比例する。 また、 受光量は反射率に比例するので、 1つの基準板を使用して露光時間を異ならせることにより、 基準板を共 通に使用しても露光時間を変えることによって反射率の異なる基準板を 用いた測定と等価な結果を得ることができる。
第 1 4図における被測定物 2の位置に基準板となる白板を載置する。 まず基準の露光時間で測定する。次に被測定物の白板はそのままにして、 露光時間を基準の露光時間の 9 0 %に下げて同じ測定を行う。 同様にし て 8 0 %、 7 0 %…というように露光時間を変化させていく。
第 1 9図はそのように露光時間を減少させていったときのェリアセン サ 8 aの出力 (縦軸) と露光時間 (横軸。 右側ほど露光時間が短い) を 示したものである。 この場合もェリァセンサ 8 a内での光むら補正を行 つていないので、 ピクセル間での出力は変動している。
各ピクセルについて出力と露光時間の関係を図示すると、 第 2 0図の ようになり、 この結果は第 1 6図及び第 3図と同じものである。 各ピク セルについて第 2 0図のデータを直線化データとして記憶しておく。 第 2 1図はこの直線化データを取得する手順をまとめて示したもので ある。 基準白板を被測定物 2としてセッ トし、 基準露光時間 tをセッ ト する。 その露光時間で照射し、 エリアセンサ 8 aによる撮像を行ない、 露光時間 tと撮像データを記憶する。 .
次に、 露光時間を 1 0 %減少して同じ測定を繰り返す。 このように、 露光時間が順次減少するように設定して繰り返して測定していき、 各ピ クセルについてセンサ出力と露光時間の関係を図示したものが第 2 0図 である。 横軸の露光時間は反射率に該当している。
第 2 2図は反射率が未知の試料を測定したときの手順を示したもので あり、 第 1 8図に示した手順と同じである。 この実施例ではピクセルご とに反射率に該当する露光時間が得られる。
この実施例において捕正後のデータの精度を確認した。 反射率が既知 の複数の被写体を測定した。 エリアセンサ 8 aの中央部と周辺部の各位 置でのピクセルを第 2 3図のように選び出し、 それぞれのピクセルにお ける捕正された出力と反射率の関係を第 2 4図に示す。 各位置でのピク セルの出力は、 1個のピクセルの出力であってもよく、 その位置周辺で の幾つかのピクセルの出力の平均値であってもよい。 直線は全ピクセル の平均値である。 第 2 4図で、 横軸は既知の反射率、 縦軸は補正された 出力である。
第 2 4図の結果から、 エリァセンサ 8 a内のピクセルの位置にかかわ らず、 照射むらやレンズ、 エリアセンサの非直線性を含めて直線的な反 射率的値に補正されていることがわかる。 産業上の利用可能性
本発明の補正方法は、 試薬部を支持体に設けた試験片を用いる ドライ ケミス トリ分析計を初め、 種々の分析計におけるセンサ出力の補正方法 として、 臨床検査、 食品分析、 化学分析などの多くの分野で利用するこ とができる。

Claims

請 求 の 範 囲
1 . 被測定物に光を照射しその被検出部からの光をセンサで受光し て測定する方法において、
前記センサは受光する光量に対して出力が直線性をもたないものであ 前記センサの受光量を変化させたときの前記センサからの出力が受光 量に比例するように前記センサの出力を補正する直線化処理工程を備え ていることを特徴とするセンサ出力の補正方法。
2 . 前記直線化処理工程は次の工程 (A) と (B ) を含んでいる請 求の範囲第 1項に記載のセンサ出力の補正方法。
(A ) 受光する光量に対して出力が直線性をもつ光検出器を別途設け、 前記センサに入射する光をその光検出器にも同時に入射させるとともに, その入射光量を変化させたときの前記センサの出力と前記光検出器の出 力との関係を直線化デ一夕として保持しておく工程、 及び
( B ) 被測定物を測定したときの前記センサの出力を前記直線化データ に基づいて前記光検出器の出力に比例するように補正する工程。
3 . 前記直線化処理工程は次の工程 (A) と (B ) を含んでいる請 求の範囲第 1項に記載のセンサ出力の補正方法。
(A) 発生する光が既知で互いに異なる複数の標準板を用意し、 それら の標準板を測定したときの前記センサの出力と標準板からの光との関係 を直線化データとして保持しておく工程、 及び
( B ) 被測定物を測定したときの前記センサの出力を前記直線化データ に基づいて前記標準板からの光に比例するように補正する工程。
4 . 前記直線化処理工程は次の工程 (A) と (B ) を含んでいる請 求の範囲第 1項に記載のセンサ出力の補正方法。
( A ) 前記センサは露光時間の設定が可変なものであり、 1つの基準物 を測定する露光時間を複数段階に異ならせて測定したときの前記センサ の出力と露光時間との関係を、 露光時間に比例した基準物からの光に関 する直線化データとして保持しておく工程、 及び
( B ) 被測定物を測定したときの前記センサの出力を直線化データに基 づいて露光時間から導かれる基準物からの光に比例するように捕正する 工程。
5 . 前記センサがエリアセンサであり、 前記直線化処理工程をピク セルごとに行なう請求の範囲第 1項から第 4項のいずれかに記載のセン サ出力の補正方法。
6 . 前記センサがエリアセンサであり、 前記直線化処理工程を画像 内で最も明るいピクセル付近の幾つかのピクセルを選択して、 それらの ピクセルの出力の平均値を用いて行なう請求の範囲第 1項から第 4項の いずれかに記載のセンサ出力の補正方法。
7 . 前記エリァセンサとして C C D型又は C M O S型センサを用い る請求の範囲第 5項又は第 6項に記載のセンサ出力の補正方法。
8 . 前記センサの出力は、 受光量がゼロのときの出力をダークデー タとして差し引いたオフセット処理後の値である請求項第 1項から第 7 項のいずれかに記載のセンサ出力の補正方法。
9 . 被測定物として基準物を測定し、 そのときの前記エリアセンサ の各ピクセルの出力を前記直線化処理により補正したものが均一になる ように各ピクセルの出力を補正する光むら補正処理をさらに含んでいる 請求の範囲第 5項から第 8項のいずれかに記載のセンサ出力の補正方法 c
1 0 . 被測定物として基準物を測定し、 前記光むら補正処理はピク セルが飽和光量に達したときの受光量に対する飽和光量に近い一定割合 の受光量での画像データに対して行なう請求の範囲第 5項から第 9項の いずれかに記載のセンサ出力の補正方法。
1 1 . 前記基準物は面内の濃淡が均一な反射板又はブランクである 請求の範囲第 4項、第 9項又は第 1 0項に記載のセンサ出力の補正方法。
1 2 . 受光する光量に対して出力が直線性をもつ前記光検出器とし てフォトダイォードを用いる請求の範囲第 2項に記載のセンサ出力の補 正方法。
PCT/JP2001/009850 2000-11-10 2001-11-09 Procede de correction de sortie de capteur WO2002039076A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002541352A JP3754989B2 (ja) 2000-11-10 2001-11-09 センサ出力の補正方法
AU2002214275A AU2002214275A1 (en) 2000-11-10 2001-11-09 Method for correcting sensor output
US10/415,991 US7110901B2 (en) 2000-11-10 2001-11-09 Correction method for sensor output
EP01982755.9A EP1333258B1 (en) 2000-11-10 2001-11-09 Method for correcting sensor output

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-343365 2000-11-10
JP2000343365 2000-11-10

Publications (1)

Publication Number Publication Date
WO2002039076A1 true WO2002039076A1 (fr) 2002-05-16

Family

ID=18817743

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/009850 WO2002039076A1 (fr) 2000-11-10 2001-11-09 Procede de correction de sortie de capteur

Country Status (6)

Country Link
US (1) US7110901B2 (ja)
EP (1) EP1333258B1 (ja)
JP (1) JP3754989B2 (ja)
CN (1) CN1241000C (ja)
AU (1) AU2002214275A1 (ja)
WO (1) WO2002039076A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515889A (ja) * 2007-01-09 2010-05-13 ウォルフガング ウィンホールド 物体の検査方法及び検査装置
DE102017215682A1 (de) 2016-09-09 2018-03-15 Otsuka Electronics Co., Ltd. Optisches Messverfahren und optische Messvorrichtung

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3026874B1 (en) * 2005-04-01 2019-11-06 Polymer Technology Systems, Inc. Body fluid testing component for analyte detection
US7208735B2 (en) * 2005-06-08 2007-04-24 Rosemount, Inc. Process field device with infrared sensors
EP2073055A1 (en) * 2007-12-20 2009-06-24 TPO Displays Corp. Detection of an incident light distribution
JP5275956B2 (ja) * 2009-10-15 2013-08-28 株式会社ジャパンディスプレイウェスト 情報入力装置、情報入力プログラムおよび電子機器
JP5387979B2 (ja) * 2009-12-20 2014-01-15 独立行政法人産業技術総合研究所 リニアリティ検査装置及びリニアリティ検査方法
US20140152771A1 (en) * 2012-12-01 2014-06-05 Og Technologies, Inc. Method and apparatus of profile measurement
CN103925992B (zh) * 2013-01-16 2016-03-16 光宝电子(广州)有限公司 具有背光的装置的亮度测量方法及系统
CN104019902B (zh) * 2014-06-16 2016-09-28 武汉工程大学 家用试纸阅读器装置及其检测方法
CN106197667A (zh) * 2016-07-12 2016-12-07 江苏浦亚照明科技股份有限公司 一种微型多通道光谱仪及其探测器的非线性修正方法
DE102017110269A1 (de) * 2017-05-11 2018-11-15 B. Braun Avitum Ag Online Linearisierung eines optischen Sensors
US10429174B2 (en) * 2017-12-20 2019-10-01 Texas Instruments Incorporated Single wavelength reflection for leadframe brightness measurement
CN109668847A (zh) * 2019-02-14 2019-04-23 杭州霆科生物科技有限公司 一种具有光学自校准功能的农残速测仪
US11733605B2 (en) * 2019-06-20 2023-08-22 Kla Corporation EUV in-situ linearity calibration for TDI image sensors using test photomasks
CN110519516B (zh) * 2019-08-30 2020-09-25 联想(北京)有限公司 一种图像噪点的处理方法、装置及电子设备
CN111256744B (zh) * 2020-02-27 2021-06-29 苏州海之博电子科技有限公司 一种线性输出位置传感器标定方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03204285A (ja) * 1989-12-29 1991-09-05 Nec Corp 固体撮像素子感度むら補正回路
JPH03289777A (ja) * 1990-04-05 1991-12-19 Nec Corp 赤外線撮像装置
JPH05297142A (ja) * 1992-04-21 1993-11-12 Toshiba Corp シンチレ―ションカメラ
JPH08128922A (ja) * 1994-10-31 1996-05-21 Asahi Optical Co Ltd デジタルデータ処理装置
WO1997048225A1 (en) 1996-06-14 1997-12-18 Simage Oy Calibration method and system for imaging devices
US5902994A (en) 1997-05-06 1999-05-11 Eastman Kodak Company Apparatus for calibrating a linear image sensor
JPH11249004A (ja) * 1998-03-02 1999-09-17 Nikon Corp イメージセンサ
JPH11329340A (ja) * 1998-05-12 1999-11-30 Hamamatsu Photonics Kk 光量検出装置
JP2000013807A (ja) * 1998-06-24 2000-01-14 Seiko Epson Corp デジタルカメラ

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5229838A (en) * 1992-01-21 1993-07-20 The Perkin-Elmer Corporation Photodetector amplitude linearity
JPH06225143A (ja) 1993-01-27 1994-08-12 Tokyo Electric Co Ltd 画像読取装置
US6147702A (en) 1998-04-17 2000-11-14 Intel Corporation Calibration of digital cameras
AU2002212752A1 (en) * 2000-11-10 2002-05-21 Arkray, Inc. Measuring method and instrument comprising image sensor

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03204285A (ja) * 1989-12-29 1991-09-05 Nec Corp 固体撮像素子感度むら補正回路
JPH03289777A (ja) * 1990-04-05 1991-12-19 Nec Corp 赤外線撮像装置
JPH05297142A (ja) * 1992-04-21 1993-11-12 Toshiba Corp シンチレ―ションカメラ
JPH08128922A (ja) * 1994-10-31 1996-05-21 Asahi Optical Co Ltd デジタルデータ処理装置
WO1997048225A1 (en) 1996-06-14 1997-12-18 Simage Oy Calibration method and system for imaging devices
US5902994A (en) 1997-05-06 1999-05-11 Eastman Kodak Company Apparatus for calibrating a linear image sensor
JPH11249004A (ja) * 1998-03-02 1999-09-17 Nikon Corp イメージセンサ
JPH11329340A (ja) * 1998-05-12 1999-11-30 Hamamatsu Photonics Kk 光量検出装置
JP2000013807A (ja) * 1998-06-24 2000-01-14 Seiko Epson Corp デジタルカメラ

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515889A (ja) * 2007-01-09 2010-05-13 ウォルフガング ウィンホールド 物体の検査方法及び検査装置
DE102017215682A1 (de) 2016-09-09 2018-03-15 Otsuka Electronics Co., Ltd. Optisches Messverfahren und optische Messvorrichtung
US10429238B2 (en) 2016-09-09 2019-10-01 Otsuka Electronics Co., Ltd. Optical measurement method and optical measurement apparatus

Also Published As

Publication number Publication date
AU2002214275A1 (en) 2002-05-21
EP1333258B1 (en) 2013-08-21
US7110901B2 (en) 2006-09-19
JP3754989B2 (ja) 2006-03-15
CN1241000C (zh) 2006-02-08
EP1333258A4 (en) 2011-04-06
JPWO2002039076A1 (ja) 2004-03-18
EP1333258A1 (en) 2003-08-06
CN1474937A (zh) 2004-02-11
US20040034494A1 (en) 2004-02-19

Similar Documents

Publication Publication Date Title
JP3754989B2 (ja) センサ出力の補正方法
US7489396B1 (en) Spectrophotometric camera
US7928354B2 (en) Methods and systems for in situ calibration of imaging in biological analysis
JP3774192B2 (ja) イメージセンサを用いた測定方法及び装置
CA2521857A1 (en) Method and apparatus for quantifying visual showthrough of printed images on the reverse of planar objects
JP2007078517A (ja) 表面平滑性測定装置
EP1914529B1 (en) Method for analyzing the apparent colour and the gonio reflectance of an object
JP2004191232A5 (ja)
US4408883A (en) Apparatus for inspecting average size of fundamental patterns
CN111323423A (zh) 缺陷检测装置及缺陷检测方法
JP2009109315A (ja) 光計測装置及び走査光学系
TWI719610B (zh) 以彩色相機進行光譜分析之方法
JP2015178995A (ja) 色調校正装置、撮像装置及び色調検査装置
JP2001289732A (ja) 表示画面の色情報検出方法及び表示色評価方法及びその装置並びに表示装置の製造方法及び表示装置
Liu The development of a portable spectrophotometer for noncontact color measurement
JPH06207857A (ja) 色彩計測装置
JP2009222607A (ja) 試料分析装置の照明制御方法および試料分析装置
JPS6034699B2 (ja) 硬さ試験機
JP2005062095A (ja) 反射光測定装置及び反射光測定方法
US20220283088A1 (en) Viral load tester and applications thereof
JPH0540422Y2 (ja)
CN115031934A (zh) 一种图像传感器光谱响应度的测量装置和方法
GB2391305A (en) Colour Sensor
JP2001242092A (ja) 評価装置
JPH0783095B2 (ja) 固体撮像素子の検査方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2002541352

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 10415991

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2001982755

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 018186831

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2001982755

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642