WO2020262092A1 - 光学測定装置及び光学測定システム - Google Patents

光学測定装置及び光学測定システム Download PDF

Info

Publication number
WO2020262092A1
WO2020262092A1 PCT/JP2020/023499 JP2020023499W WO2020262092A1 WO 2020262092 A1 WO2020262092 A1 WO 2020262092A1 JP 2020023499 W JP2020023499 W JP 2020023499W WO 2020262092 A1 WO2020262092 A1 WO 2020262092A1
Authority
WO
WIPO (PCT)
Prior art keywords
fluorescence
pixel
image sensor
wavelength
optical measuring
Prior art date
Application number
PCT/JP2020/023499
Other languages
English (en)
French (fr)
Inventor
務 丸山
原 雅明
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/620,102 priority Critical patent/US20220247962A1/en
Priority to JP2021528241A priority patent/JP7501532B2/ja
Publication of WO2020262092A1 publication Critical patent/WO2020262092A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1434Optical arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • C12M1/34Measuring or testing with condition measuring or sensing means, e.g. colony counters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/44Electric circuits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2803Investigating the spectrum using photoelectric array detector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/44Raman spectrometry; Scattering spectrometry ; Fluorescence spectrometry
    • G01J3/4406Fluorescence spectrometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/02Investigating particle size or size distribution
    • G01N15/0205Investigating particle size or size distribution by optical means
    • G01N15/0227Investigating particle size or size distribution by optical means using imaging; using holography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1425Optical investigation techniques, e.g. flow cytometry using an analyser being characterised by its control arrangement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • G01N15/1433Signal processing using image recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1468Optical investigation techniques, e.g. flow cytometry with spatial resolution of the texture or inner structure of the particle
    • G01N15/147Optical investigation techniques, e.g. flow cytometry with spatial resolution of the texture or inner structure of the particle the analysis being performed on a sample stream
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/01Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials specially adapted for biological cells, e.g. blood cells
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N2015/1006Investigating individual particles for cytology
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N2015/1493Particle size
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N2021/6417Spectrofluorimetric devices
    • G01N2021/6421Measuring at two or more wavelengths

Definitions

  • the present disclosure relates to an optical measuring device and an optical measuring system.
  • FCM flow cytometer
  • microparticles flowing in a row in a flow path are irradiated with laser light of a specific wavelength, and light such as fluorescence, forward scattered light, or lateral scattered light emitted from each microparticle is emitted.
  • the type, size, structure, etc. of individual fine particles are determined by converting them into electrical signals with a detector, digitizing them, and performing statistical analysis on the results.
  • the optical measuring device of one form according to the present disclosure receives and fluoresces a spectroscopic optical system that disperses fluorescence emitted from a biological sample and the fluorescence dispersed by the spectroscopic optical system.
  • the image sensor includes an image sensor that generates information, and the image sensor is divided into a plurality of regions that receive different wavelength components of the fluorescence and generate fluorescence information for each of the wavelength components.
  • FIG. 1 It is a schematic diagram which shows the schematic configuration example of the flow cytometer which concerns on 1st Embodiment. It is a schematic diagram which shows an example of the spectroscopic optical system in FIG. It is a block diagram which shows the schematic structure example of the image sensor which concerns on 1st Embodiment. It is a figure which shows an example of the positional relationship between a pixel array part and a detection circuit array in FIG. It is a figure which shows an example of the connection relationship between a pixel and a detection circuit in FIG. It is a circuit diagram which shows the circuit structure example of the pixel which concerns on 1st Embodiment. It is a timing chart which shows the operation example of the pixel which concerns on 1st Embodiment.
  • Timing chart which shows the operation example of the pixel which concerns on the modification of 1st Embodiment. It is a timing chart for demonstrating the operation example of the pulse light detection in the flow cytometer which concerns on 1st Embodiment. It is a figure which shows an example of the relationship between the position on the pixel array part and the wavelength of the dispersed light which concerns on 1st Embodiment. It is a figure which shows the example of the case where the image sensor which concerns on 1st Embodiment is made into a multi-channel. It is a figure which shows the spectrum of the fluorescence emitted from four kinds of fluorescent dyes excited by the excitation light of a wavelength 488 nm.
  • FIG. 1 shows an example of the virtual filter which concerns on 1st Embodiment realized with respect to the fluorescence shown in FIG.
  • FIG. 2nd Embodiment It is a block diagram which shows the schematic structure example of the optical measuring apparatus (system) which concerns on 2nd Embodiment.
  • the fluorescence amount of each fine particle is analyzed by extracting the fluorescence measured from the fine particles (also referred to as a sample or a biological sample) using the spectral information of the fluorescence marker used for staining.
  • an array type photodetector for spectrum detection is provided instead of the photodetector in which as many as the number of fluorescence markers are arranged in the conventional flow cytometer.
  • a multi-channel PMT in which a plurality of photomultiplier tubes are arranged in an array is used.
  • the number of channels in a multi-channel PMT is determined based on the wavelength width and wavelength resolution required to reproduce all fluorescence spectrum information excited by a laser beam of a certain wavelength. For example, assuming that the wavelength width required to reproduce the fluorescence spectrum information is about 300 nm, which is 500 to 800 nm, and the required wavelength resolution is about 9 to 10 nm, the number of channels of the multi-channel PMT is 30 to 32 channels. Set to degree.
  • wavelength widths and wavelength resolutions can be changed to some extent by optical design, it is difficult to easily change them after the device is commercialized because optical adjustment or the like is required.
  • a plurality of channels corresponding to the optimum wavelength width for fluorescence from each fluorescence marker are collectively signal-processed on the software.
  • a two-dimensional image sensor is used for the array type photodetector. Since the two-dimensional image sensor is smaller than the multi-channel PMT, it is possible to reduce the overall device scale.
  • the two-dimensional image sensor has more detection units than the multi-channel PMT, the wavelength resolution is fine and it is possible to acquire fluorescence spectrum information with high resolution. Therefore, it is possible to improve the reproducibility of the optical filter characteristics.
  • the optical measuring device and the optical measuring system according to the first embodiment will be described in detail with reference to the drawings.
  • the flow cytometer according to the present disclosure is not limited to the single spot type, and may be various flow cytometers such as a multi-spot type.
  • the single spot type means that there is one irradiation spot of the laser beam (excitation light)
  • the multi-spot type means that there are a plurality of irradiation spots.
  • the flow cytometer is classified into a cell analyzer type and a cell sorter type depending on whether or not it has a function of collecting a sample after the test, and the flow cytometer according to the present embodiment is either of them. You may.
  • FIG. 1 is a schematic diagram showing a schematic configuration example of the flow cytometer as the optical measuring device or the optical measuring system according to the first embodiment.
  • FIG. 2 is a schematic view showing an example of the spectroscopic optical system in FIG.
  • the flow cytometer 11 includes a flow cell 31, an excitation light source 32, a photodiode 33, a spectroscopic optical system 37, an individual image sensor (hereinafter referred to as an image sensor) 34, and a condenser lens 35. And 36.
  • a cylindrical flow cell 31 is provided in the upper part of the drawing, and the sample tube 51 is interpolated in the flow cell 31 substantially coaxially.
  • the flow cell 31 is a flow path through which the sample 53 flows, and has a structure in which the sample flow 52 flows downward in the drawing, and further, the sample 53 composed of cells or the like is discharged from the sample tube 51.
  • the sample 53 rides on the sample stream 52 in the flow cell 31 and flows down in a line.
  • the excitation light source 32 is, for example, a laser light source that emits excitation light 71 having a single wavelength, and irradiates the excitation light 71 to an irradiation spot 72 set at a position where the sample 53 passes.
  • the excitation light 71 may be continuous light or pulsed light having a certain long time width.
  • the sample 53 scatters the excitation light 71 and excites the sample 53 and the fluorescent marker attached to the sample 53.
  • the component that goes in the direction opposite to the excitation light source 32 across the irradiation spot 72 is referred to as the forward scattered light 73.
  • the scattered light also includes a component that goes away from the straight line connecting the excitation light source 32 and the irradiation spot 72 and a component that goes from the irradiation spot 72 to the excitation light source 32.
  • lateral scattered light a component that goes away from the straight line connecting the excitation light source 32 and the irradiation spot 72 and heads in a predetermined direction (hereinafter referred to as lateral) is referred to as lateral scattered light, and the excitation light source from the irradiation spot 72
  • backward scattered light a component that goes away from the straight line connecting the excitation light source 32 and the irradiation spot 72 and heads in a predetermined direction
  • the excited sample 53, the fluorescence marker, or the like when the excited sample 53, the fluorescence marker, or the like is deexcited, fluorescence having a wavelength peculiar to the atoms or molecules constituting them is emitted.
  • This fluorescence is radiated from the sample 53, the fluorescence marker, etc. in all directions, but in the configuration shown in FIG. 1, the components radiated from the irradiation spot 72 in a specific direction (sideways) are analyzed.
  • the target fluorescence is 74.
  • the light emitted laterally from the irradiation spot 72 includes laterally scattered light and the like in addition to fluorescence, but in the following, for simplification of the description, light components and the like other than the fluorescence 74 are appropriately omitted. ..
  • the forward scattered light 73 that has passed through the irradiation spot 72 is converted into parallel light by the condenser lens 35, and then the photo is arranged on the opposite side of the irradiation spot 72 from the excitation light source 32 at an angle slightly deviated from the optical axis. It is incident on the diode 33.
  • the fluorescence 74 is converted into parallel light by the condenser lens 36 and then incident on the spectroscopic optical system 37.
  • Each of the condenser lenses 35 and 36 may include other optical elements such as a filter that absorbs a specific wavelength and a prism that changes the traveling direction of light.
  • the condenser lens 36 may include an optical filter that reduces the laterally scattered light among the incident side scattered light and the fluorescence 74.
  • the spectroscopic optical system 37 includes, for example, one or more optical elements 371 such as a prism and a diffraction grating, and emits incident fluorescence 74 toward different angles for each wavelength.
  • the light is dispersed on the dispersed light 75.
  • the spreading direction H1 of the dispersed light 75 that is, the spectral direction by the spectroscopic optical system 37 is the row direction in the pixel array unit 91 of the image sensor 34 described later.
  • the dispersed light 75 emitted from the spectroscopic optical system 37 is incident on the image sensor 34. Therefore, the image sensor 34 is incident with dispersed light 75 having different wavelengths depending on the position in the direction H1.
  • the forward scattered light 73 is light having a large amount of light
  • the side scattered light and fluorescence 74 are weak pulsed light generated when the sample 53 passes through the irradiation spot 72. Therefore, in the present embodiment, the timing at which the sample 53 has passed through the irradiation spot 72 is detected by observing the forward scattered light 73 with the photodiode 33.
  • the photodiode 33 constantly observes the forward scattered light 73 emitted from the irradiation spot 72. In that state, when the amount of light detected by the passage of the sample 53 is increased by the forward scattered light 73, the photodiode 33 generates a trigger signal indicating the passage of the sample 53 at the timing when the amount of light increases, and this trigger signal is generated. Is input to the image sensor 34.
  • the image sensor 34 is, for example, an image sensor composed of a plurality of pixels in which an AD (Analog to Digital) converter is built in the same semiconductor chip.
  • Each pixel has a photoelectric conversion element and an amplification element, and the photoelectrically converted charge is accumulated inside the pixel.
  • a signal reflecting the amount of accumulated charge (pixel signal, also referred to as pixel value) is amplified and output via an amplification element at a desired timing, and is converted into a digital signal by a built-in AD converter.
  • spectral type flow cytometer 11 that disperses the fluorescence 74 emitted from the sample 53 by wavelength has been illustrated, but the present invention is not limited to this, and for example, the fluorescence 74 may not be separated. It is possible. In that case, the spectroscopic optical system 37 may be omitted.
  • the forward scattered light 73 is used to generate the trigger signal
  • the present invention is not limited to this, and for example, side scattered light, backscattered light, fluorescence, or the like is used.
  • a trigger signal may be generated.
  • FIG. 3 is a block diagram showing a schematic configuration example of a CMOS (Complementary Metal-Oxide-Semiconductor) type image sensor according to the first embodiment.
  • FIG. 4 is a diagram showing an example of the positional relationship between the pixel array unit and the detection circuit array in FIG.
  • FIG. 5 is a diagram showing an example of the connection relationship between the pixel and the detection circuit in FIG.
  • the CMOS type image sensor is a solid-state image sensor (also referred to as a solid-state image sensor) created by applying or partially using a CMOS process.
  • the image sensor 34 according to the first embodiment may be a so-called back-illuminated type in which the incident surface is a surface (hereinafter referred to as a back surface) opposite to the element forming surface of the semiconductor substrate, or the front surface side. It may be a so-called surface irradiation type.
  • the size, number, number of rows, number of columns, etc. illustrated in the following description are merely examples and can be changed in various ways.
  • the image sensor 34 includes a pixel array unit 91, a connection unit 92, a detection circuit 93, a pixel drive circuit 94, a logic circuit 95, and an output circuit 96.
  • the pixel array unit 91 includes, for example, a plurality of pixels 101 arranged in a matrix of 320 pixels in the row direction H1 and 36 pixels in the column direction V1 (hereinafter referred to as 320 ⁇ 36 pixels).
  • the size of each pixel 101 on the array surface may be, for example, 15 ⁇ m (micrometer) ⁇ 15 ⁇ m. In that case, the opening of the pixel array portion 91 is 4.8 mm (millimeter) ⁇ 0.54 mm.
  • the pixel drive circuit 94 drives each pixel 101 to cause each pixel 101 to generate a pixel signal.
  • the logic circuit 95 controls the drive timing of the detection circuit 93 and the output circuit 96 in addition to the pixel drive circuit 94. Further, the logic circuit 95 and / or the pixel drive circuit 94 also functions as a control unit that controls the reading of the pixel signal to the pixel array unit 91 in accordance with the passage of the irradiation spot 72 by the sample 53.
  • the image sensor 34 may further include an amplifier circuit such as an operational amplifier that amplifies the pixel signal before AD conversion.
  • an amplifier circuit such as an operational amplifier that amplifies the pixel signal before AD conversion.
  • the fluorescence 74 emitted laterally from the irradiation spot 72 is collimated by the condenser lens 36 and then converted into dispersed light 75 by the spectroscopic optical system 37. Then, the dispersed light 75 is incident on different regions on the light receiving surface where the pixels 101 of the pixel array unit 91 are arranged.
  • a wavelength component determined by the position of the row direction H1 in the pixel array unit 91 is input to each pixel 101 of the pixel array unit 91.
  • a wavelength component determined by the position of the row direction H1 in the pixel array unit 91 is input to each pixel 101 of the pixel array unit 91.
  • the image sensor 34 of FIG. 2 light having a shorter wavelength is incident on the pixel 101 located on the right side, and light having a longer wavelength is incident on the pixel 101 located on the left side.
  • Each pixel 101 generates a pixel signal according to the amount of illuminated light.
  • the generated pixel signal is read by, for example, a detection circuit 93 provided one-to-one with respect to the pixel 101.
  • Each detection circuit 93 includes an AD converter and converts the read analog pixel signal into a digital pixel signal.
  • the plurality of detection circuits 93 are arranged in two groups (detection circuit arrays 93A and 93B) with respect to the pixel array unit 91, for example.
  • One detection circuit array 93A is arranged on the upper side in the column direction of the pixel array unit 91, for example, and the other detection circuit array 93B is arranged on the lower side in the column direction of the pixel array unit 91, for example.
  • a plurality of detection circuits 93 are arranged in one row or a plurality of rows along the row direction.
  • each detection circuit 93 of the detection circuit array 93A arranged on the upper side in the column direction of the pixel array unit 91 is connected to the upper half of the pixels 101 in the column direction of the pixel array unit 91 and is arranged on the lower side in the column direction.
  • Each detection circuit 93 of the detection circuit array 93B may be connected to the lower half of the pixel 101 in the column direction of the pixel array unit 91.
  • the present invention is not limited to this, and for example, each detection circuit 93 of the detection circuit array 93A is connected to the even-numbered row of pixels 101, and each detection circuit 93 of the detection circuit array 93B is connected to the odd-numbered row of pixels 101. It may be deformed.
  • a plurality of detection circuits 93 may be arranged in one row or a plurality of rows on one side (for example, the upper side in the column direction) of the pixel array unit 91.
  • the pixel array unit 91 36 pixels 101 are arranged in the column direction V1. Therefore, it is necessary to arrange 36 detection circuits 93 for one row of pixels. Therefore, as described above, when the detection circuits 93 are grouped into two detection circuit arrays 93A and 93B and the number of rows of each is one row, the 36 pixels 101 arranged in one column are each grouped. Eighteen detection circuits 93 may be arranged in each of the detection circuit arrays 93A and 93B.
  • the pixel signal read from each pixel 101 by the detection circuit 93 is converted into a digital pixel signal by the AD converter of each detection circuit 93. Then, the digital pixel signal is output to the external signal acquisition system 1 via the output circuit 96 as fluorescence information (corresponding to fluorescence spectrum information; hereinafter referred to as spectrum image) indicating information for each wavelength of the fluorescence 74. ..
  • the signal acquisition system (also referred to as a signal acquisition unit) 1 evaluates, for example, the spectrum image input from the image sensor 34, and inputs the evaluation value as a result to the analysis system 2. For example, the signal acquisition system 1 divides the spectrum image into a plurality of regions (corresponding to channel regions described later) arranged along the row direction H1 and adds up the pixel values of the pixels included in each region. Calculate the evaluation value of the spectral image (corresponding to the multi-channel analysis described later). Further, the signal acquisition system 1 adds up the pixel values of the pixels included in each of one or more regions (corresponding to a virtual filter described later) set in advance or arbitrarily set by the user to obtain a spectrum image. It may have a so-called virtual filter function for calculating an evaluation value.
  • Such a signal acquisition system 1 may be a DSP (Digital Signal Processor), an FPGA (Field-Programmable Gate Array), or the like provided in or outside the same chip as the image sensor 34, or may be a bus to the image sensor 34. It may be an information processing device such as a personal computer connected via a network or a network.
  • DSP Digital Signal Processor
  • FPGA Field-Programmable Gate Array
  • the analysis system 2 executes various analysis processes based on the evaluation value input from the signal acquisition system 1. For example, the analysis system 2 acquires information such as the type, size, and structure of the sample 53 based on the evaluation value. Further, the analysis system 2 may display the spectrum image and the evaluation value to the user and provide a UI (user interface) as an analysis tool.
  • Such an analysis system 2 may be, for example, an information processing device such as a personal computer connected to the signal acquisition system 1 via a bus or a network.
  • FIG. 6 is a circuit diagram showing an example of a pixel circuit configuration according to the first embodiment.
  • the pixel 101 includes a photodiode (also referred to as a photoelectric conversion element) 111, a storage node 112, a transfer transistor 113, an amplification transistor 114, a reset transistor 116, and a floating diffusion layer (Floating Diffusion:). FD) 117 and the like.
  • a photodiode also referred to as a photoelectric conversion element
  • storage node 112 a transfer transistor 113
  • an amplification transistor 114 a reset transistor 116
  • FD floating diffusion layer
  • a circuit composed of a photodiode 111, a transfer transistor 113, an amplification transistor 114, a reset transistor 116, and a floating diffusion layer 117 is also referred to as a pixel circuit. Further, the configuration of the pixel circuit excluding the photodiode 111 is also referred to as a readout circuit.
  • the photodiode 111 converts photons into electric charges by photoelectric conversion.
  • the photodiode 111 is connected to the transfer transistor 113 via the storage node 112.
  • the photodiode 111 generates a pair of electrons and holes from photons incident on the semiconductor substrate on which it is formed, and stores the electrons in the storage node 112 corresponding to the cathode.
  • the photodiode 111 may be of a so-called embedded type in which the storage node 112 is completely depleted when the charge is discharged by resetting.
  • the transfer transistor 113 transfers the electric charge from the storage node 112 to the floating diffusion layer 117 under the control of the row drive circuit 121.
  • the floating diffusion layer 117 accumulates electric charges from the transfer transistor 113, and generates a voltage having a voltage value corresponding to the amount of the accumulated electric charges. This voltage is applied to the gate of the amplification transistor 114.
  • the reset transistor 116 initializes by discharging the electric charge accumulated in the storage node 112 and the floating diffusion layer 117 to the power supply 118.
  • the gate of the reset transistor 116 is connected to the row drive circuit 121, the drain is connected to the power supply 118, and the source is connected to the stray diffusion layer 117.
  • the row drive circuit 121 controls the reset transistor 116 and the transfer transistor 113 to be on, pulls out the electrons stored in the storage node 112 to the power supply 118, and brings the pixels 101 into a dark state before storage, that is, The light is initialized to the non-incident state. Further, the row drive circuit 121 pulls out the electric charge accumulated in the floating diffusion layer 117 to the power supply 118 by controlling only the reset transistor 116 to be in the ON state, and initializes the electric charge amount.
  • the amplification transistor 114 amplifies the voltage applied to the gate and causes it to appear in the drain.
  • the gate of the amplification transistor 114 is connected to the floating diffusion layer 117, the source is connected to the power supply, and the drain is connected to the vertical signal line 124.
  • the amplification transistor 114 and the constant current circuit 122 form a source follower circuit.
  • the amplification transistor 114 amplifies the voltage of the floating diffusion layer 117 with a gain of a little less than 1 and causes it to appear on the vertical signal line 124.
  • the voltage appearing on the vertical signal line 124 is read out as a pixel signal by the detection circuit 93 including the AD conversion circuit.
  • the pixel 101 having the above configuration accumulates the electric charge generated by the photoelectric conversion internally during the period from the resetting of the photodiode 111 to the reading of the pixel signal. Then, when the pixel signal is read out, the pixel signal corresponding to the accumulated charge appears on the vertical signal line 124.
  • the row drive circuit 121 in FIG. 6 is, for example, a part of the pixel drive circuit 94 in FIG. 3, and the detection circuit 93 and the constant current circuit 122 are, for example, a part of the detection circuit 93 in FIG. Good.
  • FIG. 7 is a timing chart showing an operation example of the pixel according to the first embodiment.
  • the row drive circuit 121 applies a transfer control signal TRG applied to the gate of the transfer transistor 113 and a reset control applied to the gate of the reset transistor 116 at a timing immediately before the accumulation period. Raise the signal RST to a high level. As a result, both the transfer transistor 113 and the reset transistor 116 are turned on, and the electric charge accumulated in the storage node 112 between the photodiode 111 and the transfer transistor 113 is discharged to the power supply 118.
  • this control will be referred to as "PD reset”.
  • the reset transistor 116 when the reset transistor 116 is turned on, the floating diffusion layer 117 is also connected to the power supply 118 via the reset transistor 116, so that the electric charge accumulated in the floating diffusion layer 117 is also discharged to the power supply 118.
  • the row drive circuit 121 controls the transfer transistor 113 and the reset transistor 116 to the off state by lowering the transfer control signal TRG and the reset control signal RST to a low level. By this control, the storage node 112 is suspended and a new storage period is started.
  • the row drive circuit 121 raises the transfer control signal TRG to a high level.
  • the transfer transistor 113 is turned on, and the electric charge accumulated in the storage node 112 between the photodiode 111 and the transfer transistor 113 is transferred to the floating diffusion layer 117.
  • this control will be referred to as "charge transfer”.
  • the detection circuit 93 reads a signal (hereinafter referred to as sampling) of the stored signal appearing on the vertical signal line 124 during the period from the timing t14 when the transfer control signal TRG is lowered to the low level to the timing t15.
  • sampling a signal of the stored signal appearing on the vertical signal line 124 during the period from the timing t14 when the transfer control signal TRG is lowered to the low level to the timing t15.
  • the stored signal appearing on the vertical signal line 124 is read out by the detection circuit 93 as a pixel signal having a voltage value corresponding to the exposure amount to the photodiode 111, and is converted into a digital signal.
  • Multiple sampling of this stored signal is treated as the first readout in CDS (correlated double sampling) described later.
  • the row drive circuit 121 raises the reset control signal RST to a high level.
  • the reset transistor 116 is turned on, and the electric charge accumulated in the floating diffusion layer 117 is discharged to the power supply line VDD via the reset transistor 116.
  • this control will be referred to as "FD reset".
  • the voltage of the floating diffusion layer 117 in the reset state is amplified by the amplification transistor 114 and appears on the vertical signal line 124.
  • the potential that appears on the vertical signal line 124 when the floating diffusion layer 117 is in the reset state is referred to as a reset level.
  • the detection circuit 93 samples the pixel signal of the reset level appearing on the vertical signal line 124 during the period from the timing t16 to the timing t17 when the reset control signal RST is lowered to the low level.
  • the reset level appearing on the vertical signal line 124 is read out by the detection circuit 93 as a pixel signal of the voltage value (reset level) when the floating diffusion layer 117 is in the reset state, and is converted into a digital signal. Will be done.
  • This reset level multiple sampling is treated as a second readout in CDS (correlated double sampling) described later.
  • the detection circuit 93 compares the sampled accumulated signal with the reset signal, and determines the amount of incident photons based on the comparison result.
  • the detection circuit 93 may execute sampling of the stored signal a plurality of times, add all of them, and calculate an average value thereof, if necessary. Similarly, the detection circuit 93 may perform sampling of the reset signal a plurality of times, add all of them, and calculate an average value thereof, if necessary.
  • the detection circuit 93 executes the CDS for calculating the difference between the accumulated signal (or its average value) and the reset signal (or its average value).
  • the kTC noise generated at the time of FD reset is canceled, and a net pixel signal based on the amount of light of the fluorescence 74 is obtained.
  • the storage period of each pixel (pixel circuit) 101 is a period between the above-mentioned PD reset operation and the storage signal reading operation.
  • the transfer control signal TRG is turned off at the time of PD reset, and then the charge is transferred. Occasionally, it is the period until the transfer control signal TRG is turned off again.
  • a photon is incident on the photodiode 111 and an electric charge is generated during this storage period, it becomes a difference between the reset signal and the storage signal, and is acquired by the detection circuit 93 as the above-mentioned net pixel signal.
  • the noise mixed in with the AD conversion process can be canceled out.
  • FIG. 8 is a timing chart showing an operation example of the pixel according to the modified example.
  • the FD reset at the timings t15 to t16 performed in FIG. 7 is omitted, and the reset signal sampling is executed during the accumulation period of the timings t12 to t13 after the PD reset.
  • the next storage period of the photodiode 111 will start immediately after the charge transfer is completed, that is, when the transfer control signal TRG is turned off. As a result, the dead period during which the photons incident on the pixel 101 are not detected becomes almost zero.
  • the shortest cycle of unit accumulation can be defined by the total time required for sampling the reset signal and sampling the accumulated signal.
  • FIG. 9 is a timing chart for explaining an operation example of pulsed light detection in the flow cytometer according to the first embodiment.
  • the light intensity of the fluorescence 74 is drawn as a pulse waveform PL1 as shown in the uppermost stage of FIG. 9 as the sample 53 passes through the irradiation spot 72, and each pulse waveform PL1 passes through one sample 53.
  • the waveform corresponds to.
  • the light intensity of the forward scattered light 73 detected by the photodiode 33 shown in the middle part of FIG. 9 is a pulse having a timing similar to that of the pulse waveform PL1 in the upper part of FIG. 9 and having a large intensity increase rate. It is drawn like a waveform PL2.
  • the photodiode 33 acquires the passing timing of the sample 53 from the comparison between the intensity of the pulse waveform PL2 of the forward scattered light and the threshold value Th1, and generates the event signal S11.
  • the read access sequence is a global shutter with almost no dead period according to FIG.
  • the start and end of the accumulation period are performed simultaneously for all pixels.
  • the charge is transferred within the pixel in synchronization with the event signal S11 indicating the passage of the sample 53, and the accumulation period ends all the pixels at once.
  • the reading of the pixel signal is started. Further, at this time, the next storage period starts all at once for all pixels.
  • the image sensor 34 ends the accumulation period in the pixel, starts reading the pixel signal, and further starts the next accumulation period.
  • the timing T62 is the timing after a certain delay time t1 in consideration of the flow velocity and the magnitude of the sample 53 has elapsed from the timing T61 when the event signal S11 is acquired.
  • the pixel signal is read out by acquiring the difference between the AD conversion value of the stored signal and the AD conversion value of the reset signal that has already been acquired, thereby deriving a net pixel signal that offsets kTC noise and the like. Will be done. Further, following this, the reset signal is acquired and the AD conversion is performed in the next cycle, and when it is completed, the end of the next storage period and the reading can be performed. That is, the shortest cycle of event processing is equal to the shortest cycle of the unit storage period, which is determined by the time required for acquisition and AD conversion of each of the storage signal and the reset signal.
  • the total value of the net pixel signals output from the plurality of pixels 101 in each event processing corresponds to the total amount of photons received by the photodetector for each pulse.
  • the intensity of fluorescence 74 for each sample 53 is derived. That is, in the present embodiment, the incident light is integrated in the pixel 101 by accumulating the charge obtained by photoelectric conversion in the pixel 101 inside. Therefore, the AD conversion for the output from each pixel 101 may be performed once, and it is not necessary to perform the AD conversion a plurality of times in time series.
  • the minimum interval of events that can be handled is about 10 ⁇ s, and a maximum of 100,000 events can be handled per second.
  • the event that is, the passage of the sample 53 through the irradiation spot 72, can be evaluated.
  • a register is provided in the detection circuit 93 to temporarily store the pixel signal. By doing so, it is possible to execute the AD conversion of the reset signal and the stored signal and the output of the pixel signal in parallel by the pipeline method, so that the time required for the output of the pixel signal limits the storage cycle. There is no.
  • the event signal S11 indicating that the sample 53 has passed is generated at the timing T61 of the down edge where the pulse waveform PL2 is below the threshold value L1, but the pulse waveform PL2 is not limited to this. It may be generated at the timing T63 of the up edge that exceeds the threshold value L1. When the event signal S11 is generated at the up-edge timing T63, it becomes easy to deal with fluctuations in the size and flow rate of the sample 53.
  • the event signal S11 may be generated by using the detection result of the lateral scattered light or the fluorescence 74 (dispersed light 75). In that case, the light for event detection and the light for sample analysis may be separated and the light for event detection may be incident on the photodiode 33.
  • a light receiving element for generating an event may be separately mounted in the image sensor 34.
  • the delay time t1 from the event signal S11 is fixed here, the intensity attenuation of the pulse waveform PL2 due to the forward scattered light 73 is generally larger as the sample 53 is larger. Therefore, the intensity of the pulse waveform PL2 may be evaluated, for example, at the beginning of the pulse, and the length of the delay time t1 may be set accordingly. In this case, a longer delay time t1 may be set for the large sample 53.
  • a so-called global shutter method in which reading is started all at once for all the pixels of the pixel array unit 91 has been illustrated, but the present invention is not limited to this.
  • the rolling shutter method when one detection circuit 93 is connected to a plurality of pixels 101 in the same row, it is possible to adopt a so-called rolling shutter method in which pixel signals are read out in order from the pixels 101 connected to the same detection circuit 93. Is.
  • the rolling shutter method is adopted, the drain of the amplification transistor 114 and the vertical signal line 124 in the pixel circuit of each pixel 101 are connected to the drain of the amplification transistor 114 and the vertical signal line 124 according to the selection signal from the row drive circuit 121.
  • a selection transistor is added to control the connection of.
  • FIG. 10 is a diagram showing an example of the relationship between the position on the pixel array unit and the wavelength of dispersed light according to the first embodiment. ..
  • the spectroscopic optical system 37 disperses the fluorescence 74 in the row direction H1 and emits the dispersed light 75 spread in the row direction H1.
  • light having a wavelength of 500 nm is incident on the pixel 101 located on the leftmost side in the row direction H1
  • light having a wavelength of 800 nm is incident on the pixel 101 located on the rightmost side.
  • Fluorescence 74 is separated.
  • each pixel 101 has a wavelength width of about 0.9 to 1 nm depending on the position of the row direction H1. Light will be incident.
  • FIG. 11 is a diagram showing an example of multi-channel image sensor according to the first embodiment. That is, in this description, a case where the image sensor 34 is used as a multi-channel PMT is exemplified. Note that FIG. 11 shows a case where the image sensor 34 is divided into 32 channels.
  • the pixel array unit 91 is divided into a total of 32 regions in which the number of pixels in the row direction H1 is 10 pixels each.
  • the signal acquisition system 1 divides the spectrum image G1 acquired from the pixel array unit 91 into a total of 32 channel regions CH1 to CH32 having 10 pixels each in the row direction H1. In that case, the wavelength width of the light contained in each channel region CH1 to CH32 is about 9 to 10 nm.
  • the number of channels realized in the multi-channelization that is, the number of divisions of the pixel array unit 91 or the spectrum image G1 in the row direction H1 is not limited to 32, and can be variously modified.
  • the number of pixels in the row direction H1 in the pixel array unit 91 is 320 pixels, it is possible to divide into a channel region of a minimum of 1 channel and a maximum of 320 channels.
  • the width (number of pixels) of the row direction H1 of each channel region can be set separately for each channel region.
  • the light having a long wavelength has a wider spread in the row direction H1 than the light having a short wavelength.
  • the number of pixels in the row direction H1 such as the channel regions CH31 and CH32 where the long wavelength light is incident is set to the number of pixels of the channel regions CH1 and CH2 where the short wavelength light is incident. It may be larger than the number of pixels in the row direction H1.
  • the spectroscopic optical system 37 includes a prism that disperses the fluorescence 74 in a predetermined direction (for example, the direction corresponding to the row direction H1)
  • the first region for example, the direction in which the first wavelength component of the fluorescence 74 is incident is incident.
  • the width (number of pixels) of the row direction H1 of the channel region CH1) is the width (number of pixels) of the row direction H1 of the second region (for example, the channel region CH32) in which the second wavelength component longer than the first wavelength component is incident. May be narrower than.
  • the present embodiment when performing multi-channel analysis on the fluorescence 74, it is possible to freely design the number of channels, the channel width (wavelength width) of each channel, the center wavelength of each channel, and the like. is there.
  • FIG. 12 is a diagram showing a spectrum of fluorescence emitted from four types of fluorescent dyes, FITC, PE, PerCP-Cy5.5 and PE-Cy7, which are excited by excitation light having a wavelength of 488 nm.
  • FIG. 13 is a diagram showing an example of a virtual filter according to the first embodiment realized for the fluorescence shown in FIG. In FIG. 13, the leftmost pixel row in the pixel array unit 91 is the pixel row # 1, and the rightmost pixel row is the pixel row # 320.
  • fluorescent L1 having a center wavelength of about 530 nm is emitted from FITC.
  • fluorescent L2 having a central wavelength of about 585 is emitted from PE
  • fluorescent L3 having a central wavelength of about 695 nm is emitted from PerCP-Cy5.5
  • fluorescent L4 having a central wavelength of about 780 nm is emitted from PE-Cy7. Be radiated.
  • the signal acquisition system 1 has the center of the row direction H1 as the pixel string # 33 corresponding to the wavelength 530 nm and the width of the row direction H1 as the wavelength 30 nm with respect to the fluorescence L1 from the FITC.
  • a virtual filter (also referred to as a filter region) F1 having 33 pixels corresponding to the spectrum image G1 is set.
  • a virtual filter F2 in which the center of the row direction H1 is the pixel string # 91 corresponding to the wavelength 585 nm and the width of the row direction H1 is 46 pixels corresponding to the wavelength 42 nm is used as the spectrum image G1.
  • a virtual filter F3 in which the center of the row direction H1 is the pixel string # 208 corresponding to the wavelength of 695 nm and the width of the row direction H1 is 44 pixels corresponding to the wavelength of 40 nm is used.
  • the spectrum image G1 For the fluorescence L4 from PE-Cy7, the spectrum image is a virtual filter F4 in which the center of the row direction H1 is the pixel string # 299 corresponding to the wavelength of 780 nm and the width of the row direction H1 is 44 pixels corresponding to the wavelength of 40 nm. Set to G1.
  • the number of pixels in the column direction V1 may be 36 pixels, which is the same as the number of pixels in the column direction V1 of the pixel array unit 91, for example.
  • the total value of the pixel signals output from each pixel 101 of 33 ⁇ 36 pixels constituting the virtual filter F1 for example, from the signal acquisition system 1.
  • the total value of the pixel signals output from each pixel 101 of 44 ⁇ 36 pixels constituting the virtual filter F4 are output as an evaluation value.
  • the image sensor 34 as the photodetector, it is possible to acquire fluorescence spectrum information having fine wavelength resolution and high resolution, so that the reproducibility of the optical filter characteristics is improved. In addition, it is possible to set an optimum virtual filter for the fluorescence emitted from each fluorescent dye.
  • the number of virtual filters to be set, the center wavelength and / or wavelength width of each virtual filter, etc. can be freely designed according to the wavelength of the excitation light 71 to be used, the sample 53, and / or the type of the fluorescent marker, etc. It is possible. For example, when another fluorescent dye is added to the four fluorescent dyes illustrated in FIG. 12, the added virtual filter can be set in the spectrum image G1. At that time, the center wavelength and / or the wavelength width of each virtual filter may be adjusted in the region where the spectra of different fluorescence are close to each other.
  • the two-dimensional image sensor 34 is used as the array type photodetector in the spectrum type flow cytometer 11.
  • the scale of the apparatus can be reduced as compared with the case where the multi-channel PMT is used for the array type photodetector.
  • the image sensor 34 has a finer wavelength resolution and can acquire fluorescence spectrum information having a higher resolution than the multi-channel PMT, it is possible to realize a virtual filter that faithfully reproduces the optical filter characteristics. Is possible.
  • the image sensor 34 it is possible to add pixel values in an arbitrary wavelength width, so that the number of channels can be increased / decreased, the channel width can be changed, and the virtual filter function can be used when performing multi-channel analysis. It also has the advantage of facilitating design changes after commercialization, such as increasing or decreasing the number of filters and changing the center wavelength / wavelength width of each filter.
  • the spectrum type flow cytometer is exemplified, but the technique according to the present disclosure is not limited to the flow cytometer, and for example, digital pathology imaging (DPI) or the like. It can also be applied to medical devices.
  • DPI digital pathology imaging
  • DPI digital pathology imaging
  • the sample 53 is placed on the stage, and the sample 53 placed on the stage is scanned by the excitation light 71 from the excitation light source 32.
  • the scanning of the sample 53 placed on the stage by the excitation light 71 is controlled by the scanning control unit that controls the positional relationship between the stage and the excitation light source 32.
  • DPI digital pathology imaging
  • a line sensor in which pixels 101 are linearly arranged is used as the image sensor 34.
  • the line sensor receives the fluorescence 74 emitted from the sample 53 to obtain two-dimensional or three-dimensional image data (spectral image) for the entire sample 53. Generate.
  • the generated spectral image is input to the signal acquisition system 1 and evaluated, and the evaluation value is input to the analysis system 2 for analysis, as in the first embodiment.
  • FIG. 14 is a block diagram showing a schematic configuration example of the optical measuring device (system) according to the second embodiment.
  • the optical measuring device 200 of the present embodiment includes an observation unit 201.
  • the observation unit 201 was excited in a line shape with an excitation unit 210 that irradiates a pathological specimen (pathological sample) with a plurality of line illuminations having different wavelengths arranged in parallel to different axes, a sample stage 220 that supports the pathological specimen, and a line. It has a spectroscopic imaging unit 230 that acquires a fluorescence spectrum (spectral data) of a pathological specimen.
  • the optical measuring device 200 further includes a processing unit 202 corresponding to the signal acquisition system 1 and the analysis system 2 in the first embodiment.
  • the processing unit 202 typically forms an image of the pathological specimen (corresponding to a spectral image) or fluorescence based on the fluorescence spectrum of the pathological specimen (hereinafter, also referred to as sample S) acquired by the observation unit 201. Output the distribution of the spectrum.
  • the image referred to here refers to a composition ratio such as a dye constituting the spectrum or autofluorescence derived from a sample, an image converted from a waveform into RGB (red, green, blue) color, a luminance distribution in a specific wavelength band, and the like.
  • the excitation unit 210 and the spectroscopic imaging unit 230 are connected to the sample stage 220 via an observation optical system 240 such as an objective lens.
  • the observation optical system 240 has a function of following the optimum focus by the focus mechanism 260.
  • a non-fluorescent observation unit 270 for dark field observation, bright field observation, or the like may be connected to the observation optical system 240.
  • the focus mechanism 260, the non-fluorescent observation unit 270, and the like are connected to a control unit (PC (Personal Computer), etc.) that performs storage, control, and calculation processing.
  • PC Personal Computer
  • the excitation unit 210 includes a plurality of light sources capable of outputting a plurality of excitation lights having different wavelengths.
  • the plurality of light sources are typically composed of a light emitting diode (LED), a laser diode (LD), a mercury lamp, or the like, each of which is line-illuminated and irradiates the sample S of the sample stage 220.
  • Sample S is typically composed of slides including an observation target such as a tissue section, but of course other than that may be used.
  • Sample S is stained with a plurality of fluorescent dyes.
  • the observation unit 201 magnifies the sample S to a desired magnification for observation.
  • a plurality of line illuminations are arranged, and a plurality of imaging areas of the spectroscopic imaging unit 230 are arranged so as to overlap each illumination area.
  • the two line lights are arranged in parallel and separated from each other.
  • the longitudinal direction of each line illumination is the X-axis direction, and the arrangement direction is the Y-axis direction.
  • the wavelengths that make up the first line illumination and the wavelengths that make up the second line illumination are different from each other.
  • the line-shaped fluorescence excited by these line illuminations is observed in the spectroscopic imaging unit 230 via the observation optical system 240.
  • the spectroscopic imaging unit 230 includes an observation slit having a plurality of slits through which fluorescence excited by a plurality of line illuminations can pass, and at least one image sensor (image sensor) capable of individually receiving fluorescence that has passed through the observation slits. (Equivalent to 34). Two-dimensional imagers such as CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor) are used as the image sensor. By arranging the observation slits on the optical path, it is possible to detect the fluorescence spectra excited in each line without overlapping.
  • the spectroscopic imaging unit 230 acquires fluorescence spectroscopic data (x, ⁇ ) using a pixel array in one direction (for example, the vertical direction) of the image sensor as a wavelength channel from each line illumination.
  • the obtained spectral data (x, ⁇ ) are recorded in the processing unit 202 in a state in which the spectral data excited from which excitation wavelength is associated with each other.
  • the processing unit 202 can be realized by hardware elements used in a computer such as a CPU (Central Processing Unit), RAM (Random Access Memory), and ROM (Read Only Memory), and necessary software. Even if PLD (Programmable Logic Device) such as FPGA (Field Programmable Gate Array), DSP (Digital Signal Processor), or other ASIC (Application Specific Integrated Circuit) is used in place of or in addition to the CPU. Good.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only Memory
  • PLD Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • the processing unit 202 has a storage unit 221 that stores spectral data representing the correlation between the wavelengths of the plurality of line illuminations and the fluorescence received by the image sensor.
  • a storage device such as a non-volatile semiconductor memory or a hard disk drive is used in the storage unit 221, and a standard spectrum of autofluorescence related to the sample S and a standard spectrum of a dye alone that stains the sample S are stored in advance.
  • the spectral data (x, ⁇ ) received by the image sensor is stored in, for example, the storage unit 221.
  • the observation unit 201 further includes a scanning mechanism 250 that scans a plurality of line illuminations with respect to the sample stage 220 in the Y-axis direction, that is, in the arrangement direction of each line illumination.
  • a scanning mechanism 250 that scans a plurality of line illuminations with respect to the sample stage 220 in the Y-axis direction, that is, in the arrangement direction of each line illumination.
  • dye spectra (fluorescence spectra) excited at different excitation wavelengths which are spatially separated by ⁇ y on the sample S, can be continuously recorded in the Y-axis direction.
  • the shooting area is divided into a plurality of parts in the X-axis direction, the sample S is scanned in the Y-axis direction, then the sample S is moved in the X-axis direction, and the scan in the Y-axis direction is repeated. ..
  • a single scan can capture spectroscopic images from samples excited by several excitation wavelengths.
  • the sample stage 220 is typically scanned in the Y-axis direction, but a plurality of line illuminations may be scanned in the Y-axis direction by a galvanometer mirror arranged in the middle of the optical system.
  • the three-dimensional data (X, Y, ⁇ ) is acquired for each of the plurality of line illuminations. Since the three-dimensional data derived from each line illumination is data whose coordinates are shifted by ⁇ y with respect to the Y axis, it is corrected and output based on the value of ⁇ y recorded in advance or the value of ⁇ y calculated from the output of the image sensor 34. To.
  • the line illumination as the excitation light is composed of two lines, but the line illumination is not limited to this, and may be three, four, or five or more lines.
  • each line illumination may include a plurality of excitation wavelengths selected so as not to deteriorate the color separation performance as much as possible.
  • the different axes are parallel. Although the resolution is not as high as that, a multicolor spectrum can be obtained.
  • the image forming unit 223 is based on the spectroscopic data stored in the storage unit 221 (or the spectroscopic data calibrated by the data calibration unit 222) and the interval corresponding to the interaxial distance ( ⁇ y) of the excitation line. Form a fluorescent image of.
  • the three-dimensional data derived from each line illumination is data whose coordinates are shifted by ⁇ y with respect to the Y axis, it is corrected and output based on the value of ⁇ y recorded in advance or the value of ⁇ y calculated from the output of the image sensor.
  • the image forming unit 223 executes a process (stitching) for connecting the captured images into one large image. Thereby, a pathological image regarding the multiplexed sample S can be acquired.
  • the formed fluorescence image is output to the display unit 203.
  • the image forming unit 223 is based on the standard spectra of the autofluorescence of the sample S and the dye alone stored in the storage unit 221 in advance, and the autofluorescence of the sample S and the dye from the captured spectral data (measurement spectrum). Separately calculate the component distribution.
  • a calculation method a least squares method, a weighted least squares method, or the like can be adopted, and a coefficient is calculated so that the captured spectral data becomes a linear sum of the standard spectra.
  • the calculated coefficient distribution is stored in the storage unit 221 and output to the display unit 203 to be displayed as an image.
  • the light detection unit of the DPI can be the image sensor 34 as in the first embodiment.
  • the multi-channel analysis and the virtual filter function can be applied to the DPI.
  • the present technology can also have the following configurations.
  • a spectroscopic optical system that disperses the fluorescence emitted from a biological sample
  • An image sensor that receives the fluorescence dispersed by the spectroscopic optical system and generates fluorescence information
  • the image sensor is an optical measuring device that is divided into a plurality of regions that receive different wavelength components of the fluorescence and generate fluorescence information for each of the wavelength components.
  • the optical measuring device further comprising a signal acquisition unit for evaluating the fluorescence information generated by the image sensor.
  • the signal acquisition unit divides the fluorescence information into a plurality of channel regions arranged along the spectral direction of the fluorescence dispersed by the spectroscopic optical system, and adds up the pixel values of each of the plurality of channel regions.
  • the optical measuring apparatus according to (3) above, which calculates an evaluation value of the fluorescence information.
  • the optical measuring device calculates an evaluation value of the fluorescence information by adding up the pixel values of each of one or more filter regions in the fluorescence information.
  • the spectroscopic optical system includes a prism that disperses the fluorescence in a predetermined direction. Of the plurality of regions, the width of the first region in which the first wavelength component of the fluorescence is incident is longer than the first wavelength component of the fluorescence in the direction corresponding to the predetermined direction.
  • the optical measuring apparatus according to any one of (1) to (5), which is narrower than the width of the second region in which the component is incident in the direction corresponding to the predetermined direction.
  • the optical measuring device according to (3) further comprising an analysis unit that analyzes the biological sample based on the evaluation result of the fluorescence information by the signal acquisition unit.
  • the image sensor is Multiple photoelectric conversion elements arranged in a matrix and A detection circuit that generates a plurality of the pixel values constituting the fluorescence information based on the electric charge generated in each of the photoelectric conversion elements.
  • an excitation light source for irradiating the biological sample with excitation light having a predetermined wavelength.
  • the excitation light source irradiates a predetermined region in the flow path with the excitation light.
  • An excitation light source that emits excitation light of a predetermined wavelength
  • the optical measuring apparatus according to any one of (1) to (10) above.
  • a spectroscopic optical system that disperses the fluorescence emitted from a biological sample
  • An image sensor that receives the fluorescence dispersed by the spectroscopic optical system and generates fluorescence information
  • a signal acquisition unit that evaluates the fluorescence information generated by the image sensor
  • An analysis unit that analyzes the biological sample based on the evaluation result of the fluorescence information by the signal acquisition unit,
  • the image sensor is an optical measurement system including a plurality of regions that receive different wavelength components of the fluorescence and generate fluorescence information for each wavelength component.

Landscapes

  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Dispersion Chemistry (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Organic Chemistry (AREA)
  • Wood Science & Technology (AREA)
  • Signal Processing (AREA)
  • Biotechnology (AREA)
  • Zoology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Microbiology (AREA)
  • Sustainable Development (AREA)
  • Biomedical Technology (AREA)
  • Medicinal Chemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Genetics & Genomics (AREA)
  • Multimedia (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

大型化を抑制しつつマルチカラー分析を可能にする。実施形態に係る光学測定装置は、生体検体から放射した蛍光を分光する分光光学系(37)と、前記分光光学系で分光された前記蛍光を受光して蛍光情報を生成するイメージセンサ(34)と、を備え、前記イメージセンサは、それぞれ前記蛍光のうちの異なる波長成分を受光して前記波長成分ごとの蛍光情報を生成する複数の領域に分割されている。

Description

光学測定装置及び光学測定システム
 本開示は、光学測定装置及び光学測定システムに関する。
 従来、細胞、微生物、リポソームなどの生体関連微小粒子の蛋白質を分析するための方法として、フローサイトメトリー(Flow Cytometry)が存在する。このフローサイトメトリーに用いられる装置は、フローサイトメータ(Flow Cytometer:FCM)と称される。フローサイトメータでは、流路内を1列になって流れる微小粒子に特定波長のレーザ光を照射して、各微小粒子から発せられた蛍光や前方散乱光や側方散乱光などの光を光検出器で電気信号に変換して数値化し、その結果に対して統計解析を行うことにより、個々の微小粒子の種類、大きさ、構造などが判定される。
 また、近年では、基礎医学及び臨床分野の要請に基づき、複数の蛍光色素を使用したマルチカラー分析が可能なフローサイトメータが開発されている。
特開2017-58361号公報
 しかしながら、従来のフローサイトメータでは、光検出器として光電子増倍管(Photomultiplier Tube)が使用されていたため、マルチカラー分析を可能とした場合の装置構成が大型化してしまうという課題が存在した。
 そこで本開示では、大型化を抑制しつつマルチカラー分析を可能とした光学測定装置及び光学測定システムを提案する。
 上記の課題を解決するために、本開示に係る一形態の光学測定装置は、生体検体から放射した蛍光を分光する分光光学系と、前記分光光学系で分光された前記蛍光を受光して蛍光情報を生成するイメージセンサと、を備え、前記イメージセンサは、それぞれ前記蛍光のうちの異なる波長成分を受光して前記波長成分ごとの蛍光情報を生成する複数の領域に分割されている。
第1の実施形態に係るフローサイトメータの概略構成例を示す模式図である。 図1における分光光学系の一例を示す模式図である。 第1の実施形態に係るイメージセンサの概略構成例を示すブロック図である。 図3における画素アレイ部と検出回路アレイとの位置関係の一例を示す図である。 図3における画素と検出回路との接続関係の一例を示す図である。 第1の実施形態に係る画素の回路構成例を示す回路図である。 第1の実施形態に係る画素の動作例を示すタイミングチャートである。 第1の実施形態の変形例に係る画素の動作例を示すタイミングチャートである。 第1の実施形態に係るフローサイトメータにおけるパルス光検出のオペレーション例を説明するためのタイミングチャートである。 第1の実施形態に係る画素アレイ部上の位置と分散光の波長との関係の一例を示す図である。 第1の実施形態に係るイメージセンサをマルチチャネル化する場合の例を示す図である。 波長488nmの励起光で励起された4種類の蛍光色素から放射された蛍光のスペクトルを示す図である。 図12に示す蛍光に対して実現される第1の実施形態に係るバーチャルフィルタの一例を示す図である。 第2の実施形態に係る光学測定装置(システム)の概略構成例を示すブロック図である。
 以下に、本開示の一実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.はじめに
  2.第1の実施形態
   2.1 フローサイトメータの概略構成例
   2.2 イメージセンサの構成例
   2.3 画素の回路構成例
   2.4 画素の動作例
    2.4.1 画素動作の変形例
   2.5 パルス光検出のオペレーション例
   2.6 画素アレイ部上の位置と分散光の波長との関係例
   2.7 イメージセンサをマルチチャネル化する場合
   2.8 イメージセンサでバーチャルフィルタ機能を実現する場合
   2.9 作用・効果
 3.第2の実施形態
 1.はじめに
 フローサイトメータを用いた分析のうち、一度の測定で複数の蛍光色素(蛍光マーカともいう)を使用するマルチカラー分析では、それぞれの光検出器に目的以外の蛍光マーカからの光が漏れ込み、分析精度が低下してしまう場合がある。そこで従来のフローサイトメータでは、目的の蛍光マーカから目的の光情報のみを取り出すために蛍光補正を行っているが、スペクトルが近接している蛍光マーカの場合、光検出器への漏れ込みが大きくなるために蛍光補正がうまくできないという問題が発生することがある。
 このような問題を解消するため、蛍光のスペクトルを取得して解析する、いわゆるスペクトル型のフローサイトメータが開発されている。スペクトル型フローサイトメータでは、微小粒子(検体又は生体検体ともいう)から測定された蛍光を染色に使用した蛍光マーカのスペクトル情報を使って抽出することで、各微少粒子の蛍光量を分析する。
 このようなスペクトル型フローサイトメータには、従来のフローサイトメータでは蛍光マーカの数だけ多数配置している光検出器の代わりに、スペクトル検出用のアレイ型の光検出器が設けられる。
 アレイ型光検出器には、例えば、複数の光電子増倍管がアレイ状に配列するマルチチャネルPMTが用いられる。マルチチャネルPMTのチャンネル数は、ある波長のレーザ光で励起された全ての蛍光スペクトラム情報を再現するのに必要な波長幅及び波長分解能に基づいて決定される。例えば、蛍光スペクトラム情報を再現するのに必要な波長幅が500~800nmのおよそ300nmであり、必要な波長分解能がおよそ9~10nmであるとすると、マルチチャネルPMTのチャネル数は、30~32チャンネル程度に設定される。
 これら波長幅と波長分解能とは、光学設計によりある程度変更可能ではあるが、光学調整等が必要になるため、装置が製品化された後で容易に変更することは困難である。
 また、スペクトル型フローサイトメータで取得された蛍光スペクトラム情報を解析するための機能として、各蛍光マーカからの蛍光に最適な波長幅に相当するチャンネルを複数まとめてソフトウエア上で信号処理して、光学フィルタを疑似的に再現する、いわゆるバーチャルフィルタ機能が存在するが、上記のようなマルチチャネルPMTを使用した場合、蛍光スペクトラム情報を再現するのに必要な波長幅とマルチチャネルPMTで実現し得るチャンネル数とから決定される波長分解能によって各バーチャルフィルタの波長幅の取り得る値が離散した値になるため、光学フィルタの特性を忠実に再現することが困難であった。
 そこで以下の実施形態では、アレイ型光検出器に2次元イメージセンサを用いることとする。2次元イメージセンサは、マルチチャネルPMTと比較して小型であるため、全体的な装置規模を縮小することが可能である。
 また、2次元イメージセンサは、マルチチャネルPMTと比較して、検出部が多いため、波長分解能が細かく、解像度の高い蛍光スペクトラム情報を取得することが可能である。そのため、光学フィルタ特性の再現性を高めることが可能となる。
 さらに、2次元イメージセンサを用いることで、任意の波長幅で画素値を加算することが可能となるため、マルチチャネル分析を行なう際のチャネル数の増減やチャネル幅の変更、バーチャルフィルタ機能を使用する場合のフィルタ数の増減や各フィルタの中心波長/波長幅の変更など、製品化後の設計変更が容易になるというメリットも備える。
 2.第1の実施形態
 まず、第1の実施形態に係る光学測定装置及び光学測定システムについて、図面を参照して詳細に説明する。本実施形態では、シングルスポット型のフローサイトメータについて例を挙げるが、本開示に係るフローサイトメータは、シングルスポット型に限定されず、マルチスポット型など、種々のフローサイトメータであってよい。なお、シングルスポット型とは、レーザ光(励起光)の照射スポットが1つであることを意味し、マルチスポット型とは、照射スポットが複数であることを意味する。また、フローサイトメータは、検査後の検体を分取する機能を備えるか否かで、セルアナライザ型とセルソータ型とに分類されるが、本実施形態に係るフローサイトメータは、そのどちらであってもよい。
 2.1 フローサイトメータの概略構成例
 図1は、第1の実施形態に係る光学測定装置又は光学測定システムとしてのフローサイトメータの概略構成例を示す模式図である。図2は、図1における分光光学系の一例を示す模式図である。
 図1に示すように、フローサイトメータ11は、フローセル31と、励起光源32と、フォトダイオード33と、分光光学系37と、個体撮像素子(以下、イメージセンサという)34と、集光レンズ35及び36とを備える。
 図中の上方には、円筒状のフローセル31が設けられており、その中であって、かつ、ほぼ同軸上にサンプルチューブ51が内挿されている。フローセル31は、検体53が流れる流路であって、サンプル流52が図中の下方向に流れ下る構造とされ、さらに、サンプルチューブ51から細胞等からなる検体53が放出される。検体53は、フローセル31内のサンプル流52に乗って、一列に並んで流れ下る。
 励起光源32は、例えば、単一波長の励起光71を出射するレーザ光源であり、励起光71を検体53が通過する位置に設定された照射スポット72に照射する。励起光71は、連続光であってもよいし、ある程度長い時間幅を持つパルス光であってもよい。
 励起光71が照射スポット72で検体53に照射されると、検体53による励起光71の散乱や、検体53やこれに付された蛍光マーカ等の励起が発生する。
 本説明において、検体53で散乱した散乱光のうち、照射スポット72を挟んで励起光源32と反対方向へ向かう成分を前方散乱光73という。なお、散乱光には、励起光源32と照射スポット72とを結ぶ直線から外れた方向へ向かう成分や、照射スポット72から励起光源32へ向かう成分も含まれる。本説明では、散乱光のうち、励起光源32と照射スポット72とを結ぶ直線から外れた所定の方向(以下、側方という)へ向かう成分を側方散乱光と称し、照射スポット72から励起光源32へ向かう成分を後方散乱光と称する。
 また、励起した検体53や蛍光マーカ等からは、これらが脱励起する際に、それらを構成する原子や分子に固有の波長を持つ蛍光が放射される。この蛍光は、検体53や蛍光マーカ等から全方位へ向けて放射されるが、図1に示す構成では、それらのうち、照射スポット72から特定の方向(側方)へ放射された成分を分析対象の蛍光74としている。また、照射スポット72から側方へ出射する光には、蛍光の他に側方散乱光等も含まれるが、以下では、説明の簡略化のため、蛍光74以外の光成分等を適宜省略する。
 照射スポット72を通過した前方散乱光73は、集光レンズ35により平行光に変換された後、照射スポット72を挟んで励起光源32と反対側に光軸から少しずれた角度に配置されたフォトダイオード33に入射する。一方、蛍光74は、集光レンズ36により平行光に変換された後、分光光学系37に入射する。なお、集光レンズ35及び36それぞれは、特定の波長を吸収するフィルタや光の進行方向を変更するプリズムなどの他の光学素子を含んでもよい。例えば、集光レンズ36は、入射した側方散乱光及び蛍光74のうち、側方散乱光を低減する光学フィルタを含んでもよい。
 分光光学系37は、図2に示すように、例えば、プリズムや回折格子などの1つ以上の光学素子371を含んで構成され、入射した蛍光74を、波長ごとに異なる角度へ向けて出射する分散光75に分光する。なお、本説明では、分散光75の広がりの方向H1、すなわち、分光光学系37による分光方向を、後述するイメージセンサ34の画素アレイ部91における行方向とする。
 分光光学系37から出射した分散光75は、イメージセンサ34に入射する。したがって、イメージセンサ34には、方向H1における位置に応じて異なる波長の分散光75が入射する。
 ここで、前方散乱光73が光量の大きい光である一方、側方散乱光や蛍光74は、検体53が照射スポット72を通過した際に発生する微弱なパルス光である。そこで本実施形態では、前方散乱光73をフォトダイオード33で観察することで、検体53が照射スポット72を通過したタイミングを検出する。
 例えば、フォトダイオード33は、常時、照射スポット72から出射した前方散乱光73を観察している。その状態で、検体53の通過により検出されている光量が前方散乱光73により増加すると、フォトダイオード33は、光量が増加したタイミングで、検体53の通過を示すトリガ信号を生成し、このトリガ信号をイメージセンサ34に入力する。
 イメージセンサ34は、例えば、同一の半導体チップ内にAD(Analog to Digital)変換器を内蔵した複数画素よりなる撮像素子である。各画素は光電変換素子と増幅素子とを有し、光電変換された電荷は画素内部に蓄積される。蓄積電荷量を反映した信号(画素信号。画素値ともいう)は、所望のタイミングで増幅素子を介して増幅されて出力され、内蔵されたAD変換器によってデジタル信号に変換される。
 なお、本説明では、検体53から放射した蛍光74を波長で分光する、いわゆるスペクトル型のフローサイトメータ11を例示したが、これに限定されず、例えば、蛍光74を分光しない構成とすることも可能である。その場合、分光光学系37が省略されてよい。
 また、本説明では、トリガ信号の生成に前方散乱光73を使用した場合を例示したが、これに限定されるものではなく、例えば、側方散乱光や後方散乱光や蛍光等を使用してトリガ信号を生成してもよい。
 2.2 イメージセンサの構成例
 次に、第1の実施形態に係るイメージセンサ34について説明する。図3は、第1の実施形態に係るCMOS(Complementary Metal-Oxide-Semiconductor)型のイメージセンサの概略構成例を示すブロック図である。図4は、図3における画素アレイ部と検出回路アレイとの位置関係の一例を示す図である。図5は、図3における画素と検出回路との接続関係の一例を示す図である。
 ここで、CMOS型のイメージセンサとは、CMOSプロセスを応用して、または、部分的に使用して作成された固体撮像素子(固体撮像装置ともいう)である。第1の実施形態に係るイメージセンサ34は、入射面が半導体基板における素子形成面とは反対側の面(以下、裏面という)側である、いわゆる裏面照射型であってもよいし、表面側である、いわゆる表面照射型であってもよい。なお、以下の説明において例示するサイズ、個数、行数、列数等は、単なる例であって、種々変更することが可能である。
 図3に示すように、イメージセンサ34は、画素アレイ部91と、接続部92と、検出回路93と、画素駆動回路94と、ロジック回路95と、出力回路96とを備える。
 画素アレイ部91は、例えば、行方向H1に320画素、列方向V1に36画素の行列状(以下、320×36画素という)に配列した複数の画素101を備える。各画素101の配列面におけるサイズは、例えば、15μm(マイクロメートル)×15μmであってよい。その場合、画素アレイ部91の開口は、4.8mm(ミリメートル)×0.54mmとなる。
 画素駆動回路94は、各画素101を駆動することで、各画素101に画素信号を生成させる。ロジック回路95は、画素駆動回路94の他、検出回路93や出力回路96の駆動タイミングを制御する。また、ロジック回路95及び/又は画素駆動回路94は、検体53による照射スポット72の通過に合わせて画素アレイ部91に対する画素信号の読出しを制御する制御部としても機能する。
 なお、イメージセンサ34は、AD変換前の画素信号を増幅するオペアンプ等の増幅回路をさらに備えていてもよい。
 照射スポット72から側方へ出射した蛍光74は、それぞれ、集光レンズ36でコリメートされた後、分光光学系37により分散光75に変換される。そして、分散光75は、画素アレイ部91の画素101が配列する受光面における異なる領域に入射する。
 画素アレイ部91の各画素101には、分散光75のうち、画素アレイ部91における行方向H1の位置によって定まる波長成分が入力される。例えば、図2に例示する位置関係では、図2のイメージセンサ34中、右側に位置する画素101ほど波長の短い光が入射し、左側に位置する画素101ほど波長の長い光が入射する。
 各画素101は、照射された光量に応じた画素信号を生成する。生成された画素信号は、例えば、画素101に対して一対一に設けられた検出回路93により読み出される。各検出回路93は、AD変換器を含み、読み出したアナログの画素信号をデジタルの画素信号に変換する。
 ここで、図4及び図5に示すように、複数の検出回路93は、例えば、画素アレイ部91に対して2つのグループ(検出回路アレイ93A及び93B)に分かれて配列している。一方の検出回路アレイ93Aは、例えば、画素アレイ部91の列方向上側に配置され、他方の検出回路アレイ93Bは、例えば、画素アレイ部91の列方向下側に配置される。各検出回路アレイ93A及び93Bでは、複数の検出回路93が行方向に沿って1行又は複数行に配列している。
 例えば、画素アレイ部91の列方向上側に配置された検出回路アレイ93Aの各検出回路93は、画素アレイ部91の列方向における上半分の画素101に接続され、列方向下側に配置された検出回路アレイ93Bの各検出回路93は、画素アレイ部91の列方向における下半分の画素101に接続されてもよい。ただし、これに限定されず、例えば、検出回路アレイ93Aの各検出回路93を偶数列の画素101に接続し、検出回路アレイ93Bの各検出回路93を奇数列の画素101に接続するなど、種々変形成されてよい。また、たとえば、複数の検出回路93が画素アレイ部91の一方の側(例えば、列方向上側)に1行又は複数行に配列していてもよい。
 画素アレイ部91において、画素101は列方向V1に36個配列している。したがって、画素1列に対しては、36個の検出回路93を配置する必要がある。そこで、上述したように、検出回路93を2つの検出回路アレイ93A及び93Bにグループ分けし、それぞれの行数を1行とした場合、1列に並ぶ36個の画素101に対しては、各検出回路アレイ93A及び93Bにおいて18個ずつの検出回路93を配置すればよい。
 説明を図3に戻す。各画素101から検出回路93によって読み出された画素信号は、各検出回路93のAD変換器によってデジタルの画素信号に変換される。そして、デジタルの画素信号は、蛍光74の波長ごとの情報を示す蛍光情報(蛍光スペクトラム情報に相当。以下、スペクトル画像という)として、出力回路96を介して外部の信号取得システム1へ出力される。
 信号取得システム(信号取得部ともいう)1は、例えば、イメージセンサ34から入力されたスペクトル画像を評価し、その結果としての評価値を解析システム2に入力する。例えば、信号取得システム1は、スペクトル画像を行方向H1に沿って配列する複数の領域(後述するチャネル領域に相当)に分割し、それぞれの領域に含まれる画素の画素値を合算することで、スペクトル画像の評価値を算出する(後述するマルチチャネル分析に相当)。また、信号取得システム1は、予め設定された、もしくは、ユーザが任意に設定した、1つ以上の領域(後述するバーチャルフィルタに相当)それぞれに含まれる画素の画素値を合算してスペクトル画像の評価値を算出する、いわゆるバーチャルフィルタ機能を備えていてもよい。
 このような信号取得システム1は、イメージセンサ34と同一チップ内又は外部に設けられたDSP(Digital Signal Processor)やFPGA(Field-Programmable Gate Array)等であってもよいし、イメージセンサ34にバスやネットワークを介して接続されたパーソナルコンピュータなどの情報処理装置等であってもよい。
 解析システム(解析部ともいう)2は、信号取得システム1から入力された評価値に基づいて、種々の解析処理を実行する。例えば、解析システム2は、評価値に基づいて検体53の種類、大きさ、構造などの情報を取得する。また、解析システム2は、スペクトル画像や評価値をユーザに表示するとともに、解析ツールとなるUI(ユーザインタフェース)を提供してもよい。このような解析システム2は、例えば、信号取得システム1にバスやネットワークを介して接続されたパーソナルコンピュータなどの情報処理装置等であってよい。
 2.3 画素の回路構成例
 次に、図6を参照して、第1の実施形態に係る画素101の回路構成例について説明する。図6は、第1の実施形態に係る画素の回路構成例を示す回路図である。
 図6に示すように、画素101は、フォトダイオード(光電変換素子ともいう)111と、蓄積ノード112と、転送トランジスタ113と、増幅トランジスタ114と、リセットトランジスタ116と、浮遊拡散層(Floating Diffusion:FD)117とを備える。転送トランジスタ113、増幅トランジスタ114及びリセットトランジスタ116には、例えば、N型のMOS(Metal-Oxide-Semiconductor)トランジスタが用いられてよい。
 フォトダイオード111、転送トランジスタ113、増幅トランジスタ114、リセットトランジスタ116及び浮遊拡散層117で構成された回路は、画素回路とも称される。また、画素回路のうち、フォトダイオード111を除く構成は、読出し回路とも称される。
 フォトダイオード111は、光子を光電変換により電荷に変換する。このフォトダイオード111は、蓄積ノード112を介して転送トランジスタ113に接続される。フォトダイオード111は、自身が形成された半導体基板に入射した光子から、電子とホールのペアを発生させ、そのうちの電子をカソードに相当する蓄積ノード112に蓄積する。フォトダイオード111は、リセットによる電荷排出時に、蓄積ノード112が完全空乏化される、いわゆる埋込み型であってもよい。
 転送トランジスタ113は、行駆動回路121の制御に従って、蓄積ノード112から浮遊拡散層117へ電荷を転送する。浮遊拡散層117は、転送トランジスタ113からの電荷を蓄積して、その蓄積した電荷の量に応じた電圧値の電圧を生成する。この電圧は、増幅トランジスタ114のゲートに印加される。
 リセットトランジスタ116は、蓄積ノード112や浮遊拡散層117に蓄積された電荷を電源118に放出して初期化する。このリセットトランジスタ116のゲートは行駆動回路121に接続され、ドレインは電源118に接続され、ソースは浮遊拡散層117に接続される。
 行駆動回路121は、例えば、リセットトランジスタ116と転送トランジスタ113とをオン状態に制御することで、蓄積ノード112に蓄積された電子を電源118に引き抜き、画素101を蓄積前の暗状態、すなわち、光が未入射の状態に初期化する。また、行駆動回路121は、リセットトランジスタ116のみをオン状態に制御することで、浮遊拡散層117に蓄積された電荷を電源118に引き抜き、その電荷量を初期化する。
 増幅トランジスタ114は、ゲートに印加された電圧を増幅してドレインに出現させる。この増幅トランジスタ114のゲートは浮遊拡散層117に接続され、ソースは電源に接続され、ドレインは垂直信号線124に接続される。
 増幅トランジスタ114と定電流回路122とは、ソースフォロワ回路を形成している。増幅トランジスタ114は、浮遊拡散層117の電圧を1弱のゲインで増幅して垂直信号線124に出現させる。垂直信号線124に出現した電圧は、画素信号として、AD変換回路を含む検出回路93により読み出される。
 以上のような構成を備える画素101は、フォトダイオード111のリセットが実行されてから画素信号の読出しが実行されるまでの期間、光電変換により発生した電荷を内部に蓄積する。そして、画素信号の読出しが実行された際には、蓄積電荷に応じた画素信号を垂直信号線124に出現させる。
 なお、図6における行駆動回路121は、例えば、図3における画素駆動回路94の一部であり、検出回路93及び定電流回路122は、例えば、図3における検出回路93の一部であってよい。
 2.4 画素の動作例
 次に、図7のタイミングチャートを参照して、第1の実施形態に係る画素101の動作例について説明する。図7は、第1の実施形態に係る画素の動作例を示すタイミングチャートである。
 図7に示すように、タイミングt11~t12において、行駆動回路121は、蓄積期間直前となるタイミングで、転送トランジスタ113のゲートに印加する転送制御信号TRG及びリセットトランジスタ116のゲートに印加するリセット制御信号RSTをハイレベルに立ち上げる。これにより、転送トランジスタ113及びリセットトランジスタ116がともにオン状態となり、フォトダイオード111と転送トランジスタ113との間の蓄積ノード112に蓄積された電荷が電源118へ排出される。以降において、この制御を「PDリセット」と称する。
 また、リセットトランジスタ116をオン状態とした場合、浮遊拡散層117もリセットトランジスタ116を介して電源118に接続されるため、浮遊拡散層117に蓄積された電荷も電源118へ排出される。
 タイミングt12では、行駆動回路121は、転送制御信号TRG及びリセット制御信号RSTをローレベルに立ち下げることで、転送トランジスタ113及びリセットトランジスタ116をオフ状態に制御する。この制御により、蓄積ノード112は浮遊状態となって、新たな蓄積期間が開始される。
 次に、タイミングt13~t14において、行駆動回路121は、転送制御信号TRGをハイレベルに立ち上げる。これにより、転送トランジスタ113がオン状態となり、フォトダイオード111と転送トランジスタ113との間の蓄積ノード112に蓄積された電荷が浮遊拡散層117へ転送される。以降において、この制御を「電荷転送」と称する。
 このように、フォトダイオード111に発生した電荷を浮遊拡散層117へ転送すると、垂直信号線124には、浮遊拡散層117に蓄積されている電荷の電荷量に応じた電圧値の電圧が増幅トランジスタ114により増幅されて出現する。本説明では、フォトダイオード111に発生した電荷が浮遊拡散層117に蓄積されている状態で垂直信号線124に出現する電位を蓄積信号という。
 検出回路93は、転送制御信号TRGがローレベルに立ち下げられたタイミングt14からタイミングt15の期間、垂直信号線124に出現した蓄積信号の信号読出し(以下、サンプリングという)を行う。このサンプリングでは、垂直信号線124に出現した蓄積信号が、フォトダイオード111への露光量に応じた電圧値の画素信号として、検出回路93により読み出されて、デジタル信号に変換される。この蓄積信号の多重サンプリングは、後述するCDS(相関二重サンプリング)における1回目の読出しとして扱われる。
 次に、タイミングt15~t16において、行駆動回路121は、リセット制御信号RSTをハイレベルに立ち上げる。これにより、リセットトランジスタ116がオン状態となり、浮遊拡散層117に蓄積されていた電荷がリセットトランジスタ116を介して電源線VDDへ放出される。以降において、この制御を「FDリセット」と称する。
 このように、浮遊拡散層117をリセットすると、垂直信号線124には、リセット状態にある浮遊拡散層117の電圧が増幅トランジスタ114により増幅されて出現する。本説明では、浮遊拡散層117がリセット状態にある際に垂直信号線124に出現する電位をリセットレベルという。
 検出回路93は、蓄積信号のサンプリングと同様に、リセット制御信号RSTがローレベルに立ち下げられたタイミングt16からタイミングt17の期間、垂直信号線124に出現したリセットレベルの画素信号のサンプリングを行う。このサンプリングでは、垂直信号線124に出現したリセットレベルが、浮遊拡散層117がリセット状態にある際の電圧値(リセットレベル)の画素信号として、検出回路93により読み出されて、デジタル信号に変換される。このリセットレベルの多重サンプリングは、後述するCDS(相関二重サンプリング)における2回目の読出しとして扱われる。
 検出回路93は、サンプリングした蓄積信号とリセット信号とを比較して、その比較結果に基づいて入射光子量を判定する。
 なお、検出回路93は、蓄積信号のサンプリングを複数回実行し、その全て加算し、必要に応じて、それらの平均値を算出してもよい。同様に、検出回路93は、リセット信号のサンプリングを複数回実行し、その全て加算し、必要に応じて、それらの平均値を算出してもよい。
 そして、検出回路93は、蓄積信号(またはその平均値)と、リセット信号(またはその平均値)との差分を算出するCDSを実行する。このCDSにより、FDリセットの際に生じるkTCノイズが相殺されて、蛍光74の光量に基づいた正味の画素信号が求められる。
 各画素(画素回路)101の蓄積期間は、上述のPDリセット動作と蓄積信号の読出し動作との間の期間であり、正確には、PDリセット時に転送制御信号TRGを立ち下げてから、電荷転送時に再度、転送制御信号TRGを立ち下げるまでの期間である。この蓄積期間にフォトダイオード111に光子が入射し電荷が発生すると、それはリセット信号及び蓄積信号の間の差分となり、上記の正味の画素信号として検出回路93により取得される。
 なお、検出回路93において、AD変換器を通したデジタル値同士でCDSを実施することで、AD変換過程に伴って混入したノイズも相殺することができる。
 2.4.1 画素動作の変形例
 ところで、図7を用いて動作例では、単位蓄積が完了して次の蓄積が開始される間、特に、蓄積信号のサンプリング期間において、蓄積が実施されない不感期間が発生している。そこで、特に、高速なサンプリングに対応するため、このような不感期間を除去するようにしてもよい。
 図8は、変形例に係る画素の動作例を示すタイミングチャートである。図8の例では、図7で実施したタイミングt15~t16におけるFDリセットが省略され、PDリセット後のタイミングt12~t13の蓄積期間中に、リセット信号のサンプリングが実行されている。
 その場合、フォトダイオード111の次の蓄積期間は、電荷転送が完了した直後、すなわち、転送制御信号TRGを立ち下げたときからスタートすることになる。これによって画素101に入射した光子が検知されない不感期間はほぼゼロになる。
 なお、図7及び図8のいずれの動作例においても、単位蓄積の最短サイクルはリセット信号のサンプリングと蓄積信号のサンプリングとの合計所要時間によって規定され得る。
 2.5 パルス光検出のオペレーション例
 次に、図9のタイミングチャートを参照して、第1の実施形態に係るフローサイトメータ11におけるパルス光検出のオペレーション例について説明する。図9は、第1の実施形態に係るフローサイトメータにおけるパルス光検出のオペレーション例を説明するためのタイミングチャートである。
 蛍光74の光強度は、照射スポット72への検体53の通過に伴って、図9の最上段で示されるようなパルス波形PL1として描かれ、各パルス波形PL1が検体53の1個分の通過に対応する波形となる。この時、図9の中段で示される、フォトダイオード33で検出された前方散乱光73の光強度は、図9の上段におけるパルス波形PL1とタイミングが類似して、かつ、強度増加率の大きいパルス波形PL2のように描かれる。
 タイミングT61において、フォトダイオード33は、前方散乱光のパルス波形PL2の強度と、閾値Th1との比較から、検体53の通過タイミングを取得して、イベント信号S11を発生する。
 ここで、イメージセンサ34における蓄積期間の終了と信号読出しとは、検体53が通過したことを示すイベント信号S11に同期して実施される。読出しのアクセスシーケンスは、図9に準じ、不感期間の殆ど無いグローバルシャッタとする。
 すなわち、蓄積期間の開始と終了とは、全画素同時一斉に行われる。この時、検体53の通過を示すイベント信号S11に同期して電荷の画素内転送が行われ、蓄積期間が全画素一斉に終了する。そして、画素信号の読出しが開始される。さらに、このとき次の蓄積期間が全画素一斉にスタートする。
 タイミングT62において、イメージセンサ34は、画素における蓄積期間を終了し、画素信号の読出しを開始し、さらには、次の蓄積期間を開始する。ここで、タイミングT62は、イベント信号S11を取得したタイミングT61から、検体53の流速と大きさを考慮した一定の遅延時間t1が経過した後のタイミングである。
 画素信号の読出しでは、蓄積信号のAD変換値と、既に取得済みであるリセット信号とのAD変換値との差分取得を伴って実施され、これによってkTCノイズ等を相殺した正味の画素信号が導出される。さらに、これに引き続いて、次のサイクルにおけるリセット信号の取得とAD変換が実施され、それが完了した時点で次の蓄積期間の終了と読出しとが可能になる。すなわち、イベント処理の最短サイクルは単位蓄積期間の最短サイクルに等しく、それは蓄積信号とリセット信号との各々の取得とAD変換に要する時間により決定される。
 各イベント処理において複数の画素101から出力される正味の画素信号の総計値は、パルスごとに光検出器が受光した光子の総量に相当する。これによって検体53ごとの蛍光74の強度が導出される。すなわち、本実施形態においては、画素101が光電変換された電荷を内部に蓄積することにより、画素101内で入射光の積分が行われている。したがって、各画素101からの出力に対するAD変換は一回でよく、時系列的に複数回のAD変換を実施する必要はない。
 例えば、リセット信号のAD変換と蓄積信号のAD変換とそのCDSとに、合計で10μsの時間を要したとすると、対応できるイベントの最小間隔は約10μsとなり、1秒間に最大100,000個のイベント、すなわち、照射スポット72への検体53の通過を評価できることになる。
 なお、各画素101から画素信号を読み出す時間以外に、出力回路96を介して読み出した画素信号を出力する時間も要することとなるが、例えば、検出回路93にレジスタを設けて画素信号を一時保存しておくことで、リセット信号及び蓄積信号のAD変換と画素信号の出力とをパイプライン方式で並列に実行することが可能であるため、画素信号の出力に要する時間が蓄積サイクルを制約することはない。
 また、この例では、検体53が通過したことを示すイベント信号S11を、パルス波形PL2が閾値L1を下回ったダウンエッジのタイミングT61で発生させているが、これに限定されず、パルス波形PL2が閾値L1を上回ったアップエッジのタイミングT63で発生させてもよい。イベント信号S11をアップエッジのタイミングT63で発生させる場合、検体53の大きさや流量の変動に対応することが容易となる。
 また、イベント信号S11は、側方散乱光や蛍光74(分散光75)の検出結果を用いて発生させてもよい。その場合、イベント検出用の光と検体解析用の光とを分光し、イベント検出用の光をフォトダイオード33に入射させてもよい。
 さらに、フォトダイオード33に代えて、イメージセンサ34内にイベント発生用の受光素子を別途搭載してもよい。
 さらにまた、イベント信号S11からの遅延時間t1をここでは一定としたが、一般に前方散乱光73によるパルス波形PL2の強度減衰量は検体53が大きいほど大きい。従って、パルス波形PL2の強度を、例えば、パルスの冒頭部分で評価し、それに応じて遅延時間t1の長さを設定してもよい。この場合、大きな検体53に対しては長めの遅延時間t1が設定されてよい。
 さらにまた、本説明では、画素アレイ部91の全画素に対して一斉に読出しを開始する、いわゆるグローバルシャッタ方式を例示したが、これに限定されるものではない。例えば、1つの検出回路93を同一列の複数の画素101に接続した場合には、同一の検出回路93に接続された画素101から順に画素信号を読み出す、いわゆるローリングシャッタ方式を採用することも可能である。なお、ローリングシャッタ方式を採用する場合、各画素101の画素回路における増幅トランジスタ114のドレインと垂直信号線124には、行駆動回路121からの選択信号に従って増幅トランジスタ114のドレインと垂直信号線124との接続を制御する選択トランジスタが追加される。
 2.6 画素アレイ部上の位置と分散光の波長との関係例
 図10は、第1の実施形態に係る画素アレイ部上の位置と分散光の波長との関係の一例を示す図である。上述したように、分光光学系37は、蛍光74を行方向H1に分光して、行方向H1に広がった分散光75を出射する。図10に示す例では、分光光学系37は、行方向H1において最も左側に位置する画素101に波長500nmの光が入射し、最も右側に位置する画素101に波長800nmの光が入射するように、蛍光74を分光する。ここで、上述したように、画素アレイ部91における行方向H1の画素数を320画素とすると、各画素101には、行方向H1の位置に応じて、約0.9~1nmの波長幅の光が入射することとなる。
 2.7 イメージセンサをマルチチャネル化する場合
 図11は、第1の実施形態に係るイメージセンサをマルチチャネル化する場合の例を示す図である。すなわち、本説明では、イメージセンサ34をマルチチャネルPMTとして使用する場合が例示される。なお、図11は、イメージセンサ34を32チャンネルに分割する場合を示している。
 図11に示すように、イメージセンサ34を32チャンネルのマルチチャネル化する場合、画素アレイ部91は、行方向H1の画素数が10画素ずつの計32個の領域に分割される。具体的には、信号取得システム1は、画素アレイ部91から取得したスペクトル画像G1を、行方向H1の画素数が10画素ずつの計32個のチャネル領域CH1~CH32に分割する。その場合、各チャネル領域CH1~CH32に含まれる光の波長幅は、約9~10nmとなる。
 なお、マルチチャネル化において実現するチャネル数、すなわち、画素アレイ部91又はスペクトル画像G1の行方向H1の分割数は、32個に限定されず、種々変形することが可能である。例えば、画素アレイ部91における行方向H1の画素数を320画素とした場合には、最小で1チャンネル、最大で320チャンネルのチャネル領域に分割することが可能である。
 また、光検出部としてイメージセンサ34を用いる本実施形態では、例えば、チャネル領域それぞれの行方向H1の幅(画素数)を、チャネル領域ごとに別々に設定することが可能である。
 例えば、分光光学系37にプリズムを用いる場合には、長い波長の光の方が、短い波長の光に比べて、行方向H1への広がりが広くなる。そのような場合、例えば、図11に示す例において、長い波長の光が入射するチャネル領域CH31、CH32等の行方向H1の画素数を、短い波長の光が入射するチャネル領域CH1、CH2等の行方向H1の画素数よりも大きくしてもよい。すなわち、分光光学系37が蛍光74を所定方向(例えば、行方向H1に対応する方向)に分光するプリズムを含んでいる場合、蛍光74のうちの第1波長成分が入射する第1領域(例えばチャネル領域CH1)の行方向H1の幅(画素数)は、第1波長成分よりも長い第2波長成分が入射する第2領域(例えば、チャネル領域CH32)の行方向H1の幅(画素数)よりも狭くてもよい。
 このように、本実施形態では、蛍光74に対してマルチチャネル分析を行なう場合に、チャネル数、各チャネルのチャネル幅(波長幅)、各チャネルの中心波長等を自由に設計することが可能である。
 2.8 イメージセンサでバーチャルフィルタ機能を実現する場合
 また、本実施形態に係るイメージセンサ34を用いて、バーチャルフィルタ機能を実現することも可能である。図12は、波長488nmの励起光で励起されたFITC、PE、PerCP-Cy5.5及びPE-Cy7の4種類の蛍光色素から放射された蛍光のスペクトルを示す図である。図13は、図12に示す蛍光に対して実現される第1の実施形態に係るバーチャルフィルタの一例を示す図である。なお、図13では、画素アレイ部91における左端の画素列を画素列#1とし、右端の画素列を画素列#320としている。
 図12に示すように、488nmの励起光L0をFITC、PE、PerCP-Cy5.5及びPE-Cy7の4種類の蛍光色素に照射した場合、FITCからは中心波長が530nm程度の蛍光L1が放射され、PEからは中心波長が585程度の蛍光L2が放射され、PerCP-Cy5.5からは中心波長が695nm程度の蛍光L3が放射され、PE-Cy7からは中心波長が780nm程度の蛍光L4が放射される。
 そこで信号取得システム1は、図13に示すように、FITCからの蛍光L1に対しては、行方向H1の中心を波長530nmに相当する画素列#33とし、行方向H1の幅を波長30nmに相当する33画素としたバーチャルフィルタ(フィルタ領域ともいう)F1をスペクトル画像G1に設定する。PEからの蛍光L2に対しては、行方向H1の中心を波長585nmに相当する画素列#91とし、行方向H1の幅を波長42nmに相当する46画素としたバーチャルフィルタF2をスペクトル画像G1に設定する。PerCP-Cy5.5からの蛍光L3に対しては、行方向H1の中心を波長695nmに相当する画素列#208とし、行方向H1の幅を波長40nmに相当する44画素としたバーチャルフィルタF3をスペクトル画像G1に設定する。PE-Cy7からの蛍光L4に対しては、行方向H1の中心を波長780nmに相当する画素列#299とし、行方向H1の幅を波長40nmに相当する44画素としたバーチャルフィルタF4をスペクトル画像G1に設定する。
 なお、それぞれのバーチャルフィルタF1~F4では、列方向V1の画素数は、例えば、画素アレイ部91の列方向V1の画素数と同じ、36画素であってよい。
 以上のようなバーチャルフィルタF1~F4をスペクトル画像G1に設定した場合、信号取得システム1からは、例えば、バーチャルフィルタF1を構成する33×36画素の各画素101から出力された画素信号の合算値と、バーチャルフィルタF2を構成する46×36画素の各画素101から出力された画素信号の合算値と、バーチャルフィルタF3を構成する44×36画素の各画素101から出力された画素信号の合算値と、バーチャルフィルタF4を構成する44×36画素の各画素101から出力された画素信号の合算値とが、評価値として出力される。
 このように、本実施形態では、光検出器としてイメージセンサ34を用いることで、波長分解能が細かく、解像度の高い蛍光スペクトラム情報を取得することが可能であるため、光学フィルタ特性の再現性を高めることや、各蛍光色素から放出された蛍光に対して最適なバーチャルフィルタを設定することなどが可能となる。
 なお、設定するバーチャルフィルタの数、各バーチャルフィルタの中心波長及び/又は波長幅等は、使用する励起光71の波長や検体53及び/又は蛍光マーカの種類等に応じて自由に設計することが可能である。例えば、図12に例示した4つの蛍光色素に対して別の蛍光色素を追加した場合には、追加した分のバーチャルフィルタをスペクトル画像G1に設定することが可能である。その際、異なる蛍光のスペクトルが近接する領域では、各バーチャルフィルタの中心波長及び/又は波長幅が調整されてよい。
 また、マルチスポット型のフローサイトメータとした場合には、それぞれの励起光71によって検体53及び/又は蛍光マーカから放射される蛍光に応じて、最適なバーチャルフィルタを設定することも可能である。
 2.9 作用・効果
 以上のように、第1の実施形態によれば、スペクトル型のフローサイトメータ11において、アレイ型光検出器に2次元のイメージセンサ34が用いられる。これにより、アレイ型光検出器にマルチチャネルPMTを使用した場合と比較して、装置規模を小型化することが可能となる。その結果、全体的な装置規模を縮小することが可能である。
 また、イメージセンサ34は、マルチチャネルPMTと比較して、波長分解能が細かく、解像度の高い蛍光スペクトラム情報を取得することが可能であるため、光学フィルタ特性を忠実に再現したバーチャルフィルタを実現することが可能となる。
 さらに、イメージセンサ34を用いることで、任意の波長幅で画素値を加算することが可能となるため、マルチチャネル分析を行なう際のチャネル数の増減やチャネル幅の変更、バーチャルフィルタ機能を使用する場合のフィルタ数の増減や各フィルタの中心波長/波長幅の変更など、製品化後の設計変更が容易になるというメリットも備える。
 3.第2の実施形態
 上述した第1の実施形態では、スペクトル型フローサイトメータを例示したが、本開示に係る技術は、フローサイトメータに限定されず、例えば、デジタルパソロジーイメージング(DPI)などの医療機器にも適用することが可能となる。
 デジタルパソロジーイメージング(DPI)では、検体53は、ステージ上に載置され、ステージ上に載置された検体53が励起光源32からの励起光71によって走査される。ステージ上に載置された検体53の励起光71による走査は、ステージと励起光源32との位置関係を制御する走査制御部によって制御される。
 また、デジタルパソロジーイメージング(DPI)では、イメージセンサ34として、画素101が直線状に配列したラインセンサが用いられる。ラインセンサは、励起光71がステージ上の検体53を走査した際に、検体53から放射された蛍光74を受光することで、検体53全体に対する2次元又は3次元の画像データ(スペクトル画像)を生成する。
 生成されたスペクトル画像は、第1の実施形態と同様に、信号取得システム1に入力されて評価され、その評価値が解析システム2に入力されて解析される。
 図14は、第2の実施形態に係る光学測定装置(システム)の概略構成例を示すブロック図である。
 図14に示すように、本実施形態の光学測定装置200は、観察ユニット201を備える。観察ユニット201は、異軸平行に配置された波長の異なる複数のライン照明を病理標本(病理サンプル)に照射する励起部210と、病理標本を支持するサンプルステージ220と、ライン状に励起された病理標本の蛍光スペクトル(分光データ)を取得する分光イメージング部230とを有する。
 光学測定装置200は、第1の実施形態における信号取得システム1及び解析システム2に相当する処理ユニット202をさらに備える。処理ユニット202は、観察ユニット201によって取得された病理標本(以下、サンプルSともいう)の蛍光スペクトルに基づいて、典型的には、病理標本の画像(スペクトル画像に相当)を形成し、あるいは蛍光スペクトルの分布を出力する。ここでいう画像とは、そのスペクトルを構成する色素やサンプル由来の自家蛍光などの構成比率、波形からRGB(赤緑青)カラーに変換されたもの、特定の波長帯の輝度分布などをいう。
 サンプルステージ220に対して、対物レンズなどの観察光学系240を介して、励起部210と分光イメージング部230が接続されている。観察光学系240はフォーカス機構260によって最適な焦点に追従する機能を持っている。観察光学系240には、暗視野観察、明視野観察などの非蛍光観察部270が接続されてもよい。フォーカス機構260、非蛍光観察部270などは記憶、制御、計算処理を行う制御部(PC(Personal Computer)など)に接続されている。
 励起部210は、波長の異なる複数の励起光を出力することができる複数の光源を備える。複数の光源は、典型的には、発光ダイオード(LED)、レーザダイオード(LD)、水銀ランプなどで構成され、それぞれがライン照明化され、サンプルステージ220のサンプルSに照射される。
 サンプルSは、典型的には、組織切片等の観察対象を含むスライドで構成されるが、勿論それ以外であってもよい。サンプルSは、複数の蛍光色素によって染色されている。観察ユニット201は、サンプルSを所望の倍率に拡大して観察する。ライン照明が複数配置されており、それぞれの照明エリアに重なるように分光イメージング部230の複数の撮影エリアが配置される。2つのライン照明はそれぞれ平行に離間して配置される。各ライン照明の長手方向をX軸方向とし、配列方向をY軸方向とする。
 1つめのライン照明を構成する波長と、2つめのライン照明を構成する波長は相互に異なっている。これらライン照明により励起されるライン状の蛍光は、観察光学系240を介して分光イメージング部230において観測される。
 分光イメージング部230は、複数のライン照明によって励起された蛍光がそれぞれ通過可能な複数のスリット部を有する観測スリットと、観測スリットを通過した蛍光を個々に受光可能な少なくとも1つの撮像素子(イメージセンサ34に相当)とを有する。撮像素子には、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの2次元イメージャが採用される。観測スリットを光路上に配置することで、それぞれのラインで励起された蛍光スペクトルを重なりなく検出することができる。
 分光イメージング部230は、それぞれのライン照明から、撮像素子の1方向(例えば垂直方向)の画素アレイを波長のチャンネルとして利用した蛍光の分光データ(x、λ)を取得する。得られた分光データ(x、λ)は、それぞれどの励起波長から励起された分光データであるかが紐づけられた状態で処理ユニット202に記録される。
 処理ユニット202は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等のコンピュータに用いられるハードウエア要素および必要なソフトウエアにより実現され得る。CPUに代えて、またはこれに加えて、FPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、あるいは、DSP(Digital Signal Processor)、その他ASIC(Application Specific Integrated Circuit)等が用いられてもよい。
 処理ユニット202は、複数のライン照明の波長と撮像素子で受光された蛍光との相関を表す分光データを記憶する記憶部221を有する。記憶部221には、不揮発性半導体メモリ、ハードディスクドライブ等の記憶装置が用いられ、サンプルSに関する自家蛍光の標準スペクトル、サンプルSを染色する色素単体の標準スペクトルがあらかじめ格納されている。撮像素子で受光した分光データ(x、λ)は、例えば、記憶部221に記憶される。
 観察ユニット201はさらに、サンプルステージ220に対して複数のライン照明をY軸方向、つまり、各ライン照明の配列方向に走査する走査機構250を備える。走査機構250を用いることで、サンプルS上において空間的にΔyだけ離れた、それぞれ異なる励起波長で励起された色素スペクトル(蛍光スペクトル)をY軸方向に連続的に記録することができる。この場合、例えば、撮影領域がX軸方向に複数に分割され、Y軸方向にサンプルSをスキャンし、その後、X軸方向に移動し、さらにY軸方向へのスキャンを行うといった動作が繰り返される。1回のスキャンで数種の励起波長によって励起されたサンプル由来の分光スペクトルイメージを撮影することができる。
 走査機構250は、典型的には、サンプルステージ220がY軸方向に走査されるが、光学系の途中に配置されたガルバノミラーによって複数のライン照明がY軸方向に走査されてもよい。最終的に、(X、Y、λ)の3次元データが複数のライン照明についてそれぞれ取得される。各ライン照明由来の3次元データはY軸についてΔyだけ座標がシフトしたデータになるので、あらかじめ記録されたΔy、または撮像素子34の出力から計算されるΔyの値に基づいて、補正され出力される。
 ここまでの例では励起光としてのライン照明は2本で構成されたが、これに限定されず、3本、4本あるいは5本以上であってもよい。またそれぞれのライン照明は、色分離性能がなるべく劣化しないように選択された複数の励起波長を含んでもよい。またライン照明が1本であっても、複数の励起波長から構成される励起光源で、かつそれぞれの励起波長と、撮像素子で所得されるロウデータとを紐づけて記録すれば、異軸平行ほどの分離能は得られないが、多色スペクトルを得ることができる。
 画像形成部223は、記憶部221に記憶された分光データ(あるいはデータ校正部222によって校正された分光データ)と、励起ラインの軸間距離(Δy)に相当する間隔とに基づいて、サンプルSの蛍光画像を形成する。
 各ライン照明由来の3次元データは、Y軸についてΔyだけ座標がシフトしたデータになるので、あらかじめ記録されたΔy、または撮像素子の出力から計算されるΔyの値に基づいて補正され、出力される。
 画像形成部223は、撮影した画像を繋げて1つの大きな画像にするための処理(スティッチング)を実行する。これにより、多重化されたサンプルSに関する病理画像を取得することができる。形成された蛍光画像は、表示部203に出力される。
 さらに、画像形成部223は、記憶部221にあらかじめ記憶されたサンプルSの自家蛍光及び色素単体の各標準スペクトルを基に、撮影された分光データ(測定スペクトル)からサンプルSの自家蛍光及び色素の成分分布を分離計算する。演算方法としては、最小二乗法、重み付け最小二乗法などが採用可能であり、撮影された分光データが上記標準スペクトルの線形和になるような係数を計算する。算出された係数の分布は、記憶部221に記憶されるとともに、表示部203へ出力されて画像として表示される。
 以上のように、DPIに対しても、第1の実施形態と同様に、その光検出部をイメージセンサ34とすることが可能である。また、マルチチャネル分析やバーチャルフィルタ機能についても同様に、DPIに対して適用することが可能である。
 以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
 また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 生体検体から放射した蛍光を分光する分光光学系と、
 前記分光光学系で分光された前記蛍光を受光して蛍光情報を生成するイメージセンサと、
 を備え、
 前記イメージセンサは、それぞれ前記蛍光のうちの異なる波長成分を受光して前記波長成分ごとの蛍光情報を生成する複数の領域に分割されている
 光学測定装置。
(2)
 前記蛍光情報は、前記イメージセンサの画素ごとの画素値を前記領域ごとに合算した値、又は、前記画素ごとの画素値よりなる画像データである前記(1)に記載の光学測定装置。
(3)
 前記イメージセンサで生成された前記蛍光情報を評価する信号取得部をさらに備える前記(1)又は(2)に記載の光学測定装置。
(4)
 前記信号取得部は、前記蛍光情報を前記分光光学系によって分光された前記蛍光の分光方向に沿って配列する複数のチャネル領域に分割し、前記複数のチャネル領域それぞれの画素値を合算することで、前記蛍光情報の評価値を算出する前記(3)に記載の光学測定装置。
(5)
 前記信号取得部は、前記蛍光情報における1つ以上のフィルタ領域それぞれの画素値を合算することで、前記蛍光情報の評価値を算出する前記(3)に記載の光学測定装置。
(6)
 前記分光光学系は、前記蛍光を所定方向に分光するプリズムを含み、
 前記複数の領域のうち、前記蛍光のうちの第1波長成分が入射する第1領域の前記所定方向に対応する方向の幅は、前記蛍光のうちの前記第1波長成分よりも長い第2波長成分が入射する第2領域の前記所定方向に対応する方向の幅よりも狭い
 前記(1)~(5)の何れか1項に記載の光学測定装置。
(7)
 前記信号取得部による前記蛍光情報の評価結果に基づいて前記生体検体を解析する解析部をさらに備える前記(3)に記載の光学測定装置。
(8)
 前記イメージセンサは、
  行列状に配列する複数の光電変換素子と、
  前記光電変換素子それぞれに発生した電荷に基づいて前記蛍光情報を構成する複数の前記画素値を生成する検出回路と、
 を備える前記(2)に記載の光学測定装置。
(9)
 前記生体検体に所定波長の励起光を照射する励起光源をさらに備える前記(1)~(8)の何れか1項に記載の光学測定装置。
(10)
 前記生体検体が流れる流路をさらに備え、
 前記励起光源は、前記流路における所定の領域に前記励起光を照射する
 前記(9)に記載の光学測定装置。
(11)
 所定波長の励起光を出射する励起光源と、
 前記生体検体を載置するステージと、
 前記励起光が前記ステージ上の前記生体検体を走査するように前記ステージと前記励起光源との位置関係を制御する走査機構と、
 をさらに備える前記(1)~(10)の何れか1項に記載の光学測定装置。
(12)
 生体検体から放射した蛍光を分光する分光光学系と、
 前記分光光学系で分光された前記蛍光を受光して蛍光情報を生成するイメージセンサと、
 前記イメージセンサで生成された前記蛍光情報を評価する信号取得部と、
 前記信号取得部による前記蛍光情報の評価結果に基づいて前記生体検体を解析する解析部と、
 を備え、
 前記イメージセンサは、それぞれ前記蛍光のうちの異なる波長成分を受光して前記波長成分ごとの蛍光情報を生成する複数の領域を備える光学測定システム。
 1 信号取得システム
 2 解析システム
 11 フローサイトメータ
 31 フローセル
 32 励起光源
 33 フォトダイオード
 34 イメージセンサ
 35、36 集光レンズ
 37 分光光学系
 371 光学素子
 51 サンプルチューブ
 52 サンプル流
 53 検体
 71 励起光
 72 照射スポット
 73 前方散乱光
 74 蛍光
 75 分散光
 91 画素アレイ部
 92 接続部
 93 検出回路
 93A、93B検出回路アレイ
 94 画素駆動回路
 95 ロジック回路
 96 出力回路
 101 画素
 111 フォトダイオード
 112 蓄積ノード
 113 転送トランジスタ
 114 増幅トランジスタ
 116 リセットトランジスタ
 118 電源
 121 行駆動回路
 122 定電流回路
 124 垂直信号線
 200 光学測定装置
 201 観察ユニット
 202 処理ユニット
 203 表示部
 210 励起部
 220 サンプルステージ
 230 分光イメージング部
 240 観察光学系
 250 走査機構
 260 フォーカス機構
 270 非蛍光観察部
 221 記憶部
 222 データ校正部
 223 画像形成部
 CH1~CH32 チャネル領域
 F1~F4 バーチャルフィルタ
 G1 スペクトル画像
 H1 行方向
 V1 列方向

Claims (12)

  1.  生体検体から放射した蛍光を分光する分光光学系と、
     前記分光光学系で分光された前記蛍光を受光して蛍光情報を生成するイメージセンサと、
     を備え、
     前記イメージセンサは、それぞれ前記蛍光のうちの異なる波長成分を受光して前記波長成分ごとの蛍光情報を生成する複数の領域に分割されている
     光学測定装置。
  2.  前記蛍光情報は、前記イメージセンサの画素ごとの画素値を前記領域ごとに合算した値、又は、前記画素ごとの画素値よりなる画像データである請求項1に記載の光学測定装置。
  3.  前記イメージセンサで生成された前記蛍光情報を評価する信号取得部をさらに備える請求項1に記載の光学測定装置。
  4.  前記信号取得部は、前記蛍光情報を前記分光光学系によって分光された前記蛍光の分光方向に沿って配列する複数のチャネル領域に分割し、前記複数のチャネル領域それぞれの画素値を合算することで、前記蛍光情報の評価値を算出する請求項3に記載の光学測定装置。
  5.  前記信号取得部は、前記蛍光情報における1つ以上のフィルタ領域それぞれの画素値を合算することで、前記蛍光情報の評価値を算出する請求項3に記載の光学測定装置。
  6.  前記分光光学系は、前記蛍光を所定方向に分光するプリズムを含み、
     前記複数の領域のうち、前記蛍光のうちの第1波長成分が入射する第1領域の前記所定方向に対応する方向の幅は、前記蛍光のうちの前記第1波長成分よりも長い第2波長成分が入射する第2領域の前記所定方向に対応する方向の幅よりも狭い
     請求項1に記載の光学測定装置。
  7.  前記信号取得部による前記蛍光情報の評価結果に基づいて前記生体検体を解析する解析部をさらに備える請求項3に記載の光学測定装置。
  8.  前記イメージセンサは、
      行列状に配列する複数の光電変換素子と、
      前記光電変換素子それぞれに発生した電荷に基づいて前記蛍光情報を構成する複数の前記画素値を生成する検出回路と、
     を備える請求項2に記載の光学測定装置。
  9.  前記生体検体に所定波長の励起光を照射する励起光源をさらに備える請求項1に記載の光学測定装置。
  10.  前記生体検体が流れる流路をさらに備え、
     前記励起光源は、前記流路における所定の領域に前記励起光を照射する
     請求項9に記載の光学測定装置。
  11.  所定波長の励起光を出射する励起光源と、
     前記生体検体を載置するステージと、
     前記励起光が前記ステージ上の前記生体検体を走査するように前記ステージと前記励起光源との位置関係を制御する走査機構と、
     をさらに備える請求項1に記載の光学測定装置。
  12.  生体検体から放射した蛍光を分光する分光光学系と、
     前記分光光学系で分光された前記蛍光を受光して蛍光情報を生成するイメージセンサと、
     前記イメージセンサで生成された前記蛍光情報を評価する信号取得部と、
     前記信号取得部による前記蛍光情報の評価結果に基づいて前記生体検体を解析する解析部と、
     を備え、
     前記イメージセンサは、それぞれ前記蛍光のうちの異なる波長成分を受光して前記波長成分ごとの蛍光情報を生成する複数の領域を備える光学測定システム。
PCT/JP2020/023499 2019-06-26 2020-06-16 光学測定装置及び光学測定システム WO2020262092A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/620,102 US20220247962A1 (en) 2019-06-26 2020-06-16 Optical measurement device and optical measurement system
JP2021528241A JP7501532B2 (ja) 2019-06-26 2020-06-16 光学測定装置及び光学測定システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019119128 2019-06-26
JP2019-119128 2019-06-26

Publications (1)

Publication Number Publication Date
WO2020262092A1 true WO2020262092A1 (ja) 2020-12-30

Family

ID=74061980

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/023499 WO2020262092A1 (ja) 2019-06-26 2020-06-16 光学測定装置及び光学測定システム

Country Status (2)

Country Link
US (1) US20220247962A1 (ja)
WO (1) WO2020262092A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276254A1 (ja) * 2021-06-29 2023-01-05 ソニーグループ株式会社 情報処理装置、顕微鏡システム、及び情報処理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220221391A1 (en) * 2019-05-30 2022-07-14 Sony Group Corporation Optical measuring device and optical measuring system
US11741633B2 (en) * 2021-05-17 2023-08-29 Nvidia Corporation Converting discrete light attenuation into spectral data for rendering object volumes

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05142137A (ja) * 1991-11-20 1993-06-08 Toa Medical Electronics Co Ltd イメージングフローサイトメータ
JP2007113979A (ja) * 2005-10-19 2007-05-10 Ebara Corp マルチ分光分析装置
JP2007285999A (ja) * 2006-04-20 2007-11-01 Furukawa Electric Co Ltd:The 光測定装置
JP2016524703A (ja) * 2013-05-15 2016-08-18 キャピトル エルエルシー 走査型イメージフローサイトメーター
WO2017086181A1 (ja) * 2015-11-19 2017-05-26 ソニー株式会社 光パルス検出装置、光パルス検出方法、放射線計数装置、および生体検査装置
WO2017104438A1 (ja) * 2015-12-16 2017-06-22 ソニー株式会社 撮像素子および駆動方法、並びに電子機器
WO2017145816A1 (ja) * 2016-02-24 2017-08-31 ソニー株式会社 光学測定器、フローサイトメータ、および放射線計数器
US20170328826A1 (en) * 2016-05-12 2017-11-16 Bd Biosciences Fluorescence Imaging Flow Cytometry With Enhanced Image Resolution
JP2018013422A (ja) * 2016-07-21 2018-01-25 ソニーセミコンダクタソリューションズ株式会社 検出装置及び電子機器
US20180231452A1 (en) * 2015-07-15 2018-08-16 Becton, Dickinson And Company System and method for label selection

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017223206A1 (en) * 2016-06-21 2017-12-28 Sri International Hyperspectral imaging methods and apparatuses

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05142137A (ja) * 1991-11-20 1993-06-08 Toa Medical Electronics Co Ltd イメージングフローサイトメータ
JP2007113979A (ja) * 2005-10-19 2007-05-10 Ebara Corp マルチ分光分析装置
JP2007285999A (ja) * 2006-04-20 2007-11-01 Furukawa Electric Co Ltd:The 光測定装置
JP2016524703A (ja) * 2013-05-15 2016-08-18 キャピトル エルエルシー 走査型イメージフローサイトメーター
US20180231452A1 (en) * 2015-07-15 2018-08-16 Becton, Dickinson And Company System and method for label selection
WO2017086181A1 (ja) * 2015-11-19 2017-05-26 ソニー株式会社 光パルス検出装置、光パルス検出方法、放射線計数装置、および生体検査装置
WO2017104438A1 (ja) * 2015-12-16 2017-06-22 ソニー株式会社 撮像素子および駆動方法、並びに電子機器
WO2017145816A1 (ja) * 2016-02-24 2017-08-31 ソニー株式会社 光学測定器、フローサイトメータ、および放射線計数器
US20170328826A1 (en) * 2016-05-12 2017-11-16 Bd Biosciences Fluorescence Imaging Flow Cytometry With Enhanced Image Resolution
JP2018013422A (ja) * 2016-07-21 2018-01-25 ソニーセミコンダクタソリューションズ株式会社 検出装置及び電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Safety of IPS cell and highquality manufacturing technology", 31 October 2016, ISBN: 978-4-86104-629-2, article "Chapter 5, section 6,"Quantification of cellular properties using a flow cytometer", pages: 327 - 337 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276254A1 (ja) * 2021-06-29 2023-01-05 ソニーグループ株式会社 情報処理装置、顕微鏡システム、及び情報処理方法

Also Published As

Publication number Publication date
JPWO2020262092A1 (ja) 2020-12-30
US20220247962A1 (en) 2022-08-04

Similar Documents

Publication Publication Date Title
WO2020262092A1 (ja) 光学測定装置及び光学測定システム
JP4067826B2 (ja) 撮像システム及びその撮像方法
US9091654B2 (en) Serial-line-scan-encoded multi-color fluorescence microscopy and imaging flow cytometry
US20180122848A1 (en) Systems and methods for imaging using single photon avalanche diodes
US6975400B2 (en) Imaging and analyzing parameters of small moving objects such as cells
US6608682B2 (en) Imaging and analyzing parameters of small moving objects such as cells
US6671044B2 (en) Imaging and analyzing parameters of small moving objects such as cells in broad flat flow
US7649618B2 (en) System and method to perform raman imaging without luminescence
JP3260469B2 (ja) 粒子分析装置
US20110017915A1 (en) Drift scanner for rare cell detection
JP2011513740A (ja) 光子混合検出器を用いた時間分解分光分析方法およびシステム
US11041756B2 (en) Method and apparatus of filtering light using a spectrometer enhanced with additional spectral filters with optical analysis of fluorescence and scattered light from particles suspended in a liquid medium using confocal and non confocal illumination and imaging
US7259366B2 (en) Apparatus for the detection of photons of a light beam having a three-dimensional array of detectors
JP4798990B2 (ja) 走査顕微鏡において複数の異なる放射波長を分離するための方法及び装置
US11994469B2 (en) Spectroscopic imaging apparatus and fluorescence observation apparatus
GB2429521A (en) CCD device for time resolved spectroscopy
JP7501532B2 (ja) 光学測定装置及び光学測定システム
JP3453595B2 (ja) 多波長蛍光計測装置
WO2020241652A1 (ja) 光学測定装置及び光学測定システム
Ülkü Large-format time-gated SPAD cameras for real-time phasor-based FLIM
JP2009230021A (ja) 光学顕微鏡、及びスペクトル測定方法
WO2023276298A1 (ja) 生体試料分析システム、情報処理装置、情報処理方法及び生体試料分析方法
Rana Integration of hyperspectral imaging system for optimized data acquisition and control to revolutionize pathology applications

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20831172

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021528241

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20831172

Country of ref document: EP

Kind code of ref document: A1