WO2023042646A1 - 分類モデル生成方法、粒子判定方法、コンピュータプログラム及び情報処理装置 - Google Patents

分類モデル生成方法、粒子判定方法、コンピュータプログラム及び情報処理装置 Download PDF

Info

Publication number
WO2023042646A1
WO2023042646A1 PCT/JP2022/032307 JP2022032307W WO2023042646A1 WO 2023042646 A1 WO2023042646 A1 WO 2023042646A1 JP 2022032307 W JP2022032307 W JP 2022032307W WO 2023042646 A1 WO2023042646 A1 WO 2023042646A1
Authority
WO
WIPO (PCT)
Prior art keywords
particles
sample
observation data
cells
classification model
Prior art date
Application number
PCT/JP2022/032307
Other languages
English (en)
French (fr)
Inventor
啓晃 安達
一誠 佐藤
Original Assignee
シンクサイト株式会社
国立大学法人東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シンクサイト株式会社, 国立大学法人東京大学 filed Critical シンクサイト株式会社
Priority to JP2023548388A priority Critical patent/JPWO2023042646A1/ja
Publication of WO2023042646A1 publication Critical patent/WO2023042646A1/ja

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12QMEASURING OR TESTING PROCESSES INVOLVING ENZYMES, NUCLEIC ACIDS OR MICROORGANISMS; COMPOSITIONS OR TEST PAPERS THEREFOR; PROCESSES OF PREPARING SUCH COMPOSITIONS; CONDITION-RESPONSIVE CONTROL IN MICROBIOLOGICAL OR ENZYMOLOGICAL PROCESSES
    • C12Q1/00Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions
    • C12Q1/02Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions involving viable microorganisms
    • C12Q1/04Determining presence or kind of microorganism; Use of selective media for testing antibiotics or bacteriocides; Compositions containing a chemical indicator therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/20Identification of molecular entities, parts thereof or of chemical compositions
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics

Definitions

  • the present invention relates to a classification model generation method for determining whether particles such as cells are specific particles, a particle determination method using the generated classification model, a computer program, and an information processing apparatus.
  • the flow cytometry method has been used as a method to examine individual cells.
  • the flow cytometry method cells dispersed in a fluid are allowed to flow, each cell moving in the channel is irradiated with light, and light such as scattered light or fluorescence from the irradiated cells is measured.
  • 1) is a cell analysis method for acquiring information about cells irradiated with light as a photographed image or the like.
  • a flow cytometer cells moving in a channel are irradiated with a special structured illumination light, waveform data containing compressed morphological information of the cells are acquired from the cells, and cells are analyzed based on the waveform data.
  • a ghost cytometry method (hereinafter referred to as the GC method) for classification has been developed.
  • An example of the GC method is disclosed in US Pat.
  • a classification model is created in advance by machine learning from the waveform data of cells prepared as training samples, and the classification model is used to classify the cells from the waveform data of the cells included in the evaluation sample. Identify target cells.
  • a flow cytometer using the GC method enables faster and more accurate analysis of cells.
  • a flow cytometer using the GC method can distinguish cells with specific morphological characteristics without labeling such as fluorescent staining. For example, when a disease causes a change in the morphology of a specific cell, cells with the changed morphology can be identified from specimens collected from humans using a flow cytometer using the GC method. Patients with disease can be detected.
  • a classification model used in the GC method it is necessary to prepare a target cell as a training sample in advance and acquire waveform data about the cell.
  • the target cell is a rare cell, it may not be easy to acquire a large amount of waveform data for the target cell. Therefore, it can be difficult to distinguish cells with specific characteristics.
  • the present invention has been made in view of such circumstances, and its object is to provide a classification model generation method, a particle determination method, a computer It is to provide a program and an information processing device.
  • a classification model generation method includes a first sample in which particles having specific morphological characteristics and other particles are mixed, and particles that do not contain particles having the specific morphological characteristics and are composed of other particles. For each particle contained in the second sample, observation data representing the result of observing the particle is obtained, and the observation data and the particle from which the observation data is contained in the first sample or the second sample The particle is a particle having the specific morphological characteristics when observation data representing the result of observing the particle is input by learning using training data containing information indicating whether the particle is obtained. It is characterized by generating a classification model that outputs discrimination information indicating whether or not.
  • the observation data is waveform data representing temporal changes in the intensity of light emitted from particles irradiated with light from structured illumination, or It is characterized by being waveform data representing temporal changes in intensity of light detected by structuring light.
  • the first sample is a sample collected from a person with a specific disease
  • the second sample is a sample collected from a person without the specific disease. characterized by being
  • a particle determination method obtains observation data representing the result of observing a particle, and when inputting the observation data representing the result of observing the particle, determines whether the particle is a particle having specific morphological characteristics.
  • the acquired observation data is input to a classification model that outputs discrimination information indicating whether or not the particles related to the observation data are input, the discrimination information output by the classification model is acquired, and based on the acquired discrimination information, the particles related to the observation data are It is determined whether or not the particles have the specific morphological characteristics, and the classification model includes a first sample in which the particles having the specific morphological characteristics and other particles are mixed, and the specific morphological characteristics.
  • Observation data representing a result of observing each particle contained in a second sample that does not contain a particle having a characteristic and is composed of other particles, and the observation data is the first sample and the second sample. It is characterized by being learned by learning using training data containing information indicating which of the particles contained in the obtained particles.
  • the particle determination method according to the present invention is characterized by outputting information about the particles for which the determination has been made.
  • the particles for which the observation data is to be obtained are collected from a person, a tag having identification information for identifying the person from whom the particles are collected is added to the particles, and the observation data
  • the particles related to the observation data are particles having the specific morphological characteristics
  • the person who collected the particles is identified based on the identification information of the tag attached to the particles related to the observation data.
  • a computer program comprises a first sample in which particles having specific morphological characteristics and other particles are mixed, and a second sample containing no particles having the specific morphological characteristics but other particles. For each particle contained in the sample, observation data representing a result of observing the particle is obtained, and the observation data and whether the observation data is obtained from the particle contained in the first sample or the second sample. Whether the particle is a particle having the specific morphological characteristics when observation data representing the result of observing the particle is input by learning using training data containing information indicating whether the particle is a particle It is characterized by causing a computer to execute processing for generating a classification model that outputs discrimination information indicating whether or not.
  • a computer program acquires observation data representing the result of observing a particle, and determines whether the particle is a particle having specific morphological characteristics when the observation data representing the result of observing the particle is input.
  • the acquired observation data is input to a classification model that outputs discrimination information indicating whether or not the particles related to the observation data are the above, based on the acquired discrimination information.
  • a computer is caused to perform a process of determining whether or not the particles have specific morphological characteristics, and the classification model includes a first sample in which particles having the specific morphological characteristics and other particles are mixed, and the For each particle contained in a second sample that does not contain particles having specific morphological characteristics and is composed of other particles, observation data representing the result of observing the particle; It is characterized by learning by learning using training data including information indicating from which of the second samples the particles are obtained.
  • An information processing apparatus provides a first sample in which particles having specific morphological characteristics and other particles are mixed, and a second sample which does not contain particles having the specific morphological characteristics and is composed of other particles. 2.
  • a data acquisition unit for acquiring observation data representing the result of observing the particle;
  • observation data representing the result of observing a particle is input by learning using training data containing information indicating whether the particle is obtained from the particle, the particle has the specific morphological characteristics and a classification model generation unit that generates a classification model that outputs discrimination information indicating whether or not the particles are particles.
  • An information processing apparatus includes an observation unit that acquires observation data representing the result of observing a particle, and a particle having a specific morphological feature when the observation data representing the result of observing the particle is input.
  • a discrimination information acquisition unit that inputs the acquired observation data to a classification model that outputs discrimination information indicating whether or not, acquires the discrimination information output by the classification model, and based on the acquired discrimination information and a determination unit that determines whether the particles related to the observation data are particles having the specific morphological characteristics, and the classification model determines whether the particles having the specific morphological characteristics and other particles are Observation data representing the result of observing the particles for each particle contained in the mixed first sample and the second sample that does not contain particles having the specific morphological characteristics and is composed of other particles;
  • the observation data is learned by learning using training data including information indicating which of the particles included in the first sample and the second sample the observation data was obtained. .
  • the classification model is learned using training data including observation data obtained for each particle contained in the first sample and the second sample.
  • the first sample contains particles with specific morphological characteristics and other negative particles.
  • the second sample does not contain particles with specific morphological characteristics and consists of other particles.
  • a classification model outputs discrimination information indicating whether or not a particle has a specific morphological feature when observation data is input. Even if particles with specific morphological characteristics are rare and it is not easy to obtain a large number of observation data, the observation data and whether the observation data are included in the first sample or the second sample It is possible to generate a classification model by learning using training data that includes information indicating whether the particle was obtained from a particular particle. Using the classification model, it is possible to obtain discriminant information corresponding to observation data, and to determine whether particles have specific morphological characteristics based on the discriminant information.
  • the observation data is waveform data representing temporal changes in the intensity of light emitted from particles irradiated with light by structured illumination, or light from particles irradiated with light.
  • 2 is waveform data representing temporal changes in the intensity of light detected in a converted form.
  • the waveform data are similar to those used in GC methods and contain compacted particle morphology information. Therefore, it can be used to generate a classification model and determine particles.
  • the first sample is a sample collected from a person with a specific disease such as cancer
  • the second sample is a sample collected from a person without the specific disease.
  • Particles having specific morphological characteristics are particles (positive particles) whose morphology has changed due to a specific disease such as cancer.
  • information about the determined particles is displayed.
  • the user can confirm information about the particles.
  • a tag having identification information for identifying the person from whom the particles are collected is added to the particles, and the person from whom the particles are collected is specified based on the tag. Based on tags attached to particles with particular morphological characteristics, the person from whom the particles with particular morphological characteristics were harvested can be identified. This makes it possible, for example, to identify persons with a particular disease among those from whom the particles have been collected.
  • the particles can be specified according to the input of observation data.
  • a classification model can be generated that outputs discriminant information indicating whether a particle has the morphological characteristics of .
  • the present invention has excellent effects, such as making it possible to discriminate particles having specific morphological characteristics using a classification model.
  • FIG. 1 is a conceptual diagram showing an outline of a classification model generation method
  • FIG. 1 is a block diagram showing a configuration example of a learning device according to Embodiment 1 for generating a classification model
  • FIG. 4 is a graph showing an example of waveform data
  • 2 is a block diagram showing an internal configuration example of an information processing apparatus
  • FIG. FIG. 2 is a conceptual diagram showing functions of a classification model
  • FIG. 10 is a flowchart showing an example of a procedure of processing for learning a classification model
  • FIG. FIG. 4 is a schematic diagram showing a learning example using the concept of MIL; It is a conceptual diagram which shows the outline
  • FIG. 1 is a block diagram showing a configuration example of a determination device according to Embodiment 1 for determining cells
  • FIG. 2 is a block diagram showing an internal configuration example of an information processing apparatus
  • FIG. 4 is a flow chart showing a procedure of processing executed by the information processing device to determine a cell
  • FIG. 11 is a schematic diagram showing a display example of a determination result
  • FIG. 8 is a block diagram showing a configuration example of a learning device according to Embodiment 2
  • FIG. 11 is a block diagram showing a configuration example of a determination device according to Embodiment 2
  • FIG. 11 is a block diagram showing a configuration example of a learning device according to Embodiment 3
  • FIG. 11 is a block diagram showing a configuration example of a determination device according to Embodiment 3;
  • the GC method is used to determine whether a cell has specific morphological characteristics based on waveform data representing the morphological characteristics of the cell obtained by irradiating the cell with light.
  • Waveform data corresponds to observation data.
  • FIG. 1 is a conceptual diagram showing an outline of a classification model generation method.
  • a plurality of first samples 111 in which cells having specific morphological characteristics are mixed with other cells are prepared, and a plurality of second samples 121 containing other cells without cells having specific morphological characteristics are prepared.
  • a sample collected from a patient 11 having a specific disease such as cancer is the first sample 111
  • a sample collected from a healthy person 12 who does not have the specific disease is the second sample 121.
  • the bracketed symbols shown in FIG. 1 refer to individual patients 11 and first samples 111 , and to individual healthy subjects 12 and second samples 121 .
  • the first sample 111a is collected from the patient 11a
  • the first sample 111b is collected from the patient 11b
  • a second sample 121a is collected from a healthy subject 12a
  • a second sample 121b is collected from a healthy subject 12b.
  • the first sample 111 includes cells such as cancer cells that have specific morphological characteristics due to the influence of a specific disease, and other cells. Other cells are cells that do not have specific morphological characteristics.
  • a second sample 121 contains only other cells.
  • cells having specific morphological characteristics are defined as positive cells, and other cells are defined as negative cells.
  • positive cells are indicated by double circles and negative cells are indicated by circles.
  • Negative cells are of many types. Positive cells are usually rare cells. Generally, there are fewer positive cells than negative cells in the first sample 111 .
  • each cell contained in the first sample 111 and the second sample 121 is irradiated with light, and waveform data representing the morphological characteristics of the cell is acquired from each cell.
  • the waveform data represents temporal changes in the intensity of light emitted from cells irradiated with light, and the waveform data includes morphological characteristics of the cells.
  • a classification model is generated. Generate. The classification model outputs discrimination information indicating whether or not a cell has specific morphological characteristics when waveform data is input.
  • FIG. 2 is a block diagram showing a configuration example of the learning device 200 according to Embodiment 1 for generating a classification model.
  • the learning device 200 includes a channel 34 through which cells flow.
  • the cells 4 are dispersed in the fluid, and the individual cells 4 sequentially move through the channel 34 as the fluid flows through the channel 34 .
  • the learning device 200 includes a light source 31 that irradiates light onto the cells 4 moving in the channel 34 .
  • the light source 31 emits white light or monochromatic light.
  • the light source 31 is, for example, a laser light source or an LED (Light Emitting Diode) light source.
  • the cells 4 irradiated with light emit light.
  • the learning device 200 includes a detector 32 that detects light from the cells 4 .
  • the detection unit 32 has a photodetection sensor such as a photomultiplier tube (PMT), a line-type PMT element, a photodiode, an APD (Avalanche Photo-Diode), or a semiconductor photosensor.
  • PMT photomultiplier tube
  • APD Anavalanche Photo-Diode
  • FIG. 2 the paths of light are indicated by solid arrows.
  • the learning device 200 includes an optical system 33.
  • the optical system 33 guides the illumination light from the light source 31 to the cells 4 in the channel 34 and allows the light from the cells 4 to enter the detector 32 .
  • the optical system 33 includes a spatial light modulating device 331 for modulating and structuring the incident light.
  • the learning device 200 shown in FIG. 2 is configured such that the illumination light from the light source 31 is applied to the cells 4 via the spatial light modulation device 331 .
  • the spatial light modulation device 331 is a device that modulates light by controlling the spatial distribution (amplitude, phase, polarization, etc.) of light.
  • the spatial light modulation device 331 has, for example, a plurality of regions on a light incident surface, and the incident light is modulated differently in two or more regions among the plurality of regions.
  • Modulation here means changing the characteristics of light (at least one of the intensity, wavelength, phase, and polarization state of light).
  • FIG. 2 illustrates a configuration in which two types of regions with different light transmittances are arranged in a predetermined pattern in a two-dimensional lattice.
  • the illumination light from the light source 31 passes through the spatial light modulation device 331 to form structured illumination in which two types of light with different intensities are arranged in a predetermined pattern.
  • the spatial light modulation device 331 is, for example, a diffractive optical element (DOE), a spatial light modulator (SLM), or a digital mirror device (DMD). Note that when the illumination light emitted by the light source 31 is incoherent light, the spatial light modulation device 331 is a DMD.
  • Another example of the spatial light modulation device 331 is a film or optical filter in which a plurality of types of regions with different light transmittances are arranged randomly or in a predetermined pattern.
  • the arrangement of a plurality of types of regions with different light transmittances in a predetermined pattern means that, for example, a plurality of types of regions with different light transmittances are arranged in a one-dimensional or two-dimensional grid pattern.
  • the random arrangement of a plurality of types of regions having different light transmittances means that the plurality of types of regions are arranged in an irregularly dispersed manner.
  • the film or optical filter described above has at least two types of regions: a region having a first light transmittance and a region having a second light transmittance different from the first light transmittance. .
  • the illumination light from the light source 31 is modulated by the spatial light modulation device 331 before being irradiated to the cells 4.
  • bright spots with different light intensities are arranged randomly or in a predetermined pattern. illuminating light.
  • Such a configuration in which the illumination light from the light source 31 is modulated by the spatial light modulation device 331 in the middle of the optical path from the light source 31 to the cell 4 is also referred to as structured illumination.
  • Illumination light from structured illumination is applied to a specific region (irradiation region) in the channel 34, and the cells 4 are irradiated with the structured illumination light as the cells 4 move within this irradiation region.
  • the pattern of structured illumination light that irradiates the cells 4 is constant and does not change with time, the cells 4 move through the irradiation area and receive light with different light intensities depending on the location.
  • Cells 4 are illuminated with structured illumination light and emit light such as transmitted light, fluorescent light, scattered light, interference light, diffracted light, or polarized light emanating from or through cells 4. .
  • Light emitted from or generated through these cells 4 is hereinafter also referred to as light modulated by the cells 4 .
  • the light modulated by the cells 4 is continuously detected by the detector 32 while the cells 4 pass through the irradiation area of the channel 34 .
  • the detector 32 outputs a signal corresponding to the intensity of the detected light to the information processing device 2 .
  • the learning device 200 can acquire waveform data representing temporal changes in intensity of light modulated by the cells 4 detected by the detection unit 32 .
  • FIG. 3 is a graph showing an example of waveform data.
  • the horizontal axis of FIG. 3 indicates time, and the vertical axis indicates the intensity of the light detected by the detector 32 .
  • the waveform data comprises a plurality of intensity values obtained sequentially over time. Each intensity value indicates the intensity of the light.
  • the waveform data here is time-series data representing temporal changes in optical signals reflecting the morphological features of the cells 4 .
  • the optical signal is a signal indicating the intensity of light detected by the detector 32 .
  • the waveform data is, for example, waveform data representing temporal changes in the intensity of light emitted from the cells 4 acquired by the GC method.
  • the time change in the intensity of the light detected by the detection unit 32 changes the size, shape, and internal state of the cell 4. It varies according to morphological features such as structure, density distribution or color distribution.
  • the intensity of the light from the cells 4 also changes due to the temporal change in the intensity of the structured illumination as the cells 4 move within the illuminated area of the channel 34 .
  • the intensity of light detected by the detector 32 changes with time, and as shown in FIG. 3, the intensity of light that changes with time forms a waveform on the graph.
  • the waveform data obtained by structured illumination and representing the temporal change in the intensity of the light modulated by the cells 4 is waveform data containing compressed morphological information according to the morphological features of the cells 4. Therefore, in flow cytometers using the GC method, morphologically different cells are discriminated by machine learning using waveform data as training data. It is also possible to generate images of cells 4 from waveform data obtained by structured illumination. Note that the learning device 200 may be configured to individually obtain waveform data for multiple types of modulated light emitted from one cell 4 .
  • the optical system 33 has a lens 332 in addition to the spatial light modulation device 331 .
  • the lens 332 collects the light from the cells 4 and makes it enter the detector 32 .
  • the optical system 33 uses optical components such as mirrors, lenses, and filters to structure the illumination light from the light source 31 and irradiate the cells 4, thereby irradiating the cells 4 with light. It is provided in order to make it incident on the detection unit 32 .
  • FIG. 2 omits illustration of optical components that may be included in the optical system 33 other than the spatial light modulation device 331 and the lens 332 .
  • the waveform data representing the temporal change in the intensity of the light from the cells 4 acquired by the detection unit 32 is observation data including morphological information of the cells.
  • the learning device 200 includes an information processing device 2 .
  • the information processing device 2 executes information processing necessary for generating a classification model.
  • the detection unit 32 is connected to the information processing device 2 .
  • the detection unit 32 outputs a signal corresponding to the intensity of the detected light to the information processing device 2 , and the information processing device 2 receives the signal from the detection unit 32 .
  • FIG. 4 is a block diagram showing an example of the internal configuration of the information processing device 2.
  • the information processing device 2 is, for example, a computer such as a personal computer or a server device.
  • the information processing device 2 includes an arithmetic unit 21 , a memory 22 , a drive unit 23 , a storage unit 24 , an operation unit 25 , a display unit 26 and an interface unit 27 .
  • the calculation unit 21 is configured using, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or a multi-core CPU.
  • the calculation unit 21 may be configured using a quantum computer.
  • the memory 22 stores temporary data generated along with computation.
  • the memory 22 is, for example, a RAM (Random Access Memory).
  • a drive unit 23 reads information from a recording medium 20 such as an optical disc or a portable memory.
  • the storage unit 24 is non-volatile, such as a hard disk or non-volatile semiconductor memory.
  • the operation unit 25 accepts input of information such as text by accepting an operation from the user.
  • the operation unit 25 is, for example, a touch panel, keyboard, or pointing device.
  • the display unit 26 displays images.
  • the display unit 26 is, for example, a liquid crystal display or an EL display (Electroluminescent Display).
  • the operation section 25 and the display section 26 may be integrated.
  • the interface section 27 is connected to the detection section 32 .
  • the interface unit 27 transmits and receives signals to and from the detection unit 32 .
  • the calculation unit 21 causes the drive unit 23 to read the computer program 241 recorded on the recording medium 20 and causes the storage unit 24 to store the read computer program 241 .
  • the calculation unit 21 executes processing necessary for the information processing device 2 according to the computer program 241 .
  • the computer program 241 may be downloaded from the outside of the information processing device 2 .
  • the computer program 241 may be pre-stored in the storage unit 24 .
  • the information processing device 2 does not have to include the drive section 23 .
  • the information processing device 2 may be composed of a plurality of computers.
  • the information processing device 2 has a classification model 242 .
  • the classification model 242 is implemented by the computing unit 21 executing information processing according to the computer program 241 .
  • the storage unit 24 stores data necessary for realizing the classification model 242 .
  • the classification model 242 may be configured by hardware.
  • Classification model 242 may be implemented using a quantum computer.
  • the classification model 242 may be provided outside the information processing device 2 , and the information processing device 2 may execute processing using the external classification model 242 .
  • classification model 242 may be configured in the cloud.
  • FIG. 5 is a conceptual diagram showing the functions of the classification model 242.
  • FIG. Waveform data obtained from one cell 4 is input to the classification model 242 .
  • the classification model 242 is trained to output discrimination information indicating whether or not the cell 4 has a specific morphological feature when waveform data is input.
  • the classification model 242 is composed of a neural network.
  • the information processing device 2 executes the classification model generation method by performing the process of learning the classification model 242 .
  • FIG. 6 is a flow chart showing an example of the procedure of processing for learning the classification model 242 .
  • a step is abbreviated as S below.
  • the calculation unit 21 executes the following processes according to the computer program 241 .
  • a plurality of first samples 111 and a plurality of second samples 121 are created before the classification model 242 is trained.
  • the information processing device 2 acquires waveform data obtained from each cell contained in the plurality of first samples 111 and waveform data obtained from each cell contained in the plurality of second samples 121 (S11).
  • each cell 4 contained in the plurality of first samples 111 is flowed through the channel 34, and structured illumination light is emitted using the light source 31 and the spatial light modulation device 331. is irradiated to the cell 4 .
  • the cells 4 emit light modulated by the cells 4 such as scattered light, and the emitted light is detected by the detector 32 .
  • the detection unit 32 outputs a signal corresponding to the intensity of the detected light to the information processing device 2 , and the information processing device 2 receives the signal from the detection unit 32 at the interface unit 27 .
  • the calculation unit 21 acquires waveform data by generating waveform data representing the temporal change in the intensity of the light detected by the detection unit 32.
  • the information processing device 2 acquires waveform data for each of the cells 4 contained in the plurality of first samples 111 . Similarly, the information processing device 2 acquires waveform data for each of the cells 4 contained in the plurality of second samples 121 .
  • the calculation unit 21 stores the acquired waveform data in the storage unit 24 .
  • the processing of S11 corresponds to the data acquisition unit.
  • the information processing device 2 next generates training data for learning (S12).
  • the training data includes waveform data and information indicating whether the waveform data was obtained from cells contained in the first sample 111 or the second sample 121 .
  • the waveform data obtained from the cells contained in the first sample 111 is associated with information indicating that the waveform data was obtained from the cells contained in the first sample 111 .
  • the waveform data obtained from the cells contained in the second sample 121 is associated with information indicating that the waveform data was obtained from the cells contained in the second sample 121 .
  • the calculation unit 21 associates each waveform data with information indicating whether the waveform data was obtained from the cells contained in the first sample 111 or the second sample 121, thereby obtaining training data.
  • the waveform data obtained from the plurality of cells contained in the first sample 111 contain the same information indicating that they are obtained from the first sample 111, regardless of whether the cells are positive cells or negative cells. and this information may be included in the training data.
  • the waveform data obtained from the plurality of cells contained in the second sample 121 are associated with information indicating that they were obtained from the second sample 121, and this information is included in the training data. good too.
  • the calculation unit 21 stores training data in the storage unit 24 .
  • the information processing device 2 next learns the classification model 242 (S13).
  • the calculation unit 21 performs learning using a MIL (Multiple-Instance Learning) method.
  • MIL Multiple-Instance Learning
  • the MIL approach is disclosed, for example, in Marc-Andre Carbonneau, et al. "Multiple instance learning: A survey of problem characteristics and applications", Pattern Recognition, Volume 77, May 2018, Pages 329-353.
  • FIG. 7 is a schematic diagram showing a learning example using the concept of MIL. Suppose the cell features are plotted on two-dimensional coordinates. In FIG. 7, positive cells with specific morphological characteristics are indicated by double circles, and negative cells are indicated by circles. Multiple cells surrounded by solid lines are multiple cells contained in the same first sample 111 .
  • multiple cells surrounded by dashed lines are multiple cells contained in the same second sample 121 .
  • the dashed-dotted line in FIG. 7 indicates the decision boundary when classifying positive cells and negative cells based on certain morphological characteristics.
  • MIL a classification model is learned to properly define boundaries.
  • a plurality of cells contained in each second sample 121 are all negative cells, and some cells having a certain specific morphological feature contained in each first sample 111 are positive cells, and others A more plausible decision boundary is determined by learning such that the cells of are negative cells.
  • the calculation unit 21 confirms that the cells are not positive cells having specific morphological characteristics. Calculation parameters of the classification model 242 are adjusted so that discrimination information indicating is output. Further, when some waveform data among waveform data obtained from a plurality of cells contained in one first sample 111 is input to the classification model 242, the calculation unit 21 determines that the cells are positive cells. When other waveform data is input to the classification model 242, the calculation parameters of the classification model 242 are adjusted so that discrimination information indicating that the cell is not a positive cell is output. adjust.
  • the calculation unit 21 learns the classification model 242 by repeating the process of adjusting the calculation parameters of the classification model 242 using the training data. If the classification model 242 is a neural network, adjustments are made to the parameters of the operations of each node.
  • the classification model 242 outputs discrimination information indicating that the cells are positive cells when waveform data obtained from some cells included in the first sample 111 is input, and the cells included in the first sample 111 Learning is performed so that when waveform data obtained from other cells and cells contained in the second sample 121 are input, discrimination information indicating that the cells are not positive cells is output.
  • the calculation unit 21 stores the learned data recording the adjusted final parameters in the storage unit 24 . Thus, a trained classification model 242 is generated.
  • the processing of S13 corresponds to the classification model generation unit. After S ⁇ b>13 ends, the information processing device 2 ends the process of learning the classification model 242 .
  • a particle determination method is performed by generating a learned classification model 242 and determining whether a cell is a positive cell with specific morphological characteristics.
  • a sample collected from a person is used as a sample, and the classification model 242 is used to determine whether or not cells contained in the sample are positive cells, and cells determined to be positive cells are found from the sample. identified as positive.
  • FIG. 8 is a conceptual diagram showing an overview of the particle determination method. For example, a sample is collected from a subject 13 such as a person undergoing cancer screening, and the sample is used as a test sample 131 .
  • the specimen includes blood, a fractionated component containing specific cells produced from blood, urine, bone marrow fluid or other body fluids, or a washing fluid obtained by washing an affected area, and contains cells.
  • the test sample 131 contains one or more cells.
  • a plurality of test samples 131 are prepared by collecting specimens from a plurality of subjects 13 . Reference numerals in parentheses shown in FIG. 8 refer to individual subjects 13 and test samples 131 . That is, in the example shown in FIG. 8, an inspection sample 131a is taken from a person 13a to be inspected, and a sample 131b for inspection is taken from a person 13b to be inspected.
  • a tag having identification information for identifying each subject 13 is added to the cells contained in the test sample 131 .
  • a tag having identification information for identifying the subject 13a is added to the cells contained in the test sample 131a.
  • the tag having identification information connects each cell contained in the test sample 131 and the subject 13 from whom it was collected, and preferably adheres to or binds to the cell itself.
  • the tag is preferably a substance containing a component formed by connecting several types of components, such as a known peptide tag or DNA (deoxyribonucleic acid) tag.
  • An array of components contained in the tag provides identifying information.
  • the tag is more preferably a DNA tag.
  • the base sequence indicates identification information.
  • the identification information of the tag attached to the cell differs for each test sample 131 and is associated with the subject 13 .
  • the test sample 131a is associated with the subject 13a.
  • DNA tags that impart identification information to cells for example, lipid- or cholesterol-modified oligonucleotides as described in WO2020/010366 can be used.
  • the classification model 242 is used to determine whether each cell contained in the test sample 131 is a positive cell. If the classification model 242 determines that the cells are positive cells, then the test sample 131 containing the positive cells is collected based on the identification information of the tag attached to the positive cells. A subject 13 is identified, and the identified subject 13 is determined to be a positive person. For example, in the example shown in FIG. 8, the subject 13a from whom the test sample 131a containing positive cells was collected is determined to be a positive person.
  • FIG. 9 is a block diagram showing a configuration example of a determination device 500 according to Embodiment 1 for determining cells.
  • the determination device 500 includes a flow path 64 for cells.
  • the cells 4 move through the channel 64 sequentially.
  • the determination device 500 includes a light source 61 , a detection section 62 and an optical system 63 .
  • the configurations of the light source 61, the detection section 62 and the optical system 63 in FIG. 9 are the same as the configurations of the light source 31, the detection section 32 and the optical system 33 in FIG.
  • the light source 61 is, for example, a laser light source or an LED light source
  • the detection unit 62 has a photomultiplier tube, a line-type PMT element, a photodiode, an APD, a semiconductor photosensor, or other light detection sensor.
  • the paths of light are indicated by solid arrows.
  • the optical system 63 guides the light from the light source 61 to the cells 4 in the channel 64 and allows the light from the cells 4 to enter the detector 62 .
  • the optical system 63 has a spatial light modulation device 631 and a lens 632 .
  • the light from the light source 61 is applied to the cells 4 after passing through the spatial light modulation device 631 .
  • the determination device 500 can acquire waveform data representing temporal changes in intensity of light emitted from the cells 4 and modulated by the cells 4 .
  • the waveform data is used in the GC method, for example, and represents the morphological features of the cells 4 .
  • the determination device 500 may be configured to acquire a plurality of waveform data for one cell 4 .
  • the optical system 63 includes mirrors, lenses, filters, and the like for irradiating the cells 4 with the light from the light source 61 and allowing the light from the cells 4 to enter the detection unit 62 . It has optics. Optical components other than the spatial light modulation device 631 and the lens 632 are omitted in FIG.
  • the waveform data representing the temporal change in the intensity of the light from the cells 4 acquired by the detection unit 62 is observation data including morphological information of the cells.
  • a sorter 65 is connected to the channel 64 .
  • the sorter 65 sorts out specific cells from the cells 4 that have moved through the channel 64 . For example, when the cells 4 moving through the channel 64 are determined to be specific cells, the sorter 65 applies a charge to the moving cells 4, applies a voltage, and changes the movement path of the cells 4. By changing , the cells 4 are sorted.
  • the sorter 65 may be configured to sort and obtain specific cells 4 by generating a pulse flow when the cells 4 flow to the sorter 65 and changing the movement path of the cells 4 .
  • the determination device 500 includes an information processing device 5 .
  • the information processing device 5 executes information processing necessary for determination of the cells 4 .
  • the detection unit 62 is connected to the information processing device 5 .
  • the detection unit 62 outputs a signal corresponding to the intensity of the detected light to the information processing device 5 , and the information processing device 5 receives the signal from the detection unit 62 .
  • the sorter 65 is connected to the information processing device 5 and controlled by the information processing device 5 .
  • the sorter 65 sorts the cells under the control of the information processing device 5 .
  • FIG. 10 is a block diagram showing an internal configuration example of the information processing device 5.
  • the information processing device 5 is a computer such as a personal computer or a server device.
  • the information processing device 5 includes an arithmetic unit 51 , a memory 52 , a drive unit 53 , a storage unit 54 , an operation unit 55 , a display unit 56 and an interface unit 57 .
  • the calculation unit 51 is configured using, for example, a CPU, GPU, or multi-core CPU.
  • the computing unit 51 may be configured using a quantum computer.
  • the memory 52 stores temporary data generated along with computation.
  • the memory 52 for example, the drive unit 53 reads information from the recording medium 50 such as an optical disk.
  • the storage unit 54 is non-volatile, such as a hard disk or non-volatile semiconductor memory.
  • the operation unit 55 accepts input of information such as text by accepting an operation from the user.
  • the operation unit 55 is, for example, a touch panel, keyboard, or pointing device.
  • the display unit 56 displays images.
  • the display unit 56 is, for example, a liquid crystal display or an EL display.
  • the operation section 55 and the display section 56 may be integrated.
  • the interface section 57 is connected to the detection section 62 and the sorter 65 .
  • the interface section 57 transmits and receives signals to and from the detection section 62 and the sorter 65 .
  • the calculation unit 51 causes the drive unit 53 to read the computer program 541 recorded on the recording medium 50 and causes the storage unit 54 to store the read computer program 541 .
  • the calculation unit 51 executes processing necessary for the information processing device 5 according to the computer program 541 .
  • the computer program 541 may be downloaded from the outside of the information processing device 5 .
  • the computer program 541 may be pre-stored in the storage unit 54 . In these cases, the information processing device 5 does not have to include the drive unit 53 .
  • the information processing device 5 may be composed of a plurality of computers.
  • the information processing device 5 has a classification model 242 .
  • the classification model 242 is implemented by the computing unit 51 executing information processing according to the computer program 541 .
  • Classification model 242 is a classification model learned by learning device 200 .
  • the information processing device 5 is provided with a classification model 242 by storing learned data recording parameters of the classification model 242 learned by the learning device 200 in the storage unit 54 .
  • the learned data is read from the recording medium 50 by the drive unit 53 or downloaded.
  • the classification model 242 may be configured by hardware.
  • Classification model 242 may be implemented using a quantum computer.
  • the classification model 242 may be provided outside the information processing device 5 , and the information processing device 5 may execute processing using the external classification model 242 .
  • classification model 242 may be configured in the cloud.
  • the classification model 242 may be realized by FPGA (Field Programmable Gate Array).
  • the FPGA circuit is configured based on the parameters of the classification model 242 learned by the classification model generation method, and the FPGA executes the processing of the classification model 242 .
  • FIG. 11 is a flowchart showing the procedure of processing executed by the information processing device 5 to determine cells.
  • the computing unit 51 executes the following processes according to the computer program 541 .
  • the test sample 131 is prepared as described above, and the cells contained in the test sample 131 are tagged.
  • Tagged cells 4 are flowed through channel 64 .
  • the information processing device 5 acquires waveform data obtained from the cells 4 moving in the channel 64 (S21).
  • the cells 4 moving in the channel 64 are irradiated with light from the structured illumination, the light emitted from the cells 4 is detected by the detection unit 62, and the detection unit 62 outputs a signal corresponding to the detection to the information processing device 5. Then, the information processing device 5 receives the signal.
  • the calculation unit 51 generates waveform data representing temporal changes in the intensity of light detected by the detection unit 62 based on the signal from the detection unit 62 and stores the waveform data in the storage unit 54 .
  • the processing of S21 corresponds to the observation unit.
  • the information processing device 5 inputs the acquired waveform data to the classification model 242 (S22).
  • the calculation unit 51 inputs the waveform data to the classification model 242 and causes the classification model 242 to perform processing.
  • the calculation unit 51 does not input information indicating whether the waveform data was obtained from cells contained in the first sample or the second sample.
  • the classification model 242 performs processing for outputting discrimination information indicating whether or not the cells 4 are positive cells having specific morphological characteristics in response to input of waveform data.
  • the calculation unit 51 acquires the discrimination information output by the classification model 242 .
  • the processing of S22 corresponds to the determination information acquisition unit.
  • the information processing device 5 determines whether or not the cell 4 is a positive cell based on the discrimination information output by the classification model 242 (S23).
  • the calculation unit 51 determines that the cell 4 is a positive cell, and determines that the cell 4 is not a positive cell. If so, cell 4 is determined not to be a positive cell.
  • the calculation unit 51 can also associate information indicating the determination result with the waveform data and store the information in the storage unit 54 as necessary.
  • the processing of S23 corresponds to the determination unit.
  • FIG. 12 is a schematic diagram showing a display example of determination results.
  • the waveform data is displayed in the form of a graph on the display unit 56, and the judgment result as to whether or not the cell 4 is a positive cell is displayed in characters.
  • FIG. 12 shows an example in which cell 4 was determined to be a positive cell.
  • the calculation unit 51 can also read the determination result from the storage unit 54 , generate an image representing the waveform data and the determination result, and display the image on the display unit 56 .
  • the calculation unit 51 may generate an image from the waveform data and the determination result and display the image on the display unit 56 without storing the information indicating the determination result in the storage unit 54 .
  • the calculation unit 51 may generate an image of the cell 4 based on the waveform data and display the image of the cell 4 on the display unit 56 as well.
  • the calculation unit 51 may also display information on the test sample 131 containing the cells 4 or information on the subject 13 from whom the test sample 131 was collected on the display unit 56 .
  • Information about the determined cell 4 is displayed, and the user can confirm the information about the cell 4 . Note that S24 may be omitted.
  • the information processing device 5 determines that the cell 4 is not a positive cell (S25: NO), it ends the processing for determining the cell. If the cells 4 are determined to be positive cells (S25: YES), the information processing device 5 sorts the cells 4 using the sorter 65 (S26). In S ⁇ b>26 , the calculation unit 51 transmits a control signal from the interface unit 57 to the sorter 65 to cause the sorter 65 to sort the cells 4 . The sorter 65 sorts the cells 4 according to the control signal. For example, when the cells 4 flow through the channel 64 to the sorter 65 , the sorter 65 charges the cells 4 and applies a voltage to change the movement path of the cells 4 . to fractionate. After S26 ends, the information processing device 5 ends the process for determining the cell.
  • the processes of S21 to S26 are performed for each of the cells contained in the plurality of test samples 131.
  • Cells sorted by the treatments of S21-S26 are positive cells with specific morphological characteristics.
  • the identification information of the tag added to the separated cells is analyzed, and the subject 13 associated with the identification information is identified.
  • further detailed information on the sorted cells can be additionally obtained by subjecting the sorted cells to a biochemical test or a genetic test.
  • the identified test subject 13 is the test subject from whom the test sample 131 containing the positive cells was collected. In this way, positive individuals are identified. If the positive cells are cells with specific morphological characteristics due to the influence of a specific disease, the positive person is determined to be a patient with the specific disease. In this way, a patient with a specific disease such as cancer can be found among the plurality of subjects 13 to be examined.
  • classification model learning is performed using training data including waveform data acquired for each cell contained in the first sample and the second sample.
  • the first sample contains positive cells with specific morphological characteristics and other negative cells.
  • the second sample contains no positive cells and consists of negative cells.
  • the classification model outputs discrimination information indicating whether or not a cell is a positive cell when waveform data is input. Positive cells are rare, and it is not easy to obtain a large number of waveform data of positive cells as training data.
  • a classification model is generated by learning using the MIL method. It is possible to Using the classification model, it is possible to acquire discrimination information corresponding to waveform data, and to determine whether or not a cell is a positive cell based on the discrimination information. Therefore, it is possible to discriminate even rare positive cells.
  • the positive cells are cells that can be collected from a person with a specific disease such as cancer, it is possible to determine whether the cells are positive cells or not, so that the person from whom the cells are collected has the specific disease. It can be determined whether or not to have
  • a tag having identification information for identifying the person from whom the cells were collected is added to the cells, and the person from whom the cells were collected is specified based on the tag. If the cells are determined to be positive cells, the person from whom the positive cells were collected can be identified based on the tag attached to the positive cells. This also makes it possible to identify people with specific diseases.
  • a tag having identification information is added to the cells, and the person from whom the cells are collected is identified based on the tag.
  • the method for identifying the person from whom the cells are collected is not limited to this.
  • the cells contained in the test sample are observed in order for each person from whom the cells were collected, the test sample is identified according to the observation order, and the person from whom the cells are collected is specified. You can also take a method.
  • FIG. 13 is a block diagram showing a configuration example of the learning device 200 according to the second embodiment.
  • Embodiment 2 differs from Embodiment 1 shown in FIG. 2 in the configuration of an optical system 33 .
  • the configuration of portions other than the optical system 33 is the same as that of the first embodiment.
  • Light from the light source 31 is applied to the cells 4 without passing through the spatial light modulation device 331 .
  • Light from the cells 4 passes through the spatial light modulation device 331 , is condensed by the lens 332 , and enters the detector 32 .
  • the detection unit 32 detects modulated light structured by the light modulated by the cells 4 passing through the spatial light modulation device 331 .
  • Such a configuration in which the modulated light from the cell 4 is structured by the spatial light modulation device 331 in the middle of the optical path from the cell 4 to the detection unit 32 is also referred to as structured detection.
  • the spatial light modulation device 33 1 changes the intensity of the modulated light from the cell 4 detected by the detection unit 32 over time.
  • the waveform data representing the temporal change in the intensity of the light emitted from the cells 4 detected by the detection unit 32 by structured detection includes compressed morphological information of the cells 4, as in the case of structured illumination described above. . That is, the waveform data representing the temporal change in the intensity of the light from the cells 4 detected by the detection unit 32 is observation data including morphological information of the cells.
  • the learning device 200 can acquire waveform data representing temporal changes in light emitted from the cells 4 .
  • the waveform data represent the morphological features of the cells 4 .
  • the optical system 33 has optical components in addition to the spatial light modulation device 331 and lens 332 .
  • the optical components used in structured illumination in the first embodiment can be used as the spatial light modulation device 331 as well.
  • illustration of optical components other than the spatial light modulation device 331 and the lens 332 is omitted.
  • the information processing device 2 generates the classification model 242 by executing the processes of S11 to S13 as in the first embodiment.
  • FIG. 14 is a block diagram showing a configuration example of the determination device 500 according to the second embodiment.
  • Embodiment 2 differs from Embodiment 1 shown in FIG. 9 in the configuration of an optical system 63 .
  • the configuration of portions other than the optical system 63 is the same as that of the first embodiment.
  • Light from the light source 61 is applied to the cells 4 without passing through the spatial light modulation device 631 .
  • Light from cells 4 passes through spatial light modulation device 631 , is collected by lens 632 , and enters detector 62 .
  • the detection unit 62 detects modulated light structured by the light modulated by the cells 4 passing through the spatial light modulation device 631 .
  • the waveform data representing the temporal change in the intensity of the light from the cell 4 detected by the detection unit 62 by structured detection includes compressed morphological information of the cell 4 .
  • the intensity of the light from the cells 4 changes according to the morphological characteristics of the cells 4 and also through the spatial light modulation device 631 . That is, the waveform data representing the temporal change in the intensity of the light from the cells 4 detected by the detection unit 62 is observation data including morphological information of the cells.
  • the determination device 500 can acquire waveform data representing temporal changes in light emitted from the cells 4 .
  • the waveform data represent the morphological features of the cells 4 .
  • the optical system 63 has optical components in addition to the spatial light modulation device 631 and lens 632 .
  • illustration of optical components other than the spatial light modulation device 631 and the lens 632 is omitted.
  • the information processing apparatus 5 performs the processes of S21 to S26 as in the first embodiment to discriminate and collect cells.
  • One of the learning device 200 and the determination device 500 may have the same configuration as that of the first embodiment.
  • the waveform data and the waveform data obtained for each cell contained in the first sample and the second sample are obtained from the cells contained in the first sample and the second sample. It is possible to generate a classification model using training data containing information indicative of . Using the classification model, it is possible to obtain discrimination information according to the waveform data and determine whether or not the cells are positive cells having specific morphological characteristics. Therefore, it is possible to discriminate rare positive cells.
  • FIG. 15 is a block diagram showing a configuration example of the learning device 200 according to the third embodiment.
  • the learning device 200 does not include the detection unit 32 and the optical system 33, but includes an imaging unit 35 that captures an image of the cells 4 moving in the channel 34.
  • the light from the light source 31 illuminates the cells 4
  • the light from the cells 4 enters the photographing unit 35
  • the photographing unit 35 creates a photographed image of the cells 4 .
  • the imaging unit 35 is a camera having a semiconductor image sensor.
  • the semiconductor image sensor is, for example, a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor.
  • the learning device 200 may include an optical system (not shown) that guides the light for imaging to the cells 4 and makes the light enter the imaging unit 35 efficiently.
  • the imaging unit 35 is connected to the information processing device 2 .
  • the interface section 27 is connected to the photographing section 35 .
  • the interface unit 27 transmits and receives signals to and from the imaging unit 35 .
  • Other configurations of the learning device 200 are the same as those of the first embodiment.
  • the learning device 200 can acquire a photographed image of the cell 4 using the photographing unit 35 .
  • the captured image is observation data representing the morphological features of the cells 4 .
  • the classification model 242 is trained to output discrimination information indicating whether or not the cell 4 is a cell having specific morphological characteristics when photographed image data is input.
  • the information processing device 2 executes the processes of S11 to S13 as in the first embodiment.
  • the information processing device 2 acquires a captured image instead of waveform data.
  • the information processing device 2 generates training data including the captured image and information indicating whether the captured image was obtained from cells contained in the first sample 111 or the second sample 121. .
  • Each captured image is associated with information indicating whether the captured image was obtained from cells contained in the first sample 111 or the second sample 121 .
  • the information processing device 2 when the captured image obtained from the cells contained in the second sample 121 is input to the classification model 242, the cells are not positive cells having specific morphological characteristics.
  • the calculation parameters of the classification model 242 are adjusted so that discrimination information indicating that is output. Further, when some of the captured images obtained from a plurality of cells contained in one first sample 111 are input to the classification model 242, the calculation unit 21 determines that the cells are positive cells. When another photographed image is input to the classification model 242, the calculation parameters of the classification model 242 are set so that the discrimination information indicating that the cell is not a positive cell is output. adjust.
  • the classification model 242 is generated by the processing of S11 to S13.
  • FIG. 16 is a block diagram showing a configuration example of the determination device 500 according to the third embodiment.
  • the determination device 500 does not include the detection unit 62 and the optical system 63 , but includes an imaging unit 66 that images cells 4 moving in the channel 64 .
  • the light from the light source 61 illuminates the cells 4 , the light from the cells 4 enters the photographing unit 66 , and the photographing unit 66 creates a photographed image of the cells 4 .
  • the determination device 500 may include an optical system (not shown) that guides the light for imaging to the cell 4 and makes the light enter the imaging unit 66 efficiently.
  • the imaging unit 66 is connected to the information processing device 5 .
  • the interface section 57 is connected to the photographing section 66 and the sorter 65 .
  • the interface unit 27 transmits and receives signals to and from the imaging unit 66 and the sorter 65 .
  • Other configurations of the determination device 500 are the same as those of the first embodiment.
  • the determination device 500 can acquire a photographed image of the cell 4 using the photographing unit 66 .
  • the information processing device 5 executes the processes of S21 to S26 as in the first embodiment.
  • the information processing device 5 acquires a captured image instead of waveform data.
  • the information processing device 5 inputs the captured image instead of the waveform data into the classification model as observation data representing the morphological features of the cell 4 .
  • the information processing device 5 displays the captured image and the determination result on the display section 56 .
  • the information processing device 5 discriminates and collects cells by executing the processes of S21 to S26.
  • the photographed image obtained for each cell contained in the first sample and the second sample and the photographed image obtained from which of the cells contained in the first sample and the second sample are obtained It is possible to generate a classification model using training data containing information indicative of . Using the classification model, it is possible to obtain discrimination information according to the captured image and determine whether or not the cell is a positive cell having specific morphological characteristics. Therefore, it is possible to discriminate rare positive cells.
  • the first sample 111, the second sample 121, and the test sample 131 are specimens collected from humans. 131 may be a specimen collected from a non-human. Alternatively, the first sample 111, the second sample 121, and the test sample 131 may be samples prepared by a method other than sample collection.
  • the determination device 500 has the sorter 65 to separate the cells. However, the determination device 500 may be configured without the sorter 65 . In this form, the information processing device 5 omits the processes of S25 and S26.
  • the learning device 200 and the determination device 500 are different in Embodiments 1 to 3, some or all of the learning device 200 and the determination device 500 may be common. For example, the information processing device 2 may also be used as the information processing device 5 .
  • particles other than cells may be handled in the classification model generation method and particle determination method.
  • Particles are not limited to biological particles.
  • the particles targeted by the classification model generation method and the particle classification method are microorganisms such as bacteria, yeast or plankton, tissues in organisms, organs in organisms, or fine particles such as beads, pollen or particulate matter. good too.

Landscapes

  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Organic Chemistry (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biochemistry (AREA)
  • Zoology (AREA)
  • Wood Science & Technology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Biotechnology (AREA)
  • Analytical Chemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Genetics & Genomics (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)
  • Microbiology (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Dispersion Chemistry (AREA)
  • Biophysics (AREA)
  • Toxicology (AREA)
  • Medicinal Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Sustainable Development (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)

Abstract

特定の形態的特徴を有する粒子の判別を容易にするための分類モデル生成方法、粒子判定方法、コンピュータプログラム及び情報処理装置を提供する。 分類モデル生成方法では、特定の形態的特徴を有する粒子と他の粒子とが混在した第1試料、及び前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データを取得し、前記観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、粒子を観測した結果を表す観測データを入力した場合に前記粒子が前記特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルを生成する。

Description

分類モデル生成方法、粒子判定方法、コンピュータプログラム及び情報処理装置
 本発明は、細胞等の粒子が特定の粒子であるかを判別するための分類モデル生成方法、生成した分類モデルを用いた粒子判定方法、コンピュータプログラム及び情報処理装置に関する。
 従来、個々の細胞を調べる方法として、フローサイトメトリ法が利用されている。フローサイトメトリ法は、流体中に分散させた細胞を流し、流路を移動する各細胞に光を照射して、光を照射された細胞からの散乱光又は蛍光等の光を測定することにより、光を照射された細胞に関する情報を、撮影画像等として取得する細胞の分析方法である。フローサイトメトリ法を用いることにより、多数の細胞の一つ一つの調査を高速で行うことができる。更に、フローサイトメータにおいて流路を移動する細胞へ特殊な構造化された照明光を照射し、細胞の形態的情報を圧縮して含む波形データを細胞から取得し、波形データに基づいて細胞を分類するゴーストサイトメトリ法(以下、GC法と言う)が開発されている。GC法の例は特許文献1に開示されている。GC法では、訓練サンプルとして用意された細胞の波形データから分類モデルを機械学習により予め作成しておき、分類モデルを利用して、評価サンプルに含まれる細胞の波形データから当該細胞が分類対象である目的細胞かを判別する。GC法を用いたフローサイトメータによって、より高速かつ正確な細胞の分析が可能となる。
国際公開第2017/073737号
 GC法を用いたフローサイトメータでは、特定の形態的な特徴を有する細胞を蛍光染色等の標識をせずに判別することができる。例えば、疾患により特定の細胞の形態に変化が生じる場合には、人から採取した検体の中から、GC法を用いたフローサイトメータにより形態が変化した細胞を判別することができ、それにより当該疾患を有する患者の発見が可能となる。GC法で用いられる分類モデルを作成するためには、目的の細胞を訓練サンプルとして予め準備し、その細胞についての波形データを取得することが必要となる。しかしながら、目的の細胞が稀な細胞である場合等、目的の細胞について波形データを多数取得することが容易ではないことがある。このため、特定の特徴を有する細胞を判別することが困難なことがある。
 本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、特定の形態的特徴を有する粒子の判別を容易にするための分類モデル生成方法、粒子判定方法、コンピュータプログラム及び情報処理装置を提供することにある。
 本発明に係る分類モデル生成方法は、特定の形態的特徴を有する粒子と他の粒子とが混在した第1試料、及び前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データを取得し、前記観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、粒子を観測した結果を表す観測データを入力した場合に前記粒子が前記特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルを生成することを特徴とする。
 本発明に係る分類モデル生成方法では、前記観測データは、構造化照明による光を照射された粒子から発せられた光の強度の時間変化を表す波形データ、又は、光を照射された粒子からの光を構造化して検出した光の強度の時間変化を表す波形データであることを特徴とする。
 本発明に係る分類モデル生成方法では、前記第1試料は、特定の疾患を有する人から採取した検体であり、前記第2試料は、前記特定の疾患を有していない人から採取した検体であることを特徴とする。
 本発明に係る粒子判定方法は、粒子を観測した結果を表す観測データを取得し、粒子を観測した結果を表す観測データを入力した場合に前記粒子が特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルへ、取得した前記観測データを入力し、前記分類モデルが出力した判別情報を取得し、取得した前記判別情報に基づいて、前記観測データに係る粒子が前記特定の形態的特徴を有する粒子であるか否かの判定を行い、前記分類モデルは、前記特定の形態的特徴を有する粒子及び他の粒子が混在した第1試料、並びに前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、学習されていることを特徴とする。
 本発明に係る粒子判定方法は、前記判定が行われた粒子に関する情報を出力することを特徴とする。
 本発明に係る粒子判定方法は、前記観測データの取得の対象となる粒子を、人から採取し、粒子を採取された人を識別する識別情報を有するタグを前記粒子に付加し、前記観測データに係る粒子が前記特定の形態的特徴を有する粒子である場合に、前記観測データに係る粒子に付加されているタグが有する識別情報に基づいて、前記粒子を採取された人を特定することを特徴とする。
 本発明に係るコンピュータプログラムは、特定の形態的特徴を有する粒子と他の粒子とが混在した第1試料、及び前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データを取得し、前記観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、粒子を観測した結果を表す観測データを入力した場合に前記粒子が前記特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルを生成する処理をコンピュータに実行させることを特徴とする。
 本発明に係るコンピュータプログラムは、粒子を観測した結果を表す観測データを取得し、粒子を観測した結果を表す観測データを入力した場合に前記粒子が特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルへ、取得した前記観測データを入力し、前記分類モデルが出力した判別情報を取得し、取得した前記判別情報に基づいて、前記観測データに係る粒子が前記特定の形態的特徴を有する粒子であるか否かを判定する処理をコンピュータに実行させ、前記分類モデルは、前記特定の形態的特徴を有する粒子及び他の粒子が混在した第1試料、並びに前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、学習されていることを特徴とする。
 本発明に係る情報処理装置は、特定の形態的特徴を有する粒子と他の粒子とが混在した第1試料、及び前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データを取得するデータ取得部と、前記観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、粒子を観測した結果を表す観測データを入力した場合に前記粒子が前記特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルを生成する分類モデル生成部とを備えることを特徴とする。
 本発明に係る情報処理装置は、粒子を観測した結果を表す観測データを取得する観測部と、粒子を観測した結果を表す観測データを入力した場合に前記粒子が特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルへ、取得した前記観測データを入力し、前記分類モデルが出力した判別情報を取得する判別情報取得部と、取得した前記判別情報に基づいて、前記観測データに係る粒子が前記特定の形態的特徴を有する粒子であるか否かを判定する判定部とを備え、前記分類モデルは、前記特定の形態的特徴を有する粒子及び他の粒子が混在した第1試料、並びに前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、学習されていることを特徴とする。
 本発明の一形態においては、第1試料及び第2試料に含まれる夫々の粒子について取得された観測データを含む訓練データを利用して、分類モデルの学習が行われる。第1試料は、特定の形態的特徴を有する粒子と他の陰性粒子とを含む。第2試料は、特定の形態的特徴を有する粒子を含んでおらず、他の粒子からなる。分類モデルは、観測データが入力された場合に粒子が特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する。特定の形態的特徴を有する粒子が稀な存在であり、観測データを多数取得することが容易ではない場合であっても、観測データと、観測データが第1試料及び第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、分類モデルを生成することが可能である。分類モデルを利用して、観測データに応じた判別情報を取得し、判別情報に基づいて粒子が特定の形態的特徴を有する粒子であるか否かを判定することができる。
 本発明の一形態においては、観測データは、構造化照明により光を照射された粒子から発せられた光の強度の時間変化を表す波形データ、又は、光を照射された粒子からの光を構造化して検出した光の強度の時間変化を表す波形データである。波形データは、GC法で用いられるものと同様であり、粒子の形態情報を圧縮して含んでいる。このため、分類モデルの生成及び粒子の判定に利用することができる。
 本発明の一形態においては、第1試料はがん等の特定の疾患を有する人から採取した検体であり、第2試料は、特定の疾患を有していない人から採取した検体である。特定の形態的特徴を有する粒子は、がん等の特定の疾患により形態が変化した粒子(陽性粒子)である。検体に含まれる粒子が陽性粒子であるか否かを判定することにより、粒子を採取された人が特定の疾患を有するか否かを判定することができる。
 本発明の一形態においては、判定された粒子に関する情報が表示される。ユーザは、粒子に関する情報を確認することができる。
 本発明の一形態においては、粒子を採取された人を識別する識別情報を有するタグを粒子に付加し、タグに基づいて、粒子を採取された人を特定する。特定の形態的特徴を有する粒子に付加されたタグに基づいて、特定の形態的特徴を有する粒子を採取された人を特定することができる。それにより、例えば、粒子を採取された人の中から特定の疾患を有する人を特定することも可能となる。
 本発明にあっては、特定の形態的特徴を有する粒子を含む訓練サンプルを多数準備して観測データを取得することが容易ではない場合であっても、観測データの入力に応じて粒子が特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルを、生成することができる。分類モデルを利用して特定の形態的特徴を有する粒子を判別することが可能となる等、本発明は優れた効果を奏する。
分類モデル生成方法の概要を示す概念図である。 分類モデルの生成を行うための実施形態1に係る学習装置の構成例を示すブロック図である。 波形データの例を示すグラフである。 情報処理装置の内部の構成例を示すブロック図である。 分類モデルの機能を示す概念図である。 分類モデルの学習を行う処理の手順の一例を示すフローチャートである。 MILの概念を用いた学習例を示す模式図である。 粒子判定方法の概要を示す概念図である。 細胞の判定を行うための実施形態1に係る判定装置の構成例を示すブロック図である。 情報処理装置の内部の構成例を示すブロック図である。 細胞の判定を行うために情報処理装置が実行する処理の手順を示すフローチャートである。 判定結果の表示例を示す模式図である。 実施形態2に係る学習装置の構成例を示すブロック図である。 実施形態2に係る判定装置の構成例を示すブロック図である。 実施形態3に係る学習装置の構成例を示すブロック図である。 実施形態3に係る判定装置の構成例を示すブロック図である。
 以下本発明をその実施の形態を示す図面に基づき具体的に説明する。
<実施形態1>
 本実施形態では、GC法により、細胞へ光を照射して得られる細胞の形態的特徴を表す波形データに基づいて、細胞が特定の形態的特徴を有する細胞であるか否かを判定する。波形データは観測データに対応する。以下では、人から採取した検体に含まれる複数の細胞の中から、がん細胞等、特定の疾患の影響によって特定の形態的特徴を有している細胞を判別する例を用いて、本実施形態について説明する。
 本実施形態では、細胞の判別を行うために必要な分類モデルを生成する。分類モデルは学習済みモデルである。図1は、分類モデル生成方法の概要を示す概念図である。特定の形態的特徴を有する細胞と他の細胞とが混在した複数の第1試料111を作成し、特定の形態的特徴を有する細胞を含んでおらず他の細胞からなる複数の第2試料121を作成する。例えば、がん等の特定の疾患を有している患者11から採取した検体が第1試料111であり、特定の疾患を有していない健常人12から採取した検体が第2試料121である。図1に示したカッコ付の符号は、個別の患者11及び第1試料111を指し、また、個別の健常人12及び第2試料121を指す。即ち、図8に示す例では、患者11aから第1試料111aが採取され、患者11bから第1試料111bが採取されている。また、健常人12aから第2試料121aが採取され、健常人12bから第2試料121bが採取されている。第1試料111には、がん細胞等、特定の疾患の影響によって特定の形態的特徴を有している細胞と、他の細胞とが含まれている。他の細胞は、特定の形態的特徴を有していない細胞である。第2試料121には他の細胞のみが含まれている。以下、特定の形態的特徴を有している細胞を陽性細胞とし、他の細胞を陰性細胞とする。図1では、陽性細胞を二重丸で示し、陰性細胞を丸で示している。陰性細胞は、多種類である。通常、陽性細胞は稀に存在する細胞である。通常は、第1試料111中で陽性細胞は陰性細胞よりも少ない。
 次に、第1試料111及び第2試料121に含まれる夫々の細胞へ光を照射し、夫々の細胞から細胞の形態的特徴を表す波形データを取得する。後述するように、波形データは、光を照射された細胞から発せられた光の強度の時間変化を表し、その波形データには細胞の形態的特徴が含まれている。次に、波形データと、その波形データが第1試料及び第2試料のどちらに含まれる細胞から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、分類モデルを生成する。分類モデルは、波形データを入力した場合に細胞が特定の形態的特徴を有する細胞であるか否かを示す判別情報を出力するものである。
 図2は、分類モデルの生成を行うための実施形態1に係る学習装置200の構成例を示すブロック図である。学習装置200は、細胞が流通する流路34を備えている。細胞4は流体中に分散され、流体が流路34を流れることにより、個々の細胞4は順次的に流路34を移動する。学習装置200は、流路34を移動する細胞4に対して光を照射する光源31を備えている。光源31は、白色光又は単色光を発光する。光源31は、例えば、レーザー光源、又はLED(Light Emitting Diode)光源である。光を照射された細胞4は、光を発する。細胞4から発せられる光は、例えば、反射光、散乱光、透過光、蛍光、ラマン散乱光、又はそれらの回折光である。学習装置200は、細胞4からの光を検出する検出部32を備えている。検出部32は、光電子増倍管(PMT:Photomultiplier Tube)、ライン型PMT素子、フォトダイオード、APD(Avalanche Photo-Diode )又は半導体光センサ等の光検出センサを有している。図2には、光の経路を実線矢印で示している。
 学習装置200は、光学系33を備えている。光学系33は、光源31からの照明光を流路34中の細胞4へ導き、細胞4からの光を検出部32へ入射させる。光学系33には、入射する光を変調し、構造化するための空間光変調デバイス331が含まれている。図2に示す学習装置200は、光源31からの照明光が空間光変調デバイス331を介して細胞4へ照射される構成になっている。空間光変調デバイス331は、光の空間的な分布(振幅、位相、偏光等)を制御して光を変調させるデバイスである。空間光変調デバイス331は、例えば、光が入射する面に複数の領域を有しており、入射する光は、複数の領域のうち二つ以上の領域で互いに異なる変調を受ける。ここで変調とは、光の特性(光の強度、波長、位相、及び偏光状態のいずれか1つ以上の光に関する性質)を変化させることである。図2では、光透過率の異なる二種類の領域が二次元の格子状に所定のパターンで配置された構成が例示されている。図2では、光源31からの照明光が空間光変調デバイス331を通過することにより、強度の異なる二種類の光が所定のパターンで並んだ構造化照明が構成される。
 空間光変調デバイス331は、例えば、回折光学素子(DOE:Diffractive Optical Element )、空間光変調器(SLM:Spatial Light Modulator )、デジタルミラーデバイス(DMD:Digital Micromirror Device)である。なお、光源31が発する照明光がインコヒーレント光である場合、空間光変調デバイス331は、DMDである。また、空間光変調デバイス331の別の例は、光透過率の異なる複数種類の領域がランダムに又は所定のパターンで配置されたフィルム又は光フィルタである。ここで、光透過率の異なる複数種類の領域が所定のパターンで配置されるとは、例えば、光透過率の異なる複数種類の領域が一次元又は二次元の格子状に配置されているような状態のことである。また、光透過率の異なる複数種類の領域がランダムに配置されるとは、複数種類の領域が不規則に散らばって配置されているということである。前述のフィルム又は光フィルタでは、第1の光透過率を有する領域と、第1の光透過率とは異なる第2の透過率を有する領域との少なくとも二種類の領域を有する構成になっている。このように、光源31からの照明光は、細胞4へ照射される前に、空間光変調デバイス331により変調され、例えば、光強度の異なる輝点がランダムに又は所定のパターンで並ぶ構造化された照明光に変換される。このように、光源31から細胞4へ照射されるまでの光路の途中において、光源31からの照明光を空間光変調デバイス331により変調する構成を、構造化照明とも記載する。
 構造化照明による照明光は、流路34中の特定の領域(照射領域)に照射され、この照射領域内を細胞4が移動する際に、細胞4は構造化された照明光を照射される。細胞4に照射される構造化された照明光のパターンは、それ自体一定で時間的に変化しないものの、細胞4は、照射領域を移動することにより、場所によって光強度の異なる光の照射を受ける。細胞4は、構造化された照明光の照射を受け、細胞4から発せられるか又は細胞4を介して生じる、透過光、蛍光、散乱光、干渉光、回折光、又は偏光等の光を発する。以降では、これら細胞4から発せられるか又は細胞4を介して生じる光のことを、細胞4により変調された光とも記載する。細胞4により変調された光は、細胞4が流路34の照射領域内を通過する間、継続して、検出部32で検出される。検出部32は、検出した光の強度に応じた信号を情報処理装置2へ出力する。こうして、学習装置200は、検出部32が検出した細胞4により変調された光の強度の時間変化を表す波形データを、取得することができる。
 図3は、波形データの例を示すグラフである。図3の横軸は時間を示し、縦軸は検出部32が検出した光の強度を示す。波形データは、時間経過に応じて順次的に得られた複数の強度値を含んでなる。各強度値は光の強度を示す。ここでの波形データは、細胞4の形態的特徴を反映した光信号の時間変化を表す時系列データである。光信号は、検出部32が検出した光の強度を示す信号である。波形データは、例えば、GC法により取得される細胞4から発せられる光の強度の時間変化を表す波形データである。GC法により取得する細胞4からの光信号には、細胞の形態情報が圧縮されて含まれるので、検出部32が検出する光の強度の時間変化は、細胞4の大きさ、形状、内部の構造、密度分布又は色分布等の形態的特徴に応じて変化する。細胞4からの光の強度は、流路34の照射領域内での細胞4の移動に伴い、構造化された照明光の強度が時間的に変化することによっても変化する。この結果、検出部32が検出する光の強度は時間経過に応じて変化し、図3に示すように、時間経過に応じて変化する光の強度はグラフ上で波形をなす。
 構造化照明によって得られた、細胞4により変調された光の強度の時間変化を表す波形データは、細胞4の形態的特徴に応じた形態情報を圧縮して含む波形データである。このため、GC法を用いたフローサイトメータでは、波形データをそのまま訓練データとして利用した機械学習により、形態的に異なる細胞を判別することが行われている。また、構造化照明によって得られた波形データから、細胞4の画像を生成することも可能である。なお、学習装置200は、一つの細胞4から発せられる複数種類の変調された光に関して、個別に夫々の波形データを取得する形態であってもよい。
 光学系33は、空間光変調デバイス331に加えて、レンズ332を有する。レンズ332は、細胞4からの光を集光し、検出部32へ入射させる。光学系33は、空間光変調デバイス331及びレンズ332以外にも、ミラー、レンズ及びフィルタ等の光学部品を、光源31からの照明光を構造化して細胞4へ照射し、細胞4からの光を検出部32へ入射させるために、有している。なお、図2では、空間光変調デバイス331及びレンズ332以外に光学系33に含まれ得る光学部品の記載は省略している。検出部32で取得される細胞4からの光の強度の時間変化を表す波形データは、細胞の形態情報を含む観測データである。
 学習装置200は、情報処理装置2を備えている。情報処理装置2は、分類モデルの生成に必要な情報処理を実行する。検出部32は、情報処理装置2に接続されている。検出部32は、検出した光の強度に応じた信号を情報処理装置2へ出力し、情報処理装置2は、検出部32からの信号を受け付ける。
 図4は、情報処理装置2の内部の構成例を示すブロック図である。情報処理装置2は、例えば、パーソナルコンピュータ又はサーバ装置等のコンピュータである。情報処理装置2は、演算部21と、メモリ22と、ドライブ部23と、記憶部24と、操作部25と、表示部26と、インタフェース部27とを備えている。演算部21は、例えばCPU(Central Processing Unit )、GPU(Graphics Processing Unit)、又はマルチコアCPUを用いて構成されている。演算部21は、量子コンピュータを用いて構成されていてもよい。メモリ22は、演算に伴って発生する一時的なデータを記憶する。メモリ22は、例えばRAM(Random Access Memory)である。ドライブ部23は、光ディスク又は可搬型メモリ等の記録媒体20から情報を読み取る。
 記憶部24は、不揮発性であり、例えばハードディスク又は不揮発性半導体メモリである。操作部25は、ユーザからの操作を受け付けることにより、テキスト等の情報の入力を受け付ける。操作部25は、例えばタッチパネル、キーボード又はポインティングデバイスである。表示部26は、画像を表示する。表示部26は、例えば液晶ディスプレイ又はELディスプレイ(Electroluminescent Display)である。操作部25及び表示部26は、一体になっていてもよい。インタフェース部27は、検出部32と接続される。インタフェース部27は、検出部32との間で信号を送受信する。
 演算部21は、記録媒体20に記録されたコンピュータプログラム241をドライブ部23に読み取らせ、読み取ったコンピュータプログラム241を記憶部24に記憶させる。演算部21は、コンピュータプログラム241に従って、情報処理装置2に必要な処理を実行する。なお、コンピュータプログラム241は、情報処理装置2の外部からダウンロードされてもよい。又は、コンピュータプログラム241は、記憶部24に予め記憶されていてもよい。これらの場合は、情報処理装置2はドライブ部23を備えていなくてもよい。なお、情報処理装置2は、複数のコンピュータで構成されていてもよい。
 情報処理装置2は、分類モデル242を備えている。分類モデル242は、コンピュータプログラム241に従って演算部21が情報処理を実行することにより実現される。記憶部24は、分類モデル242を実現するために必要なデータを記憶している。なお、分類モデル242は、ハードウェアにより構成されていてもよい。分類モデル242は、量子コンピュータを用いて実現されてもよい。或は、分類モデル242は情報処理装置2の外部に設けられており、情報処理装置2は、外部の分類モデル242を利用して処理を実行する形態であってもよい。例えば、分類モデル242は、クラウドで構成されていてもよい。
 図5は、分類モデル242の機能を示す概念図である。分類モデル242には、一つの細胞4から得られた波形データが入力される。分類モデル242は、波形データが入力された場合に細胞4が特定の形態的特徴を有する細胞であるか否かを示す判別情報を出力するように学習される。例えば、分類モデル242は、ニューラルネットワークで構成されている。
 情報処理装置2は、分類モデル242の学習を行う処理を行うことにより、分類モデル生成方法を実行する。図6は、分類モデル242の学習を行う処理の手順の一例を示すフローチャートである。以下、ステップをSと略す。演算部21は、コンピュータプログラム241に従って以下の処理を実行する。分類モデル242の学習が行われる前に、複数の第1試料111及び複数の第2試料121が作成される。情報処理装置2は、複数の第1試料111に含まれる夫々の細胞から得られる波形データと、複数の第2試料121に含まれる夫々の細胞から得られる波形データとを取得する(S11)。
 S11の処理が行われる際には、複数の第1試料111に含まれる夫々の細胞4が流路34を流され、光源31及び空間光変調デバイス331を利用して、構造化された照明光が細胞4へ照射される。細胞4は、散乱光等の細胞4により変調された光を発し、発せられた光は検出部32で検出される。検出部32は、検出した光の強度に応じた信号を情報処理装置2へ出力し、情報処理装置2は、インタフェース部27で検出部32からの信号を受け付ける。演算部21は、検出部32からの信号に基づいて、検出部32が検出した光の強度の時間変化を表す波形データを生成することにより、波形データを取得する。このようにして、複数の第1試料111に含まれる夫々の細胞4について、波形データが情報処理装置2に取得される。同様にして、複数の第2試料121に含まれる夫々の細胞4について、波形データが情報処理装置2に取得される。演算部21は、取得した波形データを記憶部24に記憶する。S11の処理は、データ取得部に対応する。
 情報処理装置2は、次に、学習のための訓練データを生成する(S12)。訓練データは、波形データと、波形データが第1試料111又は第2試料121のどちらに含まれる細胞から得られたものであるかを示す情報とを含む。第1試料111に含まれる細胞から得られた波形データには、波形データが第1試料111に含まれる細胞から得られたものであることを示す情報が関連付けられる。第2試料121に含まれる細胞から得られた波形データには、波形データが第2試料121に含まれる細胞から得られたものであることを示す情報が関連付けられる。S12では、演算部21は、夫々の波形データに、波形データが第1試料111又は第2試料121のどちらに含まれる細胞から得られたものであるかを示す情報を関連付けることによって、訓練データを生成する。第1試料111に含まれる複数の細胞から得られた波形データには、陽性細胞であるか陰性細胞であるかに関わらず、第1試料111から得られたものであることを示す情報が同様に関連付けられ、この情報が訓練データに含まれてもよい。同様に、第2試料121に含まれる複数の細胞から得られた波形データには、第2試料121から得られたものであることを示す情報が関連付けられ、この情報が訓練データに含まれてもよい。演算部21は、訓練データを記憶部24に記憶する。
 情報処理装置2は、次に、分類モデル242の学習を行う(S13)。S13では、演算部21は、MIL(Multiple-Instance Learning)の手法を利用して学習を行う。MILの手法は、例えば、Marc-Andre Carbonneau, et al. "Multiple instance learning: A survey of problem characteristics and applications", Pattern Recognition, Volume 77, May 2018, Pages 329-353に開示されている。図7は、MILの概念を用いた学習例を示す模式図である。細胞の特徴が二次元座標上にプロットされているとする。図7では、特定の形態的特徴を有している陽性細胞を二重丸で示し、陰性細胞を丸で示す。実線で囲まれた複数の細胞は、同じ第1試料111に含まれる複数の細胞である。一方、破線で囲まれた複数の細胞は、同じ第2試料121に含まれる複数の細胞である。図7中の一点鎖線は、ある特定の形態的特徴に基づき陽性細胞と陰性細胞とを分類した際の決定境界を示す。MILでは、境界を適切に定めるように分類モデルが学習される。夫々の第2試料121に含まれる複数の細胞が全て陰性細胞となるように、また、夫々の第1試料111に含まれるある特定の形態的特徴を有する一部の細胞は陽性細胞となり、他の細胞は陰性細胞となるように、より妥当な決定境界が学習により定められる。
 S13では、演算部21は、第2試料121に含まれる細胞から得られた波形データを分類モデル242へ入力した場合には、細胞が特定の形態的特徴を有している陽性細胞ではないことを示す判別情報が出力されるように、分類モデル242の演算のパラメータを調整する。また、演算部21は、一つの第1試料111に含まれる複数の細胞から得られた波形データの中の一部の波形データを分類モデル242へ入力した場合には、細胞が陽性細胞であることを示す判別情報が出力され、他の波形データを分類モデル242へ入力した場合には、細胞が陽性細胞ではないことを示す判別情報が出力されるように、分類モデル242の演算のパラメータを調整する。
 演算部21は、訓練データを用いて、分類モデル242の演算のパラメータを調整する処理を繰り返すことにより、分類モデル242の学習を行う。分類モデル242がニューラルネットワークである場合は、各ノードの演算のパラメータの調整が行われる。分類モデル242は、第1試料111に含まれる一部の細胞から得られた波形データが入力された場合に細胞が陽性細胞であることを示す判別情報を出力し、第1試料111に含まれる他の細胞及び第2試料121に含まれる細胞から得られた波形データが入力された場合に細胞が陽性細胞でないことを示す判別情報を出力するように、学習される。演算部21は、調整された最終的なパラメータを記録した学習済みデータを記憶部24に記憶する。このようにして、学習された分類モデル242が生成される。S13の処理は、分類モデル生成部に対応する。S13が終了した後、情報処理装置2は分類モデル242の学習を行う処理を終了する。
 学習された分類モデル242を生成し、細胞が特定の形態的特徴を有している陽性細胞であるか否かを判別することによって、粒子判定方法が実行される。また、粒子判定方法では、人から採取した検体を試料とし、分類モデル242を用いて試料に含まれる細胞が陽性細胞であるか否かを判定し、検体から陽性細胞と判定された細胞が見つかった人が陽性者として特定される。図8は、粒子判定方法の概要を示す概念図である。例えば、がん検診を受ける人等の被検査者13から検体を採取し、検体を検査用試料131とする。
検体は、血液、血液から生成した特定細胞を含む分画成分、尿、骨髄液若しくはその他の体液、又は患部を洗浄した洗浄液等であり、細胞が含まれる。検査用試料131には、一又は複数の細胞が含まれている。複数の被検査者13から検体を採取することにより、複数の検査用試料131を作成する。図8に示したカッコ付の符号は、個別の被検査者13及び検査用試料131を指す。即ち、図8に示す例では、被検査者13aから検査用試料131aが採取され、被検査者13bから検査用試料131bが採取されている。
 次に、検査用試料131に含まれる細胞に、夫々の被検査者13を識別する識別情報を有するタグを付加する。例えば、図8に示す例では、検査用試料131aに含まれる細胞に被検査者13aを識別する識別情報を有するタグを付加する。識別情報を有するタグは、検査用試料131に含まれる夫々の細胞とそれらを採取された被検査者13とを結びつけるものであり、細胞自体に付着あるいは結合するものが望ましい。タグは、好ましくは数種類の構成成分が連結して構成される構成要素を含む物質であり、公知のペプチドタグ又はDNA(deoxyribonucleic acid )タグ等である。タグに含まれている構成要素の配列が識別情報を示す。タグは、より好ましくはDNAタグであり、例えば、DNAタグでは、塩基配列が識別情報を示す。細胞に付加されるタグが有する識別情報は、検査用試料131ごとに異なっており、被検査者13に関連付けられる。例えば、図8に示す例では、検査用試料131aは被検査者13aと関連付けられる。細胞に識別情報を付与するDNAタグとしては、例えば、WO2020/010366に記載されているような脂質又はコレステロールで修飾されたオリゴヌクレオチドを使用することができる。
 次に、分類モデル242を利用して、検査用試料131に含まれる夫々の細胞が陽性細胞であるか否かを判別する。分類モデル242により細胞が陽性細胞であると判別された場合には、次に、その陽性細胞に付加されているタグが有する識別情報に基づいて、陽性細胞を含む検査用試料131が採取された被検査者13を特定し、特定された被検査者13を陽性者と判定する。例えば、図8に示す例では、陽性細胞を含む検査用試料131aが採取された被検査者13aを、陽性者と判定する。
 図9は、細胞の判定を行うための実施形態1に係る判定装置500の構成例を示すブロック図である。判定装置500は、細胞の流路64を備えている。細胞4は順次的に流路64を移動する。判定装置500は、光源61、検出部62及び光学系63を備えている。図9における光源61、検出部62及び光学系63の構成は、図2における光源31、検出部32及び光学系33の構成と同じである。光源61は、例えば、レーザー光源、又はLED光源であり、検出部62は、光電子増倍管、ライン型PMT素子、フォトダイオード、APD又は半導体光センサ等の光検出センサを有している。図9には、光の経路を実線矢印で示している。
 光学系63は、光源61からの光を流路64中の細胞4へ導き、細胞4からの光を検出部62へ入射させる。光学系63は、空間光変調デバイス631と、レンズ632とを有している。光源61からの光は、空間光変調デバイス631を通過してから細胞4へ照射される。これにより、構造化照明が構成される。判定装置500は、細胞4から発せられ細胞4により変調された光の強度の時間変化を表す波形データを取得することができる。波形データは、例えば、GC法で用いられるものであり、細胞4の形態的特徴を表す。判定装置500は、一つの細胞4について複数の波形データを取得する形態であってもよい。
 光学系63は、空間光変調デバイス631及びレンズ632以外にも、ミラー、レンズ及びフィルタ等、光源61からの光を細胞4へ照射し、細胞4からの光を検出部62へ入射させるための光学部品を有している。図9では、空間光変調デバイス631及びレンズ632以外の光学部品の記載は省略している。検出部62で取得される細胞4からの光の強度の時間変化を表す波形データは、細胞の形態情報を含む観測データである。
 流路64には、ソータ65が連結している。ソータ65は、流路64を移動してきた細胞4から特定の細胞を分取する。例えば、ソータ65は、流路64を移動してきた細胞4が特定の細胞であると判定された場合に、移動する細胞4に対して電荷を付与し、電圧を印加し、細胞4の移動経路を変化させることにより、細胞4を分取する構成となっている。ソータ65は、細胞4がソータ65まで流れてきた時点でパルス流を発生させ、細胞4の移動経路を変化させることにより、特定の細胞4を分取し取得する構成であってもよい。
 判定装置500は、情報処理装置5を備えている。情報処理装置5は、細胞4の判定に必要な情報処理を実行する。検出部62は、情報処理装置5に接続されている。検出部62は、検出した光の強度に応じた信号を情報処理装置5へ出力し、情報処理装置5は、検出部62からの信号を受け付ける。ソータ65は、情報処理装置5に接続されており、情報処理装置5に制御される。ソータ65は、情報処理装置5による制御に従って、細胞を分取する。
 図10は、情報処理装置5の内部の構成例を示すブロック図である。情報処理装置5は、パーソナルコンピュータ又はサーバ装置等のコンピュータである。情報処理装置5は、演算部51と、メモリ52と、ドライブ部53と、記憶部54と、操作部55と、表示部56と、インタフェース部57とを備えている。演算部51は、例えばCPU、GPU、又はマルチコアCPUを用いて構成されている。演算部51は、量子コンピュータを用いて構成されていてもよい。メモリ52は、演算に伴って発生する一時的なデータを記憶する。メモリ52は、例えばドライブ部53は、光ディスク等の記録媒体50から情報を読み取る。
 記憶部54は、不揮発性であり、例えばハードディスク又は不揮発性半導体メモリである。操作部55は、ユーザからの操作を受け付けることにより、テキスト等の情報の入力を受け付ける。操作部55は、例えばタッチパネル、キーボード又はポインティングデバイスである。表示部56は、画像を表示する。表示部56は、例えば液晶ディスプレイ又はELディスプレイである。操作部55及び表示部56は、一体になっていてもよい。インタフェース部57は、検出部62及びソータ65と接続される。インタフェース部57は、検出部62及びソータ65との間で信号を送受信する。
 演算部51は、記録媒体50に記録されたコンピュータプログラム541をドライブ部53に読み取らせ、読み取ったコンピュータプログラム541を記憶部54に記憶させる。演算部51は、コンピュータプログラム541に従って、情報処理装置5に必要な処理を実行する。なお、コンピュータプログラム541は、情報処理装置5の外部からダウンロードされてもよい。又は、コンピュータプログラム541は、記憶部54に予め記憶されていてもよい。これらの場合は、情報処理装置5はドライブ部53を備えていなくてもよい。なお、情報処理装置5は、複数のコンピュータで構成されていてもよい。
 情報処理装置5は、分類モデル242を備えている。分類モデル242は、コンピュータプログラム541に従って演算部51が情報処理を実行することにより実現される。分類モデル242は、学習装置200によって学習された分類モデルである。情報処理装置5は、学習装置200によって学習された分類モデル242のパラメータを記録した学習済みデータを記憶部54に記憶することによって、分類モデル242を備える。例えば、学習済みデータは、ドライブ部53によって記録媒体50から読み出されるか、又は、ダウンロードされる。なお、分類モデル242は、ハードウェアにより構成されていてもよい。分類モデル242は、量子コンピュータを用いて実現されてもよい。或は、分類モデル242は情報処理装置5の外部に設けられており、情報処理装置5は、外部の分類モデル242を利用して処理を実行する形態であってもよい。例えば、分類モデル242は、クラウドで構成されていてもよい。
 なお、情報処理装置5では、FPGA(Field Programmable Gate Array )により分類モデル242が実現されていてもよい。分類モデル生成方法によって学習された分類モデル242のパラメータに基づいてFPGAの回路が構成され、FPGAは、分類モデル242の処理を実行する。
 図11は、細胞の判定を行うために情報処理装置5が実行する処理の手順を示すフローチャートである。演算部51は、コンピュータプログラム541に従って以下の処理を実行する。前述のように検査用試料131が作成され、検査用試料131に含まれる細胞にタグが付加される。タグを付加された細胞4は、流路64を流される。情報処理装置5は、流路64を移動する細胞4から得られる波形データを取得する(S21)。流路64を移動する細胞4へ構造化照明による光が照射され、細胞4から発せられた光は検出部62で検出され、検出部62は、検出に応じた信号を情報処理装置5へ出力し、情報処理装置5は信号を受け付ける。S21では、演算部51は、検出部62からの信号に基づいて、検出部62が検出した光の強度の時間変化を表す波形データを生成し、波形データを記憶部54に記憶する。S21の処理は、観測部に対応する。
 情報処理装置5は、取得した波形データを分類モデル242へ入力する(S22)。S22では、演算部51は、波形データを分類モデル242へ入力し、分類モデル242に処理を実行させる。演算部51は、波形データが第1試料及び第2試料のどちらに含まれる細胞から得られたものであるかを示す情報は、入力しない。分類モデル242は、波形データが入力されたことに応じて、細胞4が特定の形態的特徴を有する陽性細胞であるか否かを示す判別情報を出力する処理を行う。演算部51は、分類モデル242が出力した判別情報を取得する。S22の処理は、判別情報取得部に対応する。情報処理装置5は、分類モデル242が出力した判別情報に基づいて、細胞4が陽性細胞であるか否かを判定する(S23)。S23では、演算部51は、細胞4が陽性細胞であることを判別情報が示している場合に、細胞4が陽性細胞であると判定し、細胞4が陽性細胞ではないことを判別情報が示している場合に、細胞4は陽性細胞ではないと判定する。演算部51は、必要に応じて、判定結果を示す情報を波形データに関連付けて記憶部54に記憶することもできる。S23の処理は、判定部に対応する。
 情報処理装置5は、次に、判定結果を表示部56に表示する(S24)。図12は、判定結果の表示例を示す模式図である。表示部56には、例えば、波形データがグラフの形で表示され、細胞4が陽性細胞であるか否かの判定結果が文字で表示される。図12には、細胞4が陽性細胞であると判定された例を示している。演算部51は、S24において、判定結果を記憶部54から読み出し、波形データ及び判定結果を表す画像を生成し、表示部56に表示することもできる。演算部51は、判定結果を示す情報を記憶部54に記憶せずに、波形データ及び判定結果から画像を生成し、表示部56に表示してもよい。演算部51は、波形データに基づいて細胞4の画像を生成し、細胞4の画像をも表示部56に表示してもよい。演算部51は、細胞4が含まれていた検査用試料131に関する情報、又は検査用試料131を採取された被検査者13に関する情報をも表示部56に表示してもよい。判定された細胞4に関する情報が表示され、使用者が細胞4に関する情報を確認することができる。なお、S24は省略されてもよい。
 情報処理装置5は、次に、細胞4が陽性細胞ではないと判定された場合は(S25:NO)、細胞の判定を行うための処理を終了する。細胞4が陽性細胞であると判定された場合は(S25:YES)、情報処理装置5は、ソータ65を用いて、細胞4を分取する(S26)。S26では、演算部51は、ソータ65に細胞4を分取させるための制御信号をインタフェース部57からソータ65へ送信する。ソータ65は、制御信号に従って、細胞4を分取する。例えば、ソータ65は、細胞4が流路64をソータ65まで流れてきた時点で、細胞4に対して電荷を付与し、電圧を印加し、細胞4の移動経路を変化させることにより、細胞4を分取する。S26が終了した後、情報処理装置5は、細胞の判定を行うための処理を終了する。
 複数の検査用試料131に含まれる細胞の夫々について、S21~S26の処理が実行される。S21~S26の処理により分取された細胞は、特定の形態的特徴を有する陽性細胞である。分取された細胞に付加されたタグが有する識別情報が解析され、識別情報に関連付けられた被検査者13が特定される。その際、分取された細胞について、更に生化学的検査又は遺伝子検査を行なうことで、分取された細胞についての詳細な情報を付加的に得ることもできる。特定された被検査者13は、陽性細胞を含む検査用試料131が採取された被検査者である。このように、陽性者が特定される。陽性細胞が特定の疾患の影響によって特定の形態的特徴を有している細胞である場合は、陽性者は、特定の疾患を有する患者であると判定される。このようにして、複数の被検査者13の中から、がん等の特定の疾患を有する患者を発見することができる。
 以上詳述した如く、本実施形態では、第1試料及び第2試料に含まれる夫々の細胞について取得された波形データを含む訓練データを利用して、分類モデルの学習が行われる。第1試料は、特定の形態的特徴を有する陽性細胞とその他の陰性細胞とを含む。第2試料は、陽性細胞を含んでおらず、陰性細胞からなる。分類モデルは、波形データが入力された場合に細胞が陽性細胞であるか否かを示す判別情報を出力する。陽性細胞は稀な存在であり、訓練データとして陽性細胞の波形データを多数取得することが容易ではない。しかしながら、波形データが第1試料及び第2試料のどちらに含まれる細胞から得られたものであるかを示す情報を含んだ訓練データを用い、MILの手法を利用した学習により、分類モデルを生成することが可能である。分類モデルを利用して、波形データに応じた判別情報を取得し、判別情報に基づいて細胞が陽性細胞であるか否かを判定することができる。このため、稀な存在である陽性細胞についても判別することが可能となる。
 陽性細胞が、がん等の特定の疾患を有する人から採取され得る細胞である場合は、細胞が陽性細胞であるか否かを判定することにより、細胞を採取された人が特定の疾患を有するか否かを判定することができる。本実施形態では、細胞を採取された人を識別する識別情報を有するタグを細胞に付加し、タグに基づいて、細胞を採取された人を特定する。細胞が陽性細胞であると判定された場合は、陽性細胞に付加されたタグに基づいて、陽性細胞を採取された人を特定することができる。このため、特定の疾患を有する人を特定することも可能となる。本実施形態では、識別情報を有するタグを細胞に付加し、細胞を採取された人をタグに基づいて特定する形態を説明したが、細胞を採取された人を特定する方法はそれに限らない。それ以外の方法として、例えば、採取された人毎にまとめて検査用試料に含まれる細胞の観測を順序立てて行ない、観測順序により検査用試料を識別し、細胞を採取された人を特定する方法をとることもできる。
<実施形態2>
 図13は、実施形態2に係る学習装置200の構成例を示すブロック図である。実施形態2では、図2に示した実施形態1と比べて、光学系33の構成が異なっている。光学系33以外の部分の構成は、実施形態1と同様である。光源31からの光は、空間光変調デバイス331を介さずに細胞4へ照射される。細胞4からの光は、空間光変調デバイス331を通過し、レンズ332で集光され、検出部32へ入射する。検出部32は、細胞4により変調された光が空間光変調デバイス331を介することによって構造化された変調光を検出する。このように、細胞4から検出部32までの光路の途中において、細胞4からの変調光を空間光変調デバイス331により構造化する構成を構造化検出とも記載する。検出部32が検出する細胞4からの変調光は、空間光変調デバイス331により光の強度が時間経過に応じて変化する。構造化検出により検出部32で検出される細胞4からの光の強度の時間変化を表す波形データは、前述の構造化照明の場合と同様に、細胞4の形態情報を圧縮して含んでいる。即ち、検出部32が検出する細胞4からの光の強度の時間変化を表す波形データは、細胞の形態情報を含む観測データである。
 実施形態2においても、学習装置200は、細胞4から発せられた光の時間変化を表す波形データを取得することができる。実施形態1と同様に、波形データは、細胞4の形態的特徴を表す。光学系33は、空間光変調デバイス331及びレンズ332以外にも光学部品を有している。構造化検出では、空間光変調デバイス331として、実施形態1における構造化照明で使用される光学部品が同様に使用できる。図13では、空間光変調デバイス331及びレンズ332以外の光学部品の記載は省略している。実施形態2においても、情報処理装置2は、実施形態1と同様に、S11~S13の処理を実行することにより、分類モデル242を生成する。
 図14は、実施形態2に係る判定装置500の構成例を示すブロック図である。実施形態2では、図9に示した実施形態1と比べて、光学系63の構成が異なっている。光学系63以外の部分の構成は、実施形態1と同様である。光源61からの光は、空間光変調デバイス631を介さずに細胞4へ照射される。細胞4からの光は、空間光変調デバイス631を通過し、レンズ632で集光され、検出部62へ入射する。検出部62は、細胞4により変調された光が空間光変調デバイス631を介することによって構造化された変調光を検出する。構造化検出により検出部62で検出される細胞4からの光の強度の時間変化を表す波形データは、細胞4の形態情報を圧縮して含んでいる。細胞4からの光の強度は、細胞4の形態的特徴に応じて変化し、空間光変調デバイス631を介することによっても変化する。即ち、検出部62が検出する細胞4からの光の強度の時間変化を表す波形データは、細胞の形態情報を含む観測データである。
 構造化検出の構成をとる実施形態2においても、判定装置500は、細胞4から発せられた光の時間変化を表す波形データを取得することができる。実施形態1と同様に、波形データは、細胞4の形態的特徴を表す。光学系63は、空間光変調デバイス631及びレンズ632以外にも光学部品を有している。図14では、空間光変調デバイス631及びレンズ632以外の光学部品の記載は省略している。実施形態2においても、情報処理装置5は、実施形態1と同様に、S21~S26の処理を実行することにより、細胞の判別及び分取を行う。なお、学習装置200及び判定装置500の内の一方が実施形態1と同様の構成であってもよい。
 実施形態2においても、第1試料及び第2試料に含まれる夫々の細胞について取得された波形データと波形データが第1試料及び第2試料のどちらに含まれる細胞から得られたものであるかを示す情報を含んだ訓練データを用いて、分類モデルを生成することが可能である。分類モデルを利用して、波形データに応じた判別情報を取得し、細胞が特定の形態的特徴を有する陽性細胞であるか否かを判定することができる。このため、稀な存在である陽性細胞を判別することが可能となる。
<実施形態3>
 実施形態1及び2では、細胞を観測した結果を表す観測データが細胞の形態情報を含む波形データである例を示したが、実施形態3では、細胞の形態情報を含む観測データが細胞を撮影した撮影画像である例を示す。図15は、実施形態3に係る学習装置200の構成例を示すブロック図である。実施形態3では、学習装置200は、検出部32及び光学系33を備えておらず、流路34を移動する細胞4を撮影する撮影部35を備えている。光源31からの光が細胞4を照明し、細胞4からの光が撮影部35へ入射し、撮影部35は、細胞4を撮影した撮影画像を作成する。例えば、撮影部35は、半導体画像センサを有するカメラである。半導体画像センサは、例えばCMOS(Complementary Metal-Oxide-Semiconductor )イメージセンサ又はCCD(Charge Coupled Device)イメージセンサである。学習装置200は、撮影のための光を細胞4へ導き、光を撮影部35へ効率的に入射させる図示しない光学系を備えていてもよい。撮影部35は、情報処理装置2に接続されている。インタフェース部27は、撮影部35と接続される。インタフェース部27は、撮影部35との間で信号を送受信する。学習装置200のその他の構成は、実施形態1と同様である。
 実施形態3においては、学習装置200は、撮影部35を用いて細胞4の撮影画像を取得することができる。撮影画像は、細胞4の形態的特徴を表す観測データである。実施形態3では、分類モデル242は、撮影画像のデータが入力された場合に細胞4が特定の形態的特徴を有する細胞であるか否かを示す判別情報を出力するように学習される。
 実施形態3においても、情報処理装置2は、実施形態1と同様に、S11~S13の処理を実行する。S11では、情報処理装置2は、波形データの代わりに、撮影画像を取得する。S12では、情報処理装置2は、撮影画像と、撮影画像が第1試料111又は第2試料121のどちらに含まれる細胞から得られたものであるかを示す情報とを含む訓練データを生成する。夫々の撮影画像には、撮影画像が第1試料111又は第2試料121のどちらに含まれる細胞から得られたものであるかを示す情報が関連付けられる。
 S13では、情報処理装置2は、第2試料121に含まれる細胞から得られた撮影画像を分類モデル242へ入力した場合には、細胞が特定の形態的特徴を有している陽性細胞ではないことを示す判別情報が出力されるように、分類モデル242の演算のパラメータを調整する。また、演算部21は、一つの第1試料111に含まれる複数の細胞から得られた撮影画像の中の一部の撮影画像を分類モデル242へ入力した場合には、細胞が陽性細胞であることを示す判別情報が出力され、他の撮影画像を分類モデル242へ入力した場合には、細胞が陽性細胞ではないことを示す判別情報が出力されるように、分類モデル242の演算のパラメータを調整する。以上のように、S11~S13の処理により、分類モデル242が生成される。
 図16は、実施形態3に係る判定装置500の構成例を示すブロック図である。実施形態3では、判定装置500は、検出部62及び光学系63を備えておらず、流路64を移動する細胞4を撮影する撮影部66を備えている。光源61からの光が細胞4を照明し、細胞4からの光が撮影部66へ入射し、撮影部66は、細胞4を撮影した撮影画像を作成する。判定装置500は、撮影のための光を細胞4へ導き、光を撮影部66へ効率的に入射させる図示しない光学系を備えていてもよい。撮影部66は、情報処理装置5に接続されている。インタフェース部57は、撮影部66及びソータ65と接続される。インタフェース部27は、撮影部66及びソータ65との間で信号を送受信する。判定装置500のその他の構成は、実施形態1と同様である。
 実施形態3においては、判定装置500は、撮影部66を用いて細胞4の撮影画像を取得することができる。実施形態3においても、情報処理装置5は、実施形態1と同様に、S21~S26の処理を実行する。S21では、情報処理装置5は、波形データの代わりに、撮影画像を取得する。S22では、情報処理装置5は、細胞4の形態的特徴を表す観測データとして、波形データの代わりに撮影画像を分類モデルへ入力する。S24では、情報処理装置5は、撮影画像及び判定結果を表示部56に表示する。情報処理装置5は、S21~S26の処理を実行することにより、細胞の判別及び分取を行う。
 実施形態3においては、第1試料及び第2試料に含まれる夫々の細胞について取得された撮影画像と撮影画像が第1試料及び第2試料のどちらに含まれる細胞から得られたものであるかを示す情報を含んだ訓練データを用いて、分類モデルを生成することが可能である。分類モデルを利用して、撮影画像に応じた判別情報を取得し、細胞が特定の形態的特徴を有する陽性細胞であるか否かを判定することができる。このため、稀な存在である陽性細胞を判別することが可能となる。
 以上の実施形態1~3においては、第1試料111、第2試料121及び検査用試料131は、人から採取した検体であるとしたが、第1試料111、第2試料121及び検査用試料131は、人以外から採取した検体であってもよい。又は、第1試料111、第2試料121及び検査用試料131は、検体を採取する以外の方法で作成された試料であってもよい。実施形態1~3においては、判定装置500がソータ65を備え、細胞を分取する形態を示した。しかしながら、判定装置500は、ソータ65を備えていない形態であってもよい。この形態では、情報処理装置5はS25及びS26の処理を省略する。実施形態1~3においては、学習装置200と判定装置500とが異なっている形態を示したが、学習装置200と判定装置500との一部又は全部は、共通していてもよい。例えば、情報処理装置2は、情報処理装置5としても用いられてもよい。
 実施形態1~3においては、粒子が細胞である例について説明したが、分類モデル生成方法及び粒子判定方法では、細胞以外の粒子を扱ってもよい。粒子は生体粒子に限らない。例えば、分類モデル生成方法及び粒子分類方法で対象となる粒子は、細菌、酵母若しくはプランクトン等の微生物、生物内の組織、生物内の器官、又はビーズ、花粉若しくは粒子状物質等の微粒子であってもよい。
 本発明は上述した実施の形態の内容に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。即ち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態も本発明の技術的範囲に含まれる。
 11 患者
 111 第1試料
 12 健常人
 121 第2試料
 13 被検査者
 131 検査用試料
 200 学習装置
 500 判定装置
 2,5 情報処理装置
 20、50 記録媒体
 241、541 コンピュータプログラム
 242 分類モデル
 31、61 光源
 32、62 検出部
 33、63 光学系
 331、631 空間光変調デバイス
 34、64 流路
 35、66 撮影部
 4 細胞

Claims (10)

  1.  特定の形態的特徴を有する粒子と他の粒子とが混在した第1試料、及び前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データを取得し、
     前記観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、粒子を観測した結果を表す観測データを入力した場合に前記粒子が前記特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルを生成すること
     を特徴とする分類モデル生成方法。
  2.  前記観測データは、構造化照明により光を照射された粒子から発せられた光の強度の時間変化を表す波形データ、又は、光を照射された粒子からの光を構造化して検出した光の強度の時間変化を表す波形データであること
     を特徴とする請求項1に記載の分類モデル生成方法。
  3.  前記第1試料は、特定の疾患を有する人から採取した検体であり、
     前記第2試料は、前記特定の疾患を有していない人から採取した検体であること
     を特徴とする請求項1又は2に記載の分類モデル生成方法。
  4.  粒子を観測した結果を表す観測データを取得し、
     粒子を観測した結果を表す観測データを入力した場合に前記粒子が特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルへ、取得した前記観測データを入力し、前記分類モデルが出力した判別情報を取得し、
     取得した前記判別情報に基づいて、前記観測データに係る粒子が前記特定の形態的特徴を有する粒子であるか否かの判定を行い、
     前記分類モデルは、前記特定の形態的特徴を有する粒子及び他の粒子が混在した第1試料、並びに前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、学習されていること
     を特徴とする粒子判定方法。
  5.  前記判定が行われた粒子に関する情報を出力すること
     を特徴とする請求項4に記載の粒子判定方法。
  6.  前記観測データの取得の対象となる粒子を、人から採取し、
     粒子を採取された人を識別する識別情報を有するタグを前記粒子に付加し、
     前記観測データに係る粒子が前記特定の形態的特徴を有する粒子である場合に、前記観測データに係る粒子に付加されているタグが有する識別情報に基づいて、前記粒子を採取された人を特定すること
     を特徴とする請求項4又は5に記載の粒子判定方法。
  7.  特定の形態的特徴を有する粒子と他の粒子とが混在した第1試料、及び前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データを取得し、
     前記観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、粒子を観測した結果を表す観測データを入力した場合に前記粒子が前記特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルを生成する
     処理をコンピュータに実行させることを特徴とするコンピュータプログラム。
  8.  粒子を観測した結果を表す観測データを取得し、
     粒子を観測した結果を表す観測データを入力した場合に前記粒子が特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルへ、取得した前記観測データを入力し、前記分類モデルが出力した判別情報を取得し、
     取得した前記判別情報に基づいて、前記観測データに係る粒子が前記特定の形態的特徴を有する粒子であるか否かを判定する
     処理をコンピュータに実行させ、
     前記分類モデルは、前記特定の形態的特徴を有する粒子及び他の粒子が混在した第1試料、並びに前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、学習されていること
     を特徴とするコンピュータプログラム。
  9.  特定の形態的特徴を有する粒子と他の粒子とが混在した第1試料、及び前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データを取得するデータ取得部と、
     前記観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、粒子を観測した結果を表す観測データを入力した場合に前記粒子が前記特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルを生成する分類モデル生成部と
     を備えることを特徴とする情報処理装置。
  10.  粒子を観測した結果を表す観測データを取得する観測部と、
     粒子を観測した結果を表す観測データを入力した場合に前記粒子が特定の形態的特徴を有する粒子であるか否かを示す判別情報を出力する分類モデルへ、取得した前記観測データを入力し、前記分類モデルが出力した判別情報を取得する判別情報取得部と、
     取得した前記判別情報に基づいて、前記観測データに係る粒子が前記特定の形態的特徴を有する粒子であるか否かを判定する判定部とを備え、
     前記分類モデルは、前記特定の形態的特徴を有する粒子及び他の粒子が混在した第1試料、並びに前記特定の形態的特徴を有する粒子を含んでおらず他の粒子からなる第2試料に含まれる夫々の粒子について、当該粒子を観測した結果を表す観測データと、前記観測データが前記第1試料及び前記第2試料のどちらに含まれる粒子から得られたものであるかを示す情報とを含んだ訓練データを用いた学習により、学習されていること
     を特徴とする情報処理装置。
PCT/JP2022/032307 2021-09-17 2022-08-29 分類モデル生成方法、粒子判定方法、コンピュータプログラム及び情報処理装置 WO2023042646A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023548388A JPWO2023042646A1 (ja) 2021-09-17 2022-08-29

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021152462 2021-09-17
JP2021-152462 2021-09-17

Publications (1)

Publication Number Publication Date
WO2023042646A1 true WO2023042646A1 (ja) 2023-03-23

Family

ID=85602161

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/032307 WO2023042646A1 (ja) 2021-09-17 2022-08-29 分類モデル生成方法、粒子判定方法、コンピュータプログラム及び情報処理装置

Country Status (2)

Country Link
JP (1) JPWO2023042646A1 (ja)
WO (1) WO2023042646A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211468A (ja) * 2018-06-01 2019-12-12 株式会社フロンティアファーマ 画像処理方法、薬剤感受性試験方法および画像処理装置
WO2019241443A1 (en) * 2018-06-13 2019-12-19 Thinkcyte Inc. Methods and systems for cytometry
WO2020081819A1 (en) * 2018-10-18 2020-04-23 Thinkcyte Inc. Methods and systems for target screening
WO2020180003A1 (ko) * 2019-03-04 2020-09-10 주식회사 엑소퍼트 엑소좀에 의한 인공지능 기반의 액체생검을 이용한 암 진단 정보 제공 방법 및 시스템
WO2021256514A1 (ja) * 2020-06-17 2021-12-23 大輝 中矢 生体細胞解析装置、生体細胞解析システム、生体細胞解析プログラムおよび生体細胞解析方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211468A (ja) * 2018-06-01 2019-12-12 株式会社フロンティアファーマ 画像処理方法、薬剤感受性試験方法および画像処理装置
WO2019241443A1 (en) * 2018-06-13 2019-12-19 Thinkcyte Inc. Methods and systems for cytometry
WO2020081819A1 (en) * 2018-10-18 2020-04-23 Thinkcyte Inc. Methods and systems for target screening
WO2020180003A1 (ko) * 2019-03-04 2020-09-10 주식회사 엑소퍼트 엑소좀에 의한 인공지능 기반의 액체생검을 이용한 암 진단 정보 제공 방법 및 시스템
WO2021256514A1 (ja) * 2020-06-17 2021-12-23 大輝 中矢 生体細胞解析装置、生体細胞解析システム、生体細胞解析プログラムおよび生体細胞解析方法

Also Published As

Publication number Publication date
JPWO2023042646A1 (ja) 2023-03-23

Similar Documents

Publication Publication Date Title
US11542461B2 (en) Analysis device
CN107250716B (zh) 动态高速高灵敏度成像装置及成像方法
JP4982385B2 (ja) イメージングフローサイトメータを使用した血液及び細胞の分析
JP7176697B2 (ja) 細胞評価システム及び方法、細胞評価プログラム
US8885913B2 (en) Detection of circulating tumor cells using imaging flow cytometry
WO2017082048A1 (ja) 分類器構成方法およびこれを用いた細胞の生死判定方法
JP2015510592A (ja) デジタルホログラフィック顕微鏡を備えるフローサイトメータ
JP6895297B2 (ja) 細胞塊の評価方法及び細胞塊の状態解析装置
WO2023042646A1 (ja) 分類モデル生成方法、粒子判定方法、コンピュータプログラム及び情報処理装置
US20240241031A1 (en) Classification Model Generation Method, Particle Determination Method, and Recording Medium
JP7256125B2 (ja) 細胞分析方法及び装置
WO2023042647A1 (ja) 分類モデル生成方法、粒子分類方法、コンピュータプログラム、及び情報処理装置
WO2023282026A1 (ja) データ生成方法、学習済みモデル生成方法、学習済みモデル、粒子分類方法、コンピュータプログラム及び情報処理装置
JP2022535798A (ja) ハイパースペクトル定量的イメージング・サイトメトリ・システム
WO2023199919A1 (ja) フローサイトメータ、判別方法、及びプログラム
Grimes Image processing and analysis methods in quantitative endothelial cell biology
WO2023276298A1 (ja) 生体試料分析システム、情報処理装置、情報処理方法及び生体試料分析方法
US20220349803A1 (en) Method and apparatus for particle detection in turbid or clear medium
JP3107740B2 (ja) 物体識別装置
CN107407639A (zh) 用于检查用于移植的材料的装置和方法
JP2022135652A (ja) 被検物質の分析方法、分析装置、訓練方法、分析システム、及び分析プログラム
Backová Segmentation of Multi-Dimensional Multi-Parametric Microscopic Data of Biological Samples Using Convolutional Neural Networks
Robison Imaging White Blood Cells using a Snapshot Hyper-Spectral Imaging System
Tazik Classification Of Natural Phytoplankton Populations With Fluorescence Excitation-Based Imaging Multivariate Optical Computing
O'Brien III Intelligent vision system for the detection of protozoa on microscope slides

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22869793

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023548388

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE