WO2023135650A1 - プログラム、スクリーニング方法、至適濃度の特定方法、薬剤製造方法、モデル生成方法、情報処理方法、及び情報処理装置 - Google Patents

プログラム、スクリーニング方法、至適濃度の特定方法、薬剤製造方法、モデル生成方法、情報処理方法、及び情報処理装置 Download PDF

Info

Publication number
WO2023135650A1
WO2023135650A1 PCT/JP2022/000581 JP2022000581W WO2023135650A1 WO 2023135650 A1 WO2023135650 A1 WO 2023135650A1 JP 2022000581 W JP2022000581 W JP 2022000581W WO 2023135650 A1 WO2023135650 A1 WO 2023135650A1
Authority
WO
WIPO (PCT)
Prior art keywords
cells
image
senescence
cell
degree
Prior art date
Application number
PCT/JP2022/000581
Other languages
English (en)
French (fr)
Inventor
大 楠本
Original Assignee
Heartseed株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heartseed株式会社 filed Critical Heartseed株式会社
Priority to PCT/JP2022/000581 priority Critical patent/WO2023135650A1/ja
Publication of WO2023135650A1 publication Critical patent/WO2023135650A1/ja

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • C12M1/34Measuring or testing with condition measuring or sensing means, e.g. colony counters
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12QMEASURING OR TESTING PROCESSES INVOLVING ENZYMES, NUCLEIC ACIDS OR MICROORGANISMS; COMPOSITIONS OR TEST PAPERS THEREFOR; PROCESSES OF PREPARING SUCH COMPOSITIONS; CONDITION-RESPONSIVE CONTROL IN MICROBIOLOGICAL OR ENZYMOLOGICAL PROCESSES
    • C12Q1/00Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions
    • C12Q1/02Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions involving viable microorganisms
    • C12Q1/04Determining presence or kind of microorganism; Use of selective media for testing antibiotics or bacteriocides; Compositions containing a chemical indicator therefor
    • C12Q1/06Quantitative determination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/15Medicinal preparations ; Physical properties thereof, e.g. dissolubility
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Definitions

  • the present invention relates to a program, a screening method, an optimum concentration identifying method, a drug manufacturing method, a model generating method, an information processing method, and an information processing apparatus.
  • Patent Document 1 as a method for detecting vascular aging, the degree of progression of vascular aging in a subject is evaluated by measuring the expression level of a biomarker for predicting vascular aging contained in a biological sample collected from the subject. Techniques for determining the presence or absence of age-related diseases such as arteriosclerotic diseases in subjects have been disclosed. In addition, Non-Patent Document 1 discloses a technique capable of classifying and predicting them by deep learning using convolutional neural network analysis using immunostained spinal motor neuron images of healthy subjects and ALS patients. .
  • Non-Patent Document 1 can only distinguish between healthy subjects and ALS patients, and there is no mention of numerical values indicating the state of cells that are changing, such as the progression of ALS disease. It has not been.
  • the present invention has been made in view of such circumstances, and its object is to provide a program or the like that can accurately determine the state of cells while reducing the processing burden on the examiner. to do.
  • a program acquires an image of a cell, and a learning model that is trained to output aging information of the cell in the image when the image of the cell is input.
  • a computer is caused to execute a process of inputting an image and outputting the degree of senescence of the cells.
  • the state of cells can be accurately determined while reducing the processing burden on the examiner.
  • FIG. 4 is an explanatory diagram showing a configuration example of a learning model
  • FIG. 4 is an explanatory diagram showing an example of a cell image
  • It is a chart which shows distribution of aging information according to stress intensity.
  • 2 is a chart showing the relationship between stress intensity and degree of aging.
  • 4 is a flowchart showing an example of a training data generation processing procedure
  • FIG. 11 is a flowchart showing an example of a learning model generation processing procedure
  • FIG. 4 is a flow chart showing an example of an aging degree calculation processing procedure
  • FIG. 5 is an explanatory diagram showing an example of a screen
  • 10 is a flow chart showing an example of a processing procedure for calculating the degree of aging according to the second embodiment
  • FIG. 10 is a flowchart showing an example of a drug screening process procedure
  • FIG. 5 is an explanatory diagram showing an example of a screen
  • 4 is a flow chart showing an example of a procedure for determining the optimum concentration of a drug
  • FIG. 5 is an explanatory diagram showing an example of a screen
  • It is a flowchart which shows an example of the manufacturing processing procedure of a chemical
  • vascular endothelial cells are used as cells to be evaluated, and the process of outputting the degree of aging indicating the degree of aging of the cells from the image of the cells will be described.
  • the cells to be evaluated are limited to vascular endothelial cells.
  • other cells such as mesenchymal cells, fibroblasts, nerve cells, smooth muscle cells, and blood cells may also be used.
  • the cells to be evaluated may be any cells as long as their appearance changes due to aging. Including cells known to
  • the appearance of a cell can be any shape, size, color, cytoplasmic structure, cell nucleus structure, cell nucleus shape, adhesion structure with surrounding cells, etc., as long as the learning model described later can recognize the change. Anything is fine.
  • cell senescence means that cells stop dividing and become unable to proliferate, or that the stop of cell division becomes irreversible. is induced by destabilization of
  • FIG. 1 is a block diagram showing a configuration example of an information processing device.
  • the information processing device 10 is a device capable of various types of information processing and transmission/reception of information, such as a server computer, a personal computer, and a workstation.
  • the information processing apparatus 10 is installed and used in a medical institution, an inspection institution, a research institution, or the like.
  • a plurality of information processing apparatuses 10 may be provided to perform distributed processing, or may be realized by a plurality of virtual machines virtually constructed in one apparatus.
  • the information processing device 10 may be a local server installed in a medical institution or the like, or may be a cloud server connected for communication via a network such as the Internet. good.
  • the information processing device 10 outputs the degree of aging indicating the degree of aging of the cell based on the image of the cell to be evaluated, such as the vascular endothelial cell. Specifically, as will be described later, the information processing apparatus 10 performs machine learning for learning predetermined training data, receives an image of a cell as an input, and outputs aging information of the cell as a learning model 12M (see FIG. 2). be prepared. Then, the information processing apparatus 10 inputs the image of the cells to be evaluated to the learning model 12M, and acquires aging information of the cells in the input image from the learning model 12M.
  • the learning model 12M that performs image recognition is used to acquire cell aging information predicted from cell morphology and the like. Further, the information processing apparatus 10 outputs the degree of senescence of the evaluation target cell from the cell aging information included in the evaluation target cell image acquired using the learning model 12M.
  • the information processing device 10 includes a control section 11, a storage section 12, a communication section 13, an input section 14, a display section 15, a reading section 16, etc., and these sections are interconnected via a bus.
  • the control unit 11 has one or more processors such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), a GPU (Graphics Processing Unit), or an AI chip (semiconductor for AI).
  • the control unit 11 appropriately executes a program 12P stored in the storage unit 12 to perform various information processing and control processing that the information processing apparatus 10 should perform.
  • the storage unit 12 includes RAM (Random Access Memory), flash memory, hard disk, SSD (Solid State Drive), and the like.
  • the storage unit 12 stores in advance a program 12P (program product) executed by the control unit 11 and various data necessary for executing the program 12P.
  • the storage unit 12 also temporarily stores data and the like generated when the control unit 11 executes the program 12P.
  • the program 12P may be written into the storage unit 12 during the manufacturing stage of the information processing device 10 .
  • the storage unit 12 also stores a learning model 12M, which will be described later.
  • the learning model 12M is a learning model that has learned to output aging information of a cell when an image of the cell is input.
  • the learning model 12M may be an unlearned model or a trained model. In the case of an unlearned model, the learned learning model 12M can be obtained by performing a learning process to be described later. .
  • the learning model 12M is assumed to be used as a program module that constitutes artificial intelligence software.
  • the storage unit 12 stores, as information defining the learning model 12M, information on layers included in the learning model 12M, information on nodes constituting each layer, weights (coupling coefficients) between nodes, and the like.
  • the storage unit 12 also stores a cell image DB 12a and a training DB 12b.
  • the cell image DB 12a stores images of cells photographed using a microscope. The images include photographed images of cells to be evaluated and photographed model cells prepared for learning of the learning model 12M. contains images that have been
  • the training DB 12b stores training data used in the learning process of the learning model 12M, and the training data is stored in the training DB 12b when the information processing apparatus 10 performs a training data generation process described later.
  • the learning model 12M, the cell image DB 12a, and the training DB 12b may be stored in another storage device connected to the information processing device 10, or may be stored in another storage device with which the information processing device 10 can communicate. good.
  • the communication unit 13 is a communication module for connecting to a network N such as the Internet or a LAN (Local Area Network) by wired communication or wireless communication. conduct.
  • the input unit 14 receives an operation input by the user and sends a control signal corresponding to the content of the operation to the control unit 11 .
  • the display unit 15 is a liquid crystal display, an organic EL display, or the like, and displays various information according to instructions from the control unit 11 .
  • the input unit 14 and the display unit 15 may be a touch panel integrally configured. Note that the input unit 14 and the display unit 15 are not essential, and the information processing apparatus 10 may be configured to accept operations through a connected terminal device and output information to be displayed to an external display device.
  • the reading unit 16 reads information stored in a portable storage medium 10a including CD (Compact Disc)-ROM, DVD (Digital Versatile Disc)-ROM, USB (Universal Serial Bus) memory, SD (Secure Digital) card, etc. read.
  • the program 12P (program product) and various data stored in the storage unit 12 may be read from the portable storage medium 10a by the control unit 11 via the reading unit 16 and stored in the storage unit 12 .
  • the program 12P and various data stored in the storage unit 12 may be distributed by a remote server device, downloaded by the control unit 11 via the communication unit 13, and stored in the storage unit 12.
  • FIG. 2 is an explanatory diagram showing a configuration example of the learning model 12M.
  • the learning model 12M receives an image of a cell (sometimes referred to as a “cell image” in this specification) as an input, and based on the input image, performs calculations for indicating aging information of cells in the image. It is a model that performs calculations and outputs the results (aging information).
  • the learning model 12M is configured using, for example, a CNN (Convolutional Neural Network), which is a convolutional neural network generated by deep learning. Note that the learning model 12M may be configured using an algorithm such as SVM (Support Vector Machine), random forest, logistic regression, Transformer, etc., in addition to CNN.
  • SVM Serial Vector Machine
  • the learning model 12M is a variety of R-CNN (Region-based CNN), Fast R-CNN, Faster R-CNN, Mask R-CNN, SSD (Single Shot Multibook Detector), YOLO (You Only Look Once), etc. may be configured using the object detection algorithm and the object classification algorithm, or may be configured by combining a plurality of algorithms.
  • R-CNN Regular-based CNN
  • Fast R-CNN Faster R-CNN
  • Mask R-CNN Mask R-CNN
  • SSD Single Shot Multibook Detector
  • YOLO You Only Look Once
  • the learning model 12M has an input layer, an intermediate layer and an output layer.
  • An image to be processed (cell image) is input to the input layer.
  • the hidden layer has a convolutional layer, a pooling layer and a fully connected layer.
  • An image input to the intermediate layer through the input layer is filtered in the convolution layer to extract the feature amount of the image and generate a feature map.
  • the generated feature map is compressed in the pooling layer.
  • a plurality of convolution layers and pooling layers are repeatedly provided, and the feature maps generated by the plurality of convolution layers and pooling layers are output to the fully connected layer. Multiple fully connected layers are provided.
  • the output value of each layer node is calculated using various functions and thresholds, etc., and the calculated output value is sequentially applied to the nodes of the subsequent layers to enter.
  • the fully-connected layer sequentially inputs the output values of the nodes of each layer to the nodes of the subsequent layers, thereby finally outputting the output values to the subsequent output layers.
  • the output layer consists of, for example, a softmax function.
  • the output layer receives the output value from the fully connected layer as an input (argument), calculates the output value using a predetermined function, and outputs the calculated output value from each output node.
  • the discrimination probability to classify the cells in the input image as low-senescent cells and high-aging
  • the output layer of the learning model 12M has two output nodes as shown in FIG. In the example shown in FIG.
  • the output node 0 outputs the discrimination probability for classifying the cells in the input screen as low senescent cells (hereinafter sometimes referred to as “low senescent cell discrimination probability”).
  • an output node 1 outputs a discrimination probability to be classified as highly senescent cells (hereinafter sometimes referred to as “highly senescent cell discrimination probability”).
  • each of the two output nodes outputs an output value between 0 and 1.0, and the sum of the output values (discrimination probability) output from the two output nodes is 1.0 (100%).
  • the learning model 12M outputs cell aging information in the image when the cell image is input.
  • the information processing apparatus 10 of the present embodiment can use the output value (discrimination probability of low-senescent cells) from the output node 0 as aging information of cells in the input image, and the output node
  • the output value from 1 probability of discrimination of highly senescent cells
  • a numerical value that is clearly noise is calculated, it is preferable to include a step of excluding it from analysis.
  • the low-senescent cells used as training data images are cells in which senescence has been induced to about the lower limit of the degree of senescence to be detected using the information processing device 10 in the evaluation target cells, and cells in a completely healthy state are cells. (See upper side of FIG. 3).
  • highly senescent cells are cells in which senescence is induced to about the upper limit of the degree of senescence to be detected using the information processing apparatus 10 in the cells to be evaluated (see the lower side of FIG. 3).
  • the upper part of FIG. 2 shows an example of output values from the learning model 12M when an image of a cell (evaluation target cell A) whose senescence has not progressed as an evaluation target cell is input.
  • the output node An output value of 0 to 0.95 is output, and an output value of 0.05 is output from output node 1 .
  • the information processing apparatus 10 can determine, for example, the output value 0.05 from the output node 1 as the aging information for the cells in the input image.
  • the lower part of FIG. 2 shows an example of the output value from the learning model 12M when an image of a cell (evaluation target cell B) that has undergone senescence is input as the evaluation target cell.
  • An output value of 0.05 is output from the output node 0, and an output value of 0.95 is output from the output node 1.
  • the information processing apparatus 10 can determine the output value 0.95 from the output node 1 as the aging information for the cells in the input image.
  • the learning model 12M performs machine learning using training data including training cell images (sometimes referred to herein as “model cells”) and aging information (correct labels) for cells in the cell images. generated by As described above, when the model cells are low senescent cells and high senescent cells, the training data indicates whether the model cells in the cell image are low senescent cells or high senescent cells. Information (label), specifically, a “low senescence” label indicating low senescence cells or a “high senescence” label indicating high senescence cells are added and generated.
  • the model cells used for training cell images are not particularly limited as long as they have the same morphological changes due to aging as the evaluation target cells whose degree of aging is evaluated by the information processing device 10.
  • Homogeneous cells for example, in the case of vascular endothelial cells, refer to cells with different origins. Specifically, allogeneic cells include umbilical vein-derived vascular endothelial cells and aortic vessel-derived endothelial cells. Specific examples of cells that have the same morphological changes due to aging as the cells to be evaluated include vascular endothelial cells, mesenchymal cells, fibroblasts, and the like. Moreover, the conditions for culturing the model cells are not limited.
  • the degree of senescence is the range in which the senescence degree of the cells to be evaluated is to be confirmed by the method of the present invention, for example, the senescence degree of the cells to be evaluated is in the range of 0 to 5.
  • it is preferable to create a learning model by assuming low senescent cells as cells with a senescence degree of 0 and highly senescent cells as cells with a senescence degree of 5.
  • model cell images stored in the cell image DB 12a are used as cell images for training.
  • the training data consists of 100 to 10 million model cell images, preferably tens of thousands or more, and labels attached thereto, thereby increasing the accuracy of the output value of the learning model 12M.
  • the model cell image was obtained by dividing an image of a wide field of view containing several thousand cells under a microscope into regions containing one to several cells. , respectively for training cell images, model cell images can be efficiently acquired.
  • FIG. 3 is an explanatory diagram showing an example of a cell image. As shown in FIG. 3, a large number of model cell images can be obtained from microscopic images obtained by photographing thousands of cells under a microscope. In addition, in FIG. 3, the microscopic image and the cell image are shown at different magnifications.
  • Model cells are preferably prepared by, for example, applying stress to cells using a stressor known to induce senescence.
  • stressors and stresses imposed thereby include, for example, passage stress, oxidative stress due to the addition of hydrogen peroxide solution (H 2 O 2 ), stress due to the addition of anticancer agents such as camptothecin (CPT), and radiation.
  • Radiation stress due to irradiation of , carcinogenic stress due to introduction of oncogenes, etc. can be mentioned.
  • low-senescent cells may be cells that are not under such stress and are not senescent.
  • the degree of senescence induction by the stressor is confirmed in advance for the model cells, and cells with the lower limit of the senescence degree to be evaluated and cells with the upper limit of the senescence degree to be evaluated in the cells to be evaluated by the method of the present invention are selected. Each is induced by a stressor and produced.
  • training data can be not only two types of highly senescent cells and low senescent cells, but also three or more types of senescent cells with an intermediate degree of senescence.
  • Such model cell images are stored in the cell image DB 12a by assigning labels of low senescence or high senescence to images each containing one to a plurality of cells.
  • model cell images are obtained by independently applying stress by a stressor two or more times to prepare model cells separately, and making the learning model 12M learn by using the images obtained by taking each separately as training data. increases the accuracy of the learning model 12M.
  • Model cell images are preferably learned using cell images cultured and photographed at different institutions or facilities. It is possible to further improve the accuracy of the model 12M.
  • the learning model 12M in this embodiment, when a cell image for training is input, the output value from the output node corresponding to the correct label approaches 1.0, and the output value from the other output node approaches 0. .0 is learned.
  • the learning model 12M performs computation in the intermediate layer based on the input cell image, and calculates the output value from each output node. Then, the learning model 12M compares the calculated output value of each output node with a value corresponding to the correct label (1 for the output node corresponding to the correct label and 0 for the other output node),
  • the parameters used for arithmetic processing in the intermediate layer are optimized so that both approximate each other.
  • the parameters are weights (coupling coefficients) between nodes in the intermediate layer.
  • the parameter optimization method is not particularly limited, but error backpropagation, steepest descent method, or the like can be used.
  • error backpropagation steepest descent method, or the like.
  • the learning of the learning model 12M may be performed by another learning device.
  • a learned learning model 12M generated by learning in another learning device is downloaded from the learning device to the information processing device 10 via, for example, the network N or the portable storage medium 10a, and stored in the storage unit 12. be.
  • the learning model 12M is not limited to the configuration shown in FIG.
  • the output value from the output node may be any information as long as it is aging information determined from differences in cell shape.
  • the learning model 12M may be configured to output aging information according to the size of cells in the input image or aging information according to the degree of complexity of the cell image.
  • FIG. 4 is a chart showing the distribution of senescence information, here, the discrimination probability of highly senescent cells, according to the stress intensity applied to the cells to be evaluated.
  • FIG. 4 shows a graph of cells in each image output by the learning model 12M when a plurality of images of cells to be evaluated stress-loaded with a hydrogen peroxide solution having a concentration of 0 to 0.25 mM are input to the learning model 12M.
  • FIG. 5 is a chart showing the relationship between the stress intensity applied to the cells to be evaluated and the degree of aging output by the information processing apparatus 10 for each cell to be evaluated by a method described later.
  • the upper part of FIG. 5 shows the experimental results when aging was induced by hydrogen peroxide water.
  • 4 shows the average value of aging information output by the learning model 12M for a plurality of input images).
  • the thin lines in the graph shown in the upper part of FIG. 5 represent a plurality of aging information obtained from the learning model 12M by preparing the cells to be evaluated separately three times, obtaining a plurality of cell images for each, and using the images as input images.
  • the thick line indicates the average value of three results.
  • the middle part of FIG. 5 shows the experimental results when senescence was induced by CPT. is the average value of the aging information output by the learning model 12M).
  • the thin line in the graph shown in the middle of FIG. 5 also prepares the cells to be evaluated separately three times, acquires a plurality of cell images for each, and uses the images as input images to obtain a plurality of aging information from the learning model 12M.
  • the thick line indicates the average value of three results.
  • the stress intensity concentration of CPT
  • the lower part of FIG. 5 shows the experimental results when passage stress was applied. shows the average value of aging information output by ).
  • the cells to be evaluated are prepared once, a plurality of images are acquired, and the average value of a plurality of aging information obtained from the learning model 12M using the image as an input image. show.
  • the passage number and the degree of senescence of the cells showed a high linear correlation.
  • the degree of senescence showed a high linear correlation with the stress intensity applied to the cells to be evaluated for any of oxidative stress, anticancer drug stress, and passage stress.
  • the present inventor uses the average value of individual aging information output by the learning model 12M for a plurality of evaluation target cell images as the degree of senescence of the cells in the evaluation target cell image. It has been found that the degree of can be scored quantitatively. Therefore, in the present embodiment, the average value of aging information output by the learning model 12M for a plurality of evaluation target cell images is used as the degree of aging of cells in the image.
  • the average value calculated in the above method is, for example, a calculated value (aging degree: senescence score) according to the following equation 2 when the learning model 12M uses the softmax function shown in the following equation 1 as aging information. is output from the information processing apparatus 10 as.
  • the average value of aging information when calculating the degree of aging may be a numerical value calculated as a numerical value according to the average value.
  • a representative value of senescence information of each cell to be evaluated such as a median value of senescence information, may be used as the degree of senescence of the cells to be evaluated.
  • aging information of the evaluation target cell in each image determined based on a plurality of evaluation target cell images may be the degree of senescence of the cells to be evaluated, and when 5 or more cells to be evaluated are included in one cell image to be evaluated, the image determined based on the cell image to be evaluated.
  • the senescence information of the cells inside may be used as the degree of senescence of the cells to be evaluated as it is.
  • FIG. 6 is a flowchart showing an example of a training data generation processing procedure.
  • the following processing is executed by the control unit 11 of the information processing device 10 according to the program 12P stored in the storage unit 12, but may be executed by another learning device.
  • images of model cells used for training data are accumulated in the cell image DB 12a.
  • the control unit 11 of the information processing device 10 reads one model cell image for training data stored in the cell image DB 12a (S11).
  • the control unit 11 acquires the label from the cell image DB 12a (S12).
  • the control unit 11 may display the read model cell image on the display unit 15 and receive an input of a label such as low aging or high aging for the image by operation input via the input unit 14 .
  • the control unit 11 converts the microscopic images containing hundreds to thousands of model cells stored in the cell image DB 12a into an area in which one image includes one to several cells.
  • a step of dividing and acquiring this image as a model cell image may be included.
  • the image may be divided into cell images by determining the imaging region of each cell in the microscope image by pattern matching using a template generated from the cell imaging image, for example.
  • the control unit 11 may also generate a model cell image by specifying the size of the cell image based on the size and resolution of the microscopic image and the size of the cell, and dividing the microscopic image by the specified size. good.
  • One cell image does not have to be an image containing only one cell, and there is no particular limit as long as the learning model 12M can output aging information based on the input image.
  • An image containing about 10 cells may be used.
  • the image may be an image in which some cells are partially missing.
  • the control unit 11 assigns the label (low aging, high aging, etc.) acquired in step S12 to the model cell image read in step S11 to generate training data (S13), and stores the generated training data in the training DB 12b. Store (S14). This accumulates training data in which correct labels such as low aging or high aging are attached to model cell images.
  • the control unit 11 determines whether there is an image (unprocessed model cell image) for which the above-described training data generation processing has not been performed, among the model cell images for training data stored in the cell image DB 12a. (S15). When determining that there is an unprocessed model cell image (S15: YES), the control unit 11 returns to the process of step S11 and performs the processes of steps S11 to S14 on the unprocessed model cell image.
  • the control unit 11 repeats the processing of steps S11 to S14 until it determines that there is no unprocessed model cell image.
  • training data used for learning the learning model 12M can be generated and accumulated.
  • the model cell images used for generating the training data are stored in the cell image DB 12a.
  • An image may be acquired via the network N, for example.
  • FIG. 7 is a flow chart showing an example of a processing procedure for generating the learning model 12M.
  • the following processing is executed by the control unit 11 of the information processing device 10 according to the program 12P stored in the storage unit 12, but may be executed by another learning device. Also, the training data generation process shown in FIG. 6 and the learning model 12M generation process shown in FIG. 7 may be performed by separate devices.
  • the control unit 11 of the information processing device 10 acquires one piece of training data from the training DB 12b (S21). Specifically, the control unit 11 reads out one model cell image to which the correct label is assigned, which is stored in the training DB 12b.
  • a correct label is cell senescence information in a model cell image, specifically a low senescence label or a high senescence label.
  • the control unit 11 inputs the model cell image included in the read training data to the learning model 12M (S22), and acquires the output value output from the learning model 12M by inputting the model cell image.
  • the learning model 12M performs an operation based on the input model cell image, and calculates an output value from each output node.
  • the control unit 11 sets the output value of each output node output from the learning model 12M and the value corresponding to the correct label included in the training data (1 for the output node corresponding to the correct label, 0) is compared, and the learning process of the learning model 12M is performed so that both are approximated (S23).
  • the learning model 12M optimizes parameters used for arithmetic processing in the intermediate layer. For example, the control unit 11 optimizes parameters such as weights (coupling coefficients) between nodes in the intermediate layer using error backpropagation that sequentially updates from the output layer to the input layer of the learning model 12M.
  • the control unit 11 determines whether or not there is unprocessed training data for which learning processing has not been performed among the training data stored in the training DB 12b (S24). If it is determined that there is unprocessed training data (S24: YES), the control unit 11 returns to the processing of step S21, and performs the processing of steps S21 to S23 for the training data that has not been learned. If it is determined that there is no unprocessed training data (S24: NO), the control unit 11 terminates the series of processes.
  • the learning process of the learning model 12M is desirably performed using 100 to 10 million, preferably tens of thousands of model cell images.
  • the possibility that the cells in the image are low senescent cells (output value from output node 0) and the possibility that they are highly senescent cells (output node 1) and a learning model 12M is generated.
  • the output value (possibility of highly senescent cells) from the output node 1 of the learning model 12M is used as aging information indicating the degree of senescence of the cells in the input cell image.
  • An output value from output node 0 may be used.
  • the learning model 12M can be further optimized. Also, the learning model 12M that has already been trained can be re-learned by performing the above-described learning process, and in this case, the learning model 12M with higher discrimination accuracy can be generated.
  • FIG. 8 is a flowchart showing an example of an aging degree calculation processing procedure
  • FIG. 9 is an explanatory diagram showing an example of a screen. The following processing is executed by the control unit 11 of the information processing apparatus 10 according to the program 12P stored in the storage unit 12.
  • the control unit 11 (acquisition unit) of the information processing device 10 acquires an image of the cells to be evaluated (S31).
  • a plurality of (approximately 100 to 10 million, preferably tens of thousands of) cell images to be evaluated are obtained.
  • a plurality of evaluation target cell images refers to a plurality of images containing one to several cells in a cell group obtained from the same source. Specifically, for example, it is a plurality of images containing one to several cells in a group of cells cultured under the same culture conditions. Images of cells to be evaluated are stored in the cell image DB 12a for each cell to be evaluated.
  • the control unit 11 may acquire, from the microscope, images of cells to be evaluated that are sequentially captured by the microscope. Further, when the information processing apparatus 10 can access an electronic medical chart system, the control unit 11 may acquire an evaluation target cell image registered in the electronic medical chart. Further, when the evaluation target cell image is stored in the portable storage medium 10a, the control unit 11 may read the image from the portable storage medium 10a by the reading unit 16. FIG.
  • the control unit 11 extracts one evaluation target cell image from a plurality of evaluation target cell images (S32). Note that it is preferable that the number of cells included in the image is approximately the same between the evaluation target cell image that is the processing target of the processing shown in FIG. 8 and the model cell image that is the processing target of the processing shown in FIG. .
  • the model cell image for training data is an image containing one cell
  • the evaluation target cell image is also preferably an image containing one cell.
  • the control unit 11 Based on one evaluation target cell image, the control unit 11 outputs aging information for the evaluation target cell in the image (S33). Specifically, the control unit 11 inputs the evaluation target cell image extracted in step S32 to the learning model 12M, and based on the output value from the learning model 12M, the cell aging information in the evaluation target cell image. get. In the present embodiment, the control unit 11 determines the output value (discrimination probability of highly senescent cells) from the output node 1 of the learning model 12M as the aging information of the evaluation target cell, but the output value from the output node 0 (Probability of discriminating low senescent cells) may be used as aging information.
  • the output value discrimination probability of highly senescent cells
  • the control unit 11 stores the aging information of the evaluation target cell calculated based on the evaluation target cell image in the storage unit 12 (S34).
  • the control unit 11 repeats the processing of steps S33 and S34 for all the evaluation target cell images acquired in step S31, and for the plurality of evaluation target cell images recorded in the cell image DB 12a, the cells in each image. Collect aging information.
  • the control unit 11 determines whether or not there is an unprocessed image for which aging information output processing has not been performed, among the multiple evaluation target cell images acquired in step S31 (S35). If it is determined that there is an unprocessed image (S35: YES), the control unit 11 returns to the process of step S32, and performs the processes of steps S32 to S34 on the unprocessed evaluation target cell image. When it is determined that there is no unprocessed image (S35: NO), the control unit 11 calculates the average value of the aging information of each evaluation target cell stored in the storage unit 12 in step S34 (S36).
  • the control unit 11 outputs the calculated average value of the cell aging information in each evaluation target cell image as the degree of aging of the evaluation target cell (S37). For example, as shown in FIG. 9, the control unit 11 displays on the display unit 15 a result screen displaying the ID of the evaluation target cell, the cell image if necessary, and the calculated degree of senescence. The user (inspector) is notified of the degree of aging of the Since the degree of senescence is a numerical value that can quantitatively express the degree of aging, the degree of senescence of the cells to be evaluated can be easily evaluated by the degree of senescence.
  • control unit 11 associates the evaluation target cell image extracted in step S32 with the cell aging information in each evaluation target cell image output in step S33, and displays the result screen.
  • the user can comprehend senescence information of the cells in each image of the cells to be evaluated.
  • Grad-CAM Gradient weighted Class Activation Mapping
  • a heatmap generated using the application may be displayed on the results screen.
  • control unit 11 repeats the above-described process when receiving an instruction to execute the next calculation process of the degree of senescence of the evaluation target cell, and when receiving an instruction to end the process, performs a series of operations. end the processing of
  • the degree of senescence that quantitatively expresses the degree of senescence of vascular endothelial cells is presented. It is also possible to accurately evaluate the degree of aging of the examiner's blood vessels. Since blood vessels play an important role in maintaining the homeostasis of each organ, vascular aging leads to organ damage. For example, arteriosclerosis causes stroke, heart disease, etc., or causes age-related diseases such as heart failure and dementia. By being able to accurately evaluate the degree of vascular aging, it is possible to appropriately predict the risk or progress of age-related diseases.
  • age-related diseases such as pulmonary fibrosis, heart failure, dementia, chronic kidney disease (CKD), and sarcopenia, which are thought to be caused by cell aging.
  • CKD chronic kidney disease
  • sarcopenia sarcopenia
  • the learning model 12M automatically extracts the morphological features of the cells from the cell images and scores the degree of aging of the cells to be evaluated. Therefore, the examiner photographs the cells to be evaluated under a microscope. , the inspection process can be simplified, and the processing burden on the inspector can be reduced. In addition, only two types of model cells, low-senescent cells and high-senescent cells, are used as training data, and the degree of senescence can be determined between them, which greatly reduces the labor required to produce training data. Furthermore, the processing time required for the learning model 12M to determine the cell morphology (low senescent cells and high senescent cells) from one input image is about 100 ⁇ s, and high-speed processing is possible, shortening the inspection time. is possible.
  • cells to be evaluated may be other cells such as fibroblasts, mesenchymal cells, nerve cells, smooth muscle cells, and blood cells.
  • the degree of senescence can be determined by similar treatment.
  • the processing for generating training data, the processing for learning the learning model 12M using the training data, and the processing for determining cell aging information using the learning model 12M are not limited to the configuration performed locally by the information processing apparatus 10. .
  • an information processing device that executes each process described above may be provided.
  • a server may be provided that executes training data generation processing and learning processing for the learning model 12M.
  • the information processing apparatus 10 transmits model cell images to be used for training data to the server, and the server generates training data using the model cell images, and learns by learning processing using the generated training data. It is configured to generate the model 12M and transmit it to the information processing device 10 .
  • the information processing apparatus 10 can implement aging degree determination processing using the learning model 12M acquired from the server. Further, a server may be provided that executes aging degree determination processing using the learning model 12M. In this case, the information processing apparatus 10 is configured to transmit the evaluation target cell image to the server, and the aging information calculated by performing the determination process using the learning model 12M in the server is transmitted to the information processing apparatus 10. be done. Even with such a configuration, the same processing as in the present embodiment described above is possible, and the same effects can be obtained.
  • the input evaluation target cell image is classified and discriminated from the output value of the learning model 12M (in the above embodiment, it is discriminated whether it is a low senescent cell or a high senescent cell), and the result is As aging information, the ratio of the total number of evaluation target cell images belonging to one of the discriminated classifications (in the above embodiment, the evaluation target cell image that is discriminated as highly senescent cells, or the evaluation that is discriminated as low senescent cells).
  • the information processing apparatus of this embodiment has the same configuration as the information processing apparatus 10 of Embodiment 1, description of the configuration will be omitted.
  • the learning model 12M has the same configuration as the learning model 12M of the first embodiment shown in FIG.
  • Cells in the input evaluation target cell image are discriminated in the state (low aging or high aging) associated with the output node that outputs the one output value.
  • the output value from output node 0 is greater than the output value from output node 1, so the information processing apparatus 10 determines that the cells to be evaluated in the input image are low-senescent cells.
  • the output value from output node 1 is greater than the output value from output node 0, so the information processing apparatus 10 determines that the cells to be evaluated in the input image are highly senescent cells. .
  • the learning model 12M of the present embodiment has two output nodes that output the discrimination probability for low-senescent cells and the discrimination probability for high-senescent cells, instead of outputting the aging state (low aging or high aging) with the larger discrimination probability.
  • a configuration having one output node for outputting information to be indicated may be employed.
  • the degree of senescence of the cells to be evaluated is determined by using the ratio of highly senescent cells determined to be highly senescent cells in a plurality of input images of cells to be evaluated as the degree of senescence of the cells to be evaluated. Can be scored quantitatively.
  • the process of generating training data from model cell images and the process of learning the learning model 12M using the training data are the same as in the first embodiment.
  • the control unit 11 of the information processing apparatus 10 can execute processing similar to the training data generation processing shown in FIG. It is executable.
  • the learning model 12M as shown in FIG. 2 is generated also in this embodiment.
  • FIG. 10 is a flowchart showing an example of the processing procedure for calculating the degree of aging according to the second embodiment.
  • the process shown in FIG. 10 is obtained by adding steps S41 and S42 in place of steps S33 and S34 and step S43 in place of step S36 in the process shown in FIG. Description of the same steps as in FIG. 8 will be omitted.
  • the control unit 11 of the information processing apparatus 10 of this embodiment performs the same processing as steps S31 to S32 in FIG.
  • the control unit 11 classifies and discriminates the input evaluation target cell image from the output value of the learning model 12M, and outputs the classification result as aging information (S41). Specifically, the control unit 11 identifies the larger output value among the output values from the learning model 12M, and determines the aging state (low aging state) associated with the output node that outputs the larger output value. or high senescence) is output as the senescence information of the evaluation target cell here.
  • the control unit 11 counts the number of evaluation target cell images belonging to each classification based on the aging information that is the discrimination result of the input multiple evaluation target cell images (S42). Specifically, in step S41, when the aging information of the evaluation target cell image is low senescent cells, the control unit 11 adds 1 to the discriminated number of low senescent cells, and in step S41, the evaluation target cell image. When the aging information is highly senescent cells, 1 is added to the discriminated number of highly senescent cells. The control unit 11 stores the counted number of evaluation target cell images belonging to each classification in the storage unit 12 . The control unit 11 repeats the processing of steps S41 to S42 for all input evaluation target cell images, and collects aging information of the evaluation target cell images.
  • control unit 11 determines that there is no unprocessed evaluation target cell image (S35: NO), based on the number of evaluation target cell images belonging to each classification counted in step S42, highly senescent cells or low senescent cells A ratio of evaluation target cell images that are identified as cells is calculated (S43). For example, the control unit 11 calculates the discrimination ratio of highly senescent cells using the formula (number of discriminated highly senescent cells)/((number of discriminated cells of highly senescent cells)+(number of discriminated cells of low senescent cells)). The control unit 11 outputs the calculated discrimination ratio of highly senescent cells or low senescent cells as the degree of senescence of the cells to be evaluated (S37).
  • the control unit 11 displays a result screen as shown in FIG. 9 on the display unit 15 to notify the user (examiner) of the degree of senescence of the cells to be evaluated.
  • the degree of senescence is a numerical value that can quantitatively represent the degree of senescence of the cells to be evaluated, so the degree of senescence of the cells to be evaluated can be easily evaluated by the degree of senescence.
  • FIG. 11 is a flowchart showing an example of a drug screening process procedure
  • FIG. 12 is an explanatory diagram showing an example of a screen.
  • the degree of senescence of the cells to be evaluated can be obtained by inputting cell images obtained by photographing the cells to be evaluated into the learning model 12M.
  • the user For each drug to be screened, the user prepares a plurality of evaluation target cell images of the first cells (first image) and multiple evaluation target cell images of the second cells (second image).
  • the first cell and the second cell are not limited to one type, for example, a plurality of types of evaluation target cells are prepared by changing the concentration of the evaluation target drug, and the images of each evaluation target cell are a plurality of first images, or a plurality of It can be compared and examined as a second image.
  • comparing the degree of senescence specifically means that, for example, after inducing senescence by applying stress to cells using the stressor, the senescent cells are cultured in the presence of the drug A to be evaluated at a concentration of 50 mM.
  • the degree of senescence of the first cells to be evaluated 50 mM senescence
  • the degree of senescence of the cells to be evaluated cultured in the absence of the drug to be evaluated non-additive senescence
  • the evaluation target drug A is It can be determined that the agent is effective as an anti-aging agent or an agent for inducing senescent cell death for cells to be evaluated.
  • the degree of senescence satisfies the relation of non-additional senescence ⁇ 50 mM senescence ⁇ 200 mM senescence, it can be determined that the drug A to be evaluated is effective as an aging-inducing agent for the cells to be evaluated. .
  • the user can acquire the senescence degree of the cells in the image as a numerical value by simply preparing tens of thousands of evaluation target cell images. It has a great effect when performing high-throughput screening in which there are many samples.
  • the control unit 11 of the information processing apparatus 10 of the present embodiment acquires an evaluation target cell image of the first cell and an evaluation target cell image of the second cell for one drug (S51). Then, the control unit 11 calculates the degree of senescence of the first cell based on the evaluation target cell image of the first cell (S52). Here, the control unit 11 calculates the degree of senescence of the first cells by performing the same processing as the processing in FIG. 8 on a plurality of evaluation target cell images of the first cells. Specifically, the control unit 11 inputs a plurality of evaluation target cell images of the first cells to the learning model 12M, outputs aging information of the first cells in each image, and calculates an average value of the aging information. calculated and set as the degree of senescence of the first cells.
  • control unit 11 calculates the degree of senescence of the second cell based on the evaluation target cell image of the second cell (S53). Also here, the control unit 11 performs the same processing as the processing in FIG. 8 on a plurality of evaluation target cell images of the second cells, and calculates the degree of senescence of the second cells. Specifically, the control unit 11 inputs a plurality of evaluation target cell images of the second cells to the learning model 12M, outputs aging information of the second cells in each image, and calculates an average value of the aging information. calculated and set as the degree of senescence of the second cells.
  • the control unit 11 compares the degree of aging of the first cells and the degree of aging of the second cells (S54). For example, the control unit 11 calculates the increase/decrease value or ratio of the degree of senescence of the first cells based on the degree of senescence of the second cells as a comparison result.
  • the control unit 11 stores the calculated comparison result in the storage unit 12 (S55).
  • the control unit 11 determines whether or not there is a drug for which the aging degree comparison process described above has not been performed (untreated drug) among the drugs to be screened (S56). If the control unit 11 determines that there is an untreated medicine (S56: YES), it returns to the process of step S51 and performs the processes of steps S51 to S55 for the untreated medicine.
  • control unit 11 acquires the evaluation target cell image of the first cell and the evaluation target cell image of the second cell for one of the untreated drugs, and obtains the evaluation target cell image of the first cell. Based on this, the degree of senescence of the first cell is calculated, the degree of senescence of the second cell is calculated based on the evaluation target cell image of the second cell, and a comparison result of the two degrees of senescence is obtained.
  • the control unit 11 repeats the processing of steps S51 to S55 until it determines that there is no untreated drug. This makes it possible to collect the results of comparing the degree of senescence of the first cells and the degree of senescence of the second cells for each drug to be screened.
  • the control unit 11 determines that there is no untreated drug (S56: NO)
  • it extracts a highly effective drug from the results of comparing the degree of senescence of the first cells and the degree of senescence of the second cells calculated for each drug.
  • the control unit 11 extracts a predetermined number of drugs in descending order of increase/decrease value or ratio of the degree of senescence of the first cells relative to the degree of senescence of the second cells.
  • control unit 11 may extract medicines whose increase/decrease value or ratio of the degree of aging is equal to or greater than a predetermined value. Specifically, the effectiveness of removing senescent cells by ABT263 could be evaluated by the degree of senescence using the learning model 12M.
  • the control unit 11 displays the drugs extracted as highly effective drugs on the display unit 15 (S58). For example, as shown in FIG. 12, the control unit 11 determines the name of each drug, the comparison result of the degree of senescence of the first cell and the second cell, the evaluation of the first cell and the second cell, in the order in which the effect is determined to be high.
  • a result screen displaying the target cell image and the like is displayed on the display unit 15 .
  • FIG. 12 shows an example of a screen that notifies the results of evaluating the effectiveness of each drug contained in the kinase inhibitor library using the learning model 12M. (PD-98059), daidzein, Rock inhibitor (Y-27632 2HCl) are shown. In the example shown in FIG.
  • the evaluation target cell image and the degree of senescence when not added the evaluation target cell image and the degree of senescence after addition, and the amount of change in the senescence degree are displayed.
  • the user examiner
  • the comparison result of the degree of aging can be grasped.
  • the learning model 12M is used to calculate the degree of senescence of cells to which the anti-aging agents, senescence-inducing agents, and senescent cell death-inducing agents have not been administered, and cells to which they have been administered at different concentrations. Efficacy of each drug can be evaluated. Specifically, the efficacy of an anti-aging agent can be evaluated when it is confirmed that cell senescence does not progress, and the effectiveness of a senescence-inducing agent can be evaluated when it is confirmed that cell senescence progresses. The effectiveness of the drug can be evaluated immediately, and for the senescent cell death-inducing agent, the effectiveness of the drug can be evaluated when it is confirmed that the number of senescent cells has decreased.
  • the configuration of the present embodiment can be applied to the information processing apparatuses 10 of the first and second embodiments described above, and similar effects can be obtained even when applied to the information processing apparatuses 10 of the first and second embodiments. Also in this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.
  • Fig. 13 is a flowchart showing an example of the procedure for determining the optimum concentration of the drug
  • Fig. 14 is an explanatory diagram showing an example of the screen.
  • the user can specify the most effective concentration by judging the effectiveness of the drug on the cells to be evaluated for all the concentrations to be evaluated. Also in this embodiment, the degree of senescence of the evaluation target cell is obtained by inputting the evaluation target cell image to the learning model 12M. The user prepares the evaluation target cell image for each concentration of the evaluation target and, if necessary, the control cell image as described above.
  • the control unit 11 of the information processing apparatus 10 of the present embodiment obtains an evaluation target cell image of the evaluation target cells cultured in the presence of the drug at the concentration of one of the drugs to be determined for the optimal concentration (S61 ). Then, the control unit 11 calculates the degree of senescence of the cell based on the obtained evaluation target cell image (S62). This is repeated for cells to be evaluated that have been cultured in the presence of the drug at different concentrations, and the degree of senescence of each cell is calculated.
  • the control unit 11 inputs a plurality of evaluation target cell images as described above for cells cultured in the presence of a drug at one concentration (for example, 50 mM), and performs the same processing as the processing in FIG.
  • the control unit 11 stores the calculated degree of cell senescence in the storage unit 12 as a result of a specific concentration (for example, 50 mM) of the drug.
  • the control unit 11 determines whether or not there are densities (unprocessed densities) for which the aging degree calculation process described above has not been performed, among the densities to be determined (S63). If the control unit 11 determines that there are unprocessed densities (S63: YES), the process returns to step S61, and the unprocessed densities are processed in steps S61 and S62. Specifically, the control unit 11 acquires an evaluation target cell image for one of the unprocessed concentrations, and calculates the degree of senescence of the evaluation target cell based on the image.
  • the control unit 11 repeats the processing of steps S61 and S62 until it determines that there is no unprocessed density. Thereby, the degree of senescence of the cells to be evaluated can be collected for each concentration to be evaluated.
  • the control unit 11 acquires an evaluation target cell image of control cells cultured in the absence of the drug as necessary (S64). Then, the control unit 11 calculates the degree of senescence of the control cells based on the acquired control cell images (S65). Also here, the control unit 11 performs the same processing as the processing in FIG. 8 on a plurality of cell images of control cells to calculate the degree of senescence of the control cells.
  • the control unit 11 determines the degree of senescence of the drug. An optimum concentration is determined (S66). For example, in the case of an anti-aging agent, the control unit 11 determines the drug concentration in the cells to be evaluated in which the degree of senescence of the cells is low based on the degree of senescence of the control cells as the optimal concentration of the anti-aging agent. can do.
  • the degree of senescence of the control cells is 0.8
  • the degree of senescence of the evaluation target cells cultured in the presence of the drug at the first concentration is 0.6
  • the second concentration first concentration ⁇ second concentration
  • the degree of senescence of the cells to be evaluated cultured in the presence of the drug is 0.4
  • the degree of senescence of the cells to be evaluated cultured in the presence of the drug at the third concentration is 0.2
  • the control unit 11 sets the third to fourth concentrations Optimal concentration can be specified.
  • the control unit 11 displays the determination result (specified optimal concentration) on the display unit 15 (S67). For example, as shown in FIG. 14, the control unit 11 displays the degree of senescence, the cell image, etc. of the evaluation target cells cultured in the presence of each concentration of the drug at each concentration in descending order of the concentration of the drug to be determined. The screen is displayed on the display unit 15 .
  • the degree of senescence and cell image of control cells cultured in the absence of the drug (when no drug was added), and the degree of senescence and cell image of the cells to be evaluated cultured in the presence of the drug at each concentration An image and a mark indicating that the third density has been identified as the optimum density are displayed.
  • the user can be notified of the effect of the drug at each concentration, and the user can grasp the image of the cells to be evaluated and the degree of aging after addition of the drug at each concentration.
  • Optimal concentration can be grasped.
  • the configuration of the present embodiment can be applied to the information processing apparatuses 10 of Embodiments 1 to 3 described above, and similar effects can be obtained even when applied to the information processing apparatuses 10 of Embodiments 1 to 3.
  • the degree of senescence of arbitrary evaluation target cells can be calculated, and the optimum concentration of any drug can be specified.
  • the process of Embodiment 2 shown in FIG. 10 may be used as the process of calculating the degree of senescence of the cells to be evaluated. Even in this case, similar processing can be executed, and similar effects can be obtained.
  • FIG. 15 is a flow chart showing an example of a drug manufacturing process procedure.
  • the process shown in FIG. 15 is obtained by adding step S71 instead of step S58 to the process shown in FIG. Description of the same steps as in FIG. 11 will be omitted.
  • the control unit 11 of the information processing apparatus 10 of this embodiment performs the same processing as steps S51 to S57 in FIG.
  • steps S51 to S57 in FIG.
  • the effectiveness of the drug to be evaluated can be evaluated based on the result of comparison with the degree of senescence of the second cells.
  • the control unit 11 of the information processing device 10 performs a process of manufacturing a drug extracted as a highly effective drug after the process of step S57 (S71). That is, the present invention also includes a method of formulating the drug selected above and manufacturing it as a drug. Note that, in this embodiment, for example, a screen as shown in FIG. A manufacturing process may be performed.
  • the drug manufacturing process is a process of manufacturing a drug by using additives such as adjuvants, excipients, diluents, or stabilizers, by methods commonly used in the field of pharmaceutics.
  • the learning model 12M is used when manufacturing the drug, and the degree of senescence in cells not administered with each drug of the anti-aging agent, senescence-inducing agent, and senescent cell death-inducing agent, and in cells administered at different concentrations By calculating , the efficacy of each drug can be evaluated. Therefore, it becomes possible to manufacture a drug that is highly evaluated for its effectiveness.
  • the configuration of the present embodiment can be applied to the information processing apparatuses 10 of Embodiments 1 to 4 described above, and similar effects can be obtained even when applied to the information processing apparatuses 10 of Embodiments 1 to 4.
  • the process of Embodiment 2 shown in FIG. 10 may be used for the process of calculating the degree of senescence of the cells to be evaluated. Even in this case, similar processing can be executed, and similar effects can be obtained. Also in this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.
  • the information processing apparatus 10 that determines cell aging information using the learning model 12M and performs various processes using the determination results has been described. Since the learning model 12M automatically determines the morphology of cells in the input screen, the present invention can be used to determine the degree of progression of diseases that change the appearance of cells, or the degree of deterioration of the state of the cells, in addition to aging. can be done. Examples of such diseases include cancer and the like.
  • the present invention also provides a method for producing the above-mentioned drug by screening for death-inducing agents and formulating the drug selected by the screening method. Furthermore, as a state that changes the appearance of a cell, for example, a differentiation state of a cell when differentiation is induced from a pluripotent stem cell or the like, or a functional change of a cell in the process of differentiation, wherein the functional change is the appearance of the cell and the like.
  • the state of cells can be easily evaluated by the method of the present invention without confirming differentiation markers of cells by immunostaining or the like when confirming the quality of differentiated cells.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Organic Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Molecular Biology (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Biochemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Immunology (AREA)
  • Medicinal Chemistry (AREA)
  • Biotechnology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Microbiology (AREA)
  • Food Science & Technology (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)
  • Pathology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Genetics & Genomics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Urology & Nephrology (AREA)
  • Hematology (AREA)
  • Toxicology (AREA)
  • Sustainable Development (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)

Abstract

検査者の処理負担を軽減しつつ、細胞の状態を正確に判定することが可能なプログラム等を提供する。コンピュータは、細胞の画像を取得する。そして、コンピュータは、細胞の画像を入力した場合に前記画像中の細胞の老化情報を出力するように学習された学習モデルに、取得した前記細胞の画像を入力して前記細胞の老化度を出力する処理を実行する。

Description

プログラム、スクリーニング方法、至適濃度の特定方法、薬剤製造方法、モデル生成方法、情報処理方法、及び情報処理装置
 本発明は、プログラム、スクリーニング方法、至適濃度の特定方法、薬剤製造方法、モデル生成方法、情報処理方法、及び情報処理装置に関する。
 従来、分子生物学的マーカを利用して細胞の病的状態を判定することが行われている。特許文献1では、血管老化の検出方法として、被験者から採取した生体試料中に含まれる血管老化予測用のバイオマーカの発現レベルを測定することにより、被験者の血管老化の進行の程度を評価し、被験者の動脈硬化性疾患等の加齢関連疾患の有無を判定する技術が開示されている。また、非特許文献1には、健常者とALS患者の免疫染色した脊髄運動ニューロンの画像を用いて、畳み込みニューラルネットワーク解析を用いたディープラーニングにより、それらを分類予測し得る技術が開示されている。
特開2021-69346号公報
K.Imamura et al.,ANN NEUROL.,00:1-8(2021)
 分子生物学的マーカを用いる判定方法では、免疫染色を行って目的の物質を染色する処理等を行う必要があるので、検査工程の簡略化及び検査時間の短縮が困難であり、検査を行う検査者の処理負担を軽減することは難しいという問題がある。また、非特許文献1に開示された技術では健常者とALS患者を判別することができるのみで、ALSの疾患の進行度等、変化していく細胞の状態を数値等で示すことについては記載されていない。
 本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、検査者の処理負担を軽減しつつ、細胞の状態を正確に判定することが可能なプログラム等を提供することにある。
 本発明の一態様に係るプログラムは、細胞の画像を取得し、細胞の画像を入力した場合に前記画像中の細胞の老化情報を出力するように学習された学習モデルに、取得した前記細胞の画像を入力して前記細胞の老化度を出力する処理をコンピュータに実行させる。
 本発明の一態様にあっては、検査者の処理負担を軽減しつつ、細胞の状態を正確に判定することができる。
情報処理装置の構成例を示すブロック図である。 学習モデルの構成例を示す説明図である。 細胞画像の例を示す説明図である。 ストレス強度に応じた老化情報の分布を示す図表である。 ストレス強度と老化度との関係を示す図表である。 訓練データの生成処理手順の一例を示すフローチャートである。 学習モデルの生成処理手順の一例を示すフローチャートである。 老化度の算出処理手順の一例を示すフローチャートである。 画面例を示す説明図である。 実施形態2の老化度の算出処理手順の一例を示すフローチャートである。 薬剤のスクリーニング処理手順の一例を示すフローチャートである。 画面例を示す説明図である。 薬剤の至適濃度の判定処理手順の一例を示すフローチャートである。 画面例を示す説明図である。 薬剤の製造処理手順の一例を示すフローチャートである。
 以下に、本開示のプログラム、スクリーニング方法、至適濃度の特定方法、薬剤製造方法、モデル生成方法、情報処理方法、及び情報処理装置について、その実施形態を示す図面に基づいて詳述する。
(実施形態1)
 老化の程度を評価する評価対象の細胞(以下、「評価対象細胞」と称することがある)を撮影した画像に基づいて、細胞の老化の程度を示す老化度を算出してユーザ(医療従事者、研究者等)に提示する情報処理装置について説明する。本実施形態では、血管内皮細胞を評価対象の細胞とし、当該細胞の画像から当該細胞の老化の程度を示す老化度を出力する処理について説明するが、評価対象の細胞は血管内皮細胞に限定されず、例えば間葉系細胞、線維芽細胞、神経細胞、平滑筋細胞、血球細胞等の他の細胞であってもよい。なお、評価対象の細胞は、老化することにより外見が変化するものであれば、どのような細胞であってもよく、例えば生体組織を構成する細胞、当該細胞の老化により組織の機能低下が起こることが知られている細胞を含む。また、細胞の外見とは、形状、大きさ、色、細胞質構造、細胞核内構造、細胞核の形状、周辺細胞との接着構造等、後述する学習モデルがその変化を認知できるものであればいずれのものでもよい。また、本実施形態において、細胞の老化とは、細胞が分裂を停止し、増殖できなくなった状態になること、さらには細胞分裂の停止が不可逆的になった状態となることを意味し、ゲノムの不安定化等により誘導されるものである。
 図1は情報処理装置の構成例を示すブロック図である。情報処理装置10は、種々の情報処理及び情報の送受信が可能な装置であり、例えばサーバコンピュータ、パーソナルコンピュータ、ワークステーション等である。情報処理装置10は、医療機関、検査機関又は研究機関等に設置されて利用される。情報処理装置10は、複数台設けられて分散処理する構成でもよく、1台の装置内に仮想的に構築された複数の仮想マシンによって実現されてもよい。情報処理装置10をサーバコンピュータで構成する場合、情報処理装置10は、医療機関等に設置されたローカルサーバであってもよく、インターネット等のネットワークを介して通信接続されたクラウドサーバであってもよい。
 情報処理装置10は、例えば血管内皮細胞等の評価対象の細胞の画像に基づいて、当該細胞の老化の程度を示す老化度を出力する。具体的には後述のように、情報処理装置10は、所定の訓練データを学習する機械学習を行い、細胞の画像を入力として、当該細胞の老化情報を出力する学習モデル12M(図2参照)を用意しておく。そして、情報処理装置10は、評価対象の細胞の画像を学習モデル12Mに入力し、入力した画像中の細胞の老化情報を学習モデル12Mから取得する。細胞は老化すると形態等の外見が変化することが知られており、本実施形態では、画像認識を行う学習モデル12Mを用いて、細胞の形態等から予測した細胞の老化情報を取得する。また、情報処理装置10は、上記学習モデル12Mを用いて取得された評価対象細胞画像に含まれる細胞の老化情報から当該評価対象細胞の老化度を出力する。
 情報処理装置10は、制御部11、記憶部12、通信部13、入力部14、表示部15、読み取り部16等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、又はAIチップ(AI用半導体)等の1又は複数のプロセッサを有する。制御部11は、記憶部12に記憶してあるプログラム12Pを適宜実行することにより、情報処理装置10が行うべき種々の情報処理及び制御処理等を行う。
 記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行するプログラム12P(プログラム製品)及びプログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11がプログラム12Pを実行する際に発生するデータ等を一時的に記憶する。プログラム12Pは、情報処理装置10の製造段階において記憶部12に書き込まれてもよい。
 また記憶部12は後述する学習モデル12Mを記憶する。学習モデル12Mは、細胞の画像が入力された場合に、当該細胞の老化情報を出力するように学習された学習モデルである。学習モデル12Mは、未学習のモデルであっても学習済みのモデルであってもよく、未学習のモデルである場合、後述する学習処理を行うことによって学習済みの学習モデル12Mを得ることができる。学習モデル12Mは、人工知能ソフトウェアを構成するプログラムモジュールとしての利用が想定される。記憶部12には、学習モデル12Mを定義する情報として、学習モデル12Mが備える層の情報、各層を構成するノードの情報、ノード間の重み(結合係数)等の情報が記憶される。
 また記憶部12は、細胞画像DB12a及び訓練DB12bを記憶する。細胞画像DB12aは、顕微鏡を用いて細胞を撮影した画像を記憶しており、当該画像には、評価対象の細胞を撮影した画像、及び、学習モデル12Mの学習用に用意されたモデル細胞を撮影した画像が含まれる。訓練DB12bは、学習モデル12Mの学習処理に用いられる訓練データを記憶しており、情報処理装置10が後述する訓練データの生成処理を行うことにより、訓練DB12bに訓練データが記憶される。学習モデル12M、細胞画像DB12a及び訓練DB12bは、情報処理装置10に接続された他の記憶装置に記憶されていてもよく、情報処理装置10が通信可能な他の記憶装置に記憶されていてもよい。
 通信部13は、有線通信又は無線通信によって、インターネット又はLAN(Local Area Network)等のネットワークNに接続するための通信モジュールであり、ネットワークNを介して他の装置との間で情報の送受信を行う。入力部14は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部15は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。入力部14及び表示部15は一体として構成されたタッチパネルであってもよい。なお、入力部14及び表示部15は必須ではなく、情報処理装置10は、接続された端末装置を通じて操作を受け付け、表示すべき情報を外部の表示装置へ出力する構成でもよい。
 読み取り部16は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード等を含む可搬型記憶媒体10aに記憶された情報を読み取る。記憶部12に記憶されるプログラム12P(プログラム製品)及び各種のデータは、制御部11が読み取り部16を介して可搬型記憶媒体10aから読み取って記憶部12に記憶してもよい。また記憶部12に記憶されるプログラム12P及び各種のデータは、遠隔のサーバ装置が配信するものを、制御部11が通信部13を介してダウンロードして記憶部12に記憶してもよい。
 図2は学習モデル12Mの構成例を示す説明図である。学習モデル12Mは、細胞の画像(本明細書中では「細胞画像」と称することがある)を入力とし、入力された画像に基づいて、当該画像中の細胞の老化情報を示すための演算を行い、演算した結果(老化情報)を出力するモデルである。学習モデル12Mは、例えば深層学習によって生成される畳み込みニューラルネットワークであるCNN(Convolutional Neural Network)を用いて構成される。なお、学習モデル12Mは、CNNのほかに、SVM(Support Vector Machine)、ランダムフォレスト、ロジスティック回帰、Transformer等のアルゴリズムを用いて構成されてもよい。また、学習モデル12Mは、R-CNN(Region-based CNN)、Fast R-CNN、Faster R-CNN、Mask R-CNN,SSD(Single Shot Multibook Detector)、YOLO(You Only Look Once)等の種々の物体検出アルゴリズム及び物体分類アルゴリズムを用いて構成されてもよく、複数のアルゴリズムを組み合わせて構成されてもよい。
 学習モデル12Mは、入力層、中間層及び出力層を有する。入力層には、処理対象の画像(細胞画像)が入力される。中間層は、畳み込み層、プーリング層及び全結合層を有する。入力層を介して中間層に入力された画像は、畳み込み層でフィルタ処理等によって画像の特徴量が抽出されて特徴マップが生成され、生成された特徴量マップがプーリング層で圧縮される。畳み込み層及びプーリング層は複数層繰り返し設けられており、複数の畳み込み層及びプーリング層によって生成された特徴マップは全結合層へ出力される。全結合層は複数層設けられており、入力された特徴マップに基づいて、各種の関数や閾値等を用いて各層のノードの出力値を算出し、算出した出力値を順次後の層のノードに入力する。全結合層は、各層のノードの出力値を順次後の層のノードに入力することにより、最終的に後段の出力層に出力値を出力する。
 出力層は、例えばsoftmax関数で構成される。出力層は、全結合層からの出力値を入力(引数)とし、所定の関数を用いて出力値を算出し、算出した出力値を各出力ノードから出力する。具体的には、例えば、後述する訓練用データを低老化細胞画像と高老化細胞画像、及びそれぞれのラベルとして、入力画像中の細胞が低老化細胞であると分類すべき判別確率と、高老化細胞であると分類すべき判別確率とをそれぞれ出力するように学習させた場合には、図2に示すように学習モデル12Mの出力層は、2つの出力ノードを有する。図2に示す例では、例えば出力ノード0は、入力画面中の細胞が低老化細胞であると分類すべき判別確率(以下、「低老化細胞の判別確率」と称することがある)を出力し、出力ノード1は、高老化細胞であると分類すべき判別確率(以下、「高老化細胞の判別確率」と称することがある)を出力する。この場合、2つの出力ノードのそれぞれは0~1.0の出力値を出力し、2つの出力ノードから出力される出力値(判別確率)の合計が1.0(100%)となる。
 上述した構成により、学習モデル12Mは、細胞画像が入力された場合に、画像中の細胞の老化情報を出力する。本実施形態の情報処理装置10は、上述した学習モデル12Mにおいて、出力ノード0からの出力値(低老化細胞の判別確率)を、入力画像中の細胞の老化情報として使用でき、また、出力ノード1からの出力値(高老化細胞の判別確率)を入力画像中の細胞の老化情報として使用することもできる。さらには、出力ノードを1つとして上記値の統合値を老化情報として用いることもできるが、後述する評価対象細胞の老化度の算出においては、常に同じ出力ノードからの出力値を用いて算出を行う。また、明らかにノイズである数値が算出された場合には、それを解析対象外とする工程も含むことが好ましい。なお、訓練データの画像として用いられる低老化細胞とは、評価対象細胞において情報処理装置10を用いて検出したい老化度の下限程度に老化が誘導された細胞であり、完全な健康状態の細胞を含む(図3上側参照)。また、高老化細胞は、評価対象細胞において情報処理装置10を用いて検出したい老化度の上限程度に老化が誘導された細胞である(図3下側参照)。
 図2上側には、評価対象細胞として老化が進んでいない細胞(評価対象細胞A)の画像が入力された場合の学習モデル12Mからの出力値の例を示しており、この例では、出力ノード0から0.95の出力値が出力され、出力ノード1から0.05の出力値が出力されている。この場合、情報処理装置10は、例えば、出力ノード1からの出力値0.05を入力画像中の細胞に対する老化情報に決定することができる。また、図2下側には、評価対象細胞として老化が進んだ細胞(評価対象細胞B)の画像が入力された場合の学習モデル12Mからの出力値の例を示しており、この例では、出力ノード0から0.05の出力値が出力され、出力ノード1から0.95の出力値が出力されている。この場合、情報処理装置10は、出力ノード1からの出力値0.95を入力画像中の細胞に対する老化情報に決定することができる。
 学習モデル12Mは、訓練用の細胞(本明細書中では「モデル細胞」と称することがある)画像と、細胞画像中の細胞に対する老化情報(正解ラベル)とを含む訓練データを用いて機械学習することにより生成される。上記のとおり、モデル細胞を低老化細胞と高老化細胞とした場合、訓練データは、細胞画像に対して、当該細胞画像中のモデル細胞が低老化細胞であるか高老化細胞であるかを示す情報(ラベル)、具体的には、低老化細胞であることを示す「低老化」ラベル、又は高老化細胞であることを示す「高老化」ラベルが付与されて生成される。訓練用の細胞画像に用いられるモデル細胞は、情報処理装置10によって老化の程度が評価される評価対象の細胞と、老化による形態の変化が同等のものであれば特に制限はないが、同種の細胞であることが好ましく、同じ細胞であることがさらに好ましい。同種の細胞とは、例えば血管内皮細胞の場合には、その由来が異なるもの等をいう。具体的には、臍帯静脈由来の血管内皮細胞と大動脈血管由来の内皮細胞等が同種細胞として挙げられる。評価対象細胞と老化による形態の変化が同等のものとして、具体的には血管内皮細胞と、間葉系細胞、線維芽細胞等が挙げられる。また、上記モデル細胞の培養を行う際の条件は限定されない。モデル細胞として、高老化細胞と低老化細胞を用いる場合、その老化の程度は、本発明の方法により評価対象細胞の老化度を確認したい範囲、例えば、評価対象細胞を老化度0から5の範囲で判定したい場合には、低老化細胞を老化度0の細胞、高老化細胞を老化度5の細胞として学習モデルを作成することが好ましい。
 また、本実施形態では、細胞画像DB12aに記憶してあるモデル細胞の画像を訓練用の細胞画像に用いる。訓練データは、それぞれモデル細胞画像として100枚~1千万枚、好ましくは数万枚以上と付帯するラベルから構成されることにより学習モデル12Mの出力値の精度が高まる。なお、上記モデル細胞の画像は、顕微鏡下で撮影対象として数千個の細胞を含む広い視野で撮影が行われた画像を、1画像に1~数個の細胞が含まれる領域に分割して、それぞれを訓練用の細胞画像に使用することにより、効率的にモデル細胞画像を取得することができる。図3は細胞画像の例を示す説明図である。図3に示すように、顕微鏡下で数千個の細胞を撮影対象として撮影した顕微鏡画像から多数のモデル細胞画像を取得することができる。なお、図3では、顕微鏡画像と細胞画像とは異なる拡大率で示している。
 モデル細胞は、老化を誘導することが知られているストレッサーを用いて細胞にストレス負荷すること等により作製することが好ましい。ストレッサー及びそれにより負荷されるストレスとして具体的には、例えば、継代ストレス、過酸化水素水(H2O2)の添加等による酸化ストレス、カンプトテシン(CPT)等の抗癌剤の添加によるストレス、放射線の照射による放射線ストレス、がん遺伝子の導入によるガン化ストレス等が挙げられる。一方、低老化細胞は、このようなストレスがかかっておらず老化していない細胞であってもよい。ここで、モデル細胞は、上記ストレッサーによる老化誘導の程度を事前に確認し、本発明の方法により評価対象細胞において判定したい老化度の下限の老化度の細胞と、上限の老化度の細胞とをそれぞれストレッサーにより誘導して作製する。また、訓練データは高老化細胞と低老化細胞との2種だけでなく、老化度が中間の老化細胞等の3種以上を用いることもできる。このようなモデル細胞の画像は、1枚に1~複数個の細胞が含まれる画像に、低老化又は高老化のラベルが割り当てられて細胞画像DB12aに記憶されている。なお、各画像のラベルは、画像から訓練データを生成する際に割り当てられてもよい。また、上記モデル細胞画像は、ストレッサーによるストレスを独立して2回以上負荷して別個にモデル細胞を作製し、それぞれを撮影した画像を別個に訓練用データとして用いて学習モデル12Mに学習させることにより、学習モデル12Mの精度が高まる。モデル細胞画像は、異なる機関又は施設で培養及び撮影された細胞の画像を用いて学習させることが望ましく、異なる機関又は施設で培養及び撮影された細胞の画像を用いて学習を行うことにより、学習モデル12Mの精度をより向上させることが可能となる。
 学習モデル12Mは、本実施形態では、訓練用の細胞画像が入力された場合に、正解ラベルに対応する出力ノードからの出力値が1.0に近づき、他方の出力ノードからの出力値が0.0に近づくように学習する。学習処理において学習モデル12Mは、入力された細胞画像に基づいて中間層での演算を行い、各出力ノードからの出力値を算出する。そして学習モデル12Mは、算出した各出力ノードの出力値と正解ラベルに応じた値(正解ラベルに対応する出力ノードに対しては1、他方の出力ノードに対しては0)とを比較し、両者が近似するように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、中間層におけるノード間の重み(結合係数)等である。パラメータの最適化の方法は特に限定されないが、誤差逆伝播法、最急降下法等を用いることができる。これにより、細胞画像が入力された場合に、入力画像中の細胞が低老化細胞に分類されるか、高老化細胞に分類されるかを予測し、その結果を細胞の老化情報として出力する学習モデル12Mが得られる。
 学習モデル12Mの学習は他の学習装置で行われてもよい。他の学習装置で学習が行われて生成された学習済みの学習モデル12Mは、例えばネットワークN経由又は可搬型記憶媒体10a経由で学習装置から情報処理装置10にダウンロードされて記憶部12に記憶される。学習モデル12Mは、図2に示す構成に限定されない。例えば学習モデル12Mにおいて、出力ノードからの出力値は、細胞の形状の違いから判定される老化情報であればどのような情報でもよい。例えば、入力画像中の細胞の大きさに応じた老化情報、又は細胞画像の複雑度合に応じた老化情報が出力されるように学習モデル12Mが構成されてもよい。
 ここで、訓練データとして、過酸化水素水をストレッサーとして作製したモデル細胞を用いて学習モデル12Mを作成し、評価対象細胞として同じストレッサーにより異なる強度のストレスを負荷した細胞の画像を入力画像とした場合に、学習モデル12Mが出力した老化情報の例について説明する。図4は評価対象細胞に負荷したストレス強度に応じた老化情報、ここでは高老化細胞の判別確率の分布を示す図表である。図4は、0~0.25mM濃度の過酸化水素水でストレス負荷した評価対象細胞の画像を、それぞれ複数枚、学習モデル12Mに入力した場合に、学習モデル12Mが出力した各画像中の細胞の高老化細胞の判別確率(老化情報)の分布(縦軸は高老化細胞の各判別確率が出力された評価対象細胞画像の枚数を示す)を示している。図4から分かるように、ストレス強度が0又は0.05mM以下の過酸化水素水による酸化ストレスが負荷された場合、入力された細胞画像の大半に対して0の高老化細胞の判別確率が出力され、0.25mM以上の過酸化水素水による酸化ストレスが負荷された場合、入力された細胞画像の大半に対して1の高老化細胞の判別確率が出力された。
 ここで、本発明者は、各強度のストレスが負荷された評価対象細胞の画像について、学習モデル12Mが出力した各細胞画像中の細胞の老化情報の平均値を算出したところ、図5の図表に示すように、各評価細胞について入力された複数の画像中の細胞の老化情報の平均値が、当該細胞が受けたストレス強度と高い線形相関を示すことが分かった。図5は評価対象細胞にかけたストレス強度と、各評価対象細胞について後述する方法により情報処理装置10が出力した老化度との関係を示す図表である。図5上段は過酸化水素水によって老化を誘導した場合の実験結果を示しており、横軸に評価対象細胞の培養時の過酸化水素水の濃度を示し、縦軸に当該細胞の老化度(入力された複数の画像について学習モデル12Mが出力した老化情報の平均値)を示す。図5上段に示すグラフ中の細線は3回別個に評価対象細胞の調製を行って、それぞれに複数の細胞画像を取得し、その画像を入力画像として学習モデル12Mより得られた複数の老化情報の平均値である老化度を示しており、太線は3回の結果の平均値を示している。図5上段に示すグラフから分かるように、評価対象細胞にかけたストレス強度(過酸化水素水の濃度)と老化度は高い線形相関を示した。
 図5中段はCPTによって老化を誘導した場合の実験結果を示しており、横軸に評価対象細胞の培養時のCPTの濃度を示し、縦軸に当該細胞の老化度(入力された複数の画像について学習モデル12Mが出力した老化情報の平均値)を示す。図5中段に示すグラフ中の細線も3回別個に評価対象細胞の調製を行って、それぞれに複数の細胞画像を取得し、その画像を入力画像として学習モデル12Mより得られた複数の老化情報の平均値である老化度を示し、太線は3回の結果の平均値を示す。図5中段に示すグラフから分かるように、評価対象細胞にかけたストレス強度(CPTの濃度)と老化度は高い線形相関を示した。
 図5下段は継代ストレスをかけた場合の実験結果を示しており、横軸に評価対象細胞の継代数を示し、縦軸に当該細胞の老化度(入力された複数の画像について学習モデル12Mが出力した老化情報の平均値)を示す。図5下段に示すグラフでは、評価対象細胞の調製を1回行って複数の画像を取得し、その画像を入力画像として学習モデル12Mより得られた複数の老化情報の平均値である老化度を示す。図5下段に示すグラフから分かるように、継代数と当該細胞の老化度は高い線形相関を示した。図5に示すグラフから分かるように、老化度は、酸化ストレス、抗癌剤、継代ストレスのいずれのストレスについても、評価対象細胞にかけたストレス強度との間に高い線形相関を示した。そこで、本発明者は、複数の評価対象細胞画像について学習モデル12Mが出力した個々の老化情報の平均値を、当該評価対象細胞画像中の細胞の老化度として用いることにより、評価対象細胞の老化の程度を定量的にスコアリングできることを見出した。よって、本実施形態では、複数の評価対象細胞画像について学習モデル12Mが出力した老化情報の平均値を、当該画像中の細胞の老化度とする。
 なお、上記方法において算出される平均値は、例えば、老化情報として、学習モデル12Mが以下の式1で示すsoftmax関数を用いる場合には、以下の式2による計算値(老化度:senescence score)として情報処理装置10から出力される。ここで、老化度を算出する場合の老化情報の平均値とは、平均値に準ずる数値として算出される数値でもよい。例えば、平均値の代わりに、老化情報の中央値等、各評価対象細胞の老化情報の代表値を評価対象細胞の老化度としてもよい。また、1枚の評価対象細胞画像に1個~数個の評価対象細胞が含まれている場合、複数枚の評価対象細胞画像に基づいて判定された各画像中の評価対象細胞の老化情報の平均値を評価対象細胞の老化度としてもよく、1枚の評価対象細胞画像に5個以上の評価対象細胞が含まれている場合、1枚の評価対象細胞画像に基づいて判定された当該画像中の細胞の老化情報をそのまま評価対象細胞の老化度としてもよい。
Figure JPOXMLDOC01-appb-M000001
 以下に、学習モデル12Mの学習に用いる訓練データの生成処理について説明する。図6は訓練データの生成処理手順の一例を示すフローチャートである。以下の処理は、情報処理装置10の制御部11が、記憶部12に記憶してあるプログラム12Pに従って実行するが、他の学習装置で行われてもよい。以下の処理では、上述したように、訓練データに用いるモデル細胞の画像が細胞画像DB12aに蓄積されているものとする。
 情報処理装置10の制御部11は、細胞画像DB12aに記憶してある訓練データ用のモデル細胞画像を1つ読み出す(S11)。制御部11は、読み出したモデル細胞画像に低老化又は高老化等を示すラベルが付与されている場合、ラベルを細胞画像DB12aから取得する(S12)。なお、制御部11は、読み出したモデル細胞画像を表示部15に表示し、入力部14を介した操作入力によって当該画像に対する低老化又は高老化等のラベルの入力を受け付けてもよい。
 制御部11は、上記工程の前に、細胞画像DB12aに記憶してある数百から数千個のモデル細胞が写っている顕微鏡画像を、1画像に1~数個の細胞が含まれる領域に分割し、この画像をモデル細胞画像として取得する工程を含んでいてもよい。また、この画像の分割は、例えば細胞の撮影画像から生成したテンプレートを用いたパターンマッチングによって、顕微鏡画像中の各細胞の撮影領域を判定して細胞画像に分割してもよい。また制御部11は、上記顕微鏡画像のサイズ及び解像度と、細胞のサイズとに基づいて、細胞画像のサイズを特定し、特定したサイズで顕微鏡画像を分割することによってモデル細胞画像を生成してもよい。なお、1つの細胞画像は、厳密に1つの細胞のみを含む画像である必要はなく、学習モデル12Mが入力画像に基づいて老化情報を出力できる範囲であれば特に制限はなく、例えば5個~10個程度の細胞を含む画像であってもよい。また、複数の細胞を含む画像の場合、一部の細胞が部分的に欠落している画像であってもよい。
 制御部11は、ステップS11で読み出したモデル細胞画像に、ステップS12で取得したラベル(低老化又は高老化等)を付与して訓練データを生成し(S13)、生成した訓練データを訓練DB12bに記憶する(S14)。これにより、モデル細胞画像に低老化又は高老化等の正解ラベルが付けられた訓練データが蓄積される。制御部11は、細胞画像DB12aに記憶してある訓練データ用のモデル細胞画像のうちで、上述した訓練データの生成処理が行われていない画像(未処理のモデル細胞画像)があるか否かを判断する(S15)。制御部11は、未処理のモデル細胞画像があると判断した場合(S15:YES)、ステップS11の処理に戻り、未処理のモデル細胞画像についてステップS11~S14の処理を行う。
 制御部11は、未処理のモデル細胞画像がないと判断するまでステップS11~S14の処理を繰り返す。これにより、細胞画像DB12aに記憶してあるモデル細胞画像に基づいて、学習モデル12Mの学習に用いる訓練データを生成して蓄積することができる。上述した処理では、訓練データの生成に用いるモデル細胞画像は、細胞画像DB12aに記憶してある例で説明したが、情報処理装置10の制御部11は、他の装置に記憶してあるモデル細胞画像を例えばネットワークN経由で取得する構成でもよい。
 次に、上述した処理によって生成した訓練データを学習して学習モデル12Mを生成する処理について説明する。図7は学習モデル12Mの生成処理手順の一例を示すフローチャートである。以下の処理は、情報処理装置10の制御部11が記憶部12に記憶してあるプログラム12Pに従って実行するが、他の学習装置で行われてもよい。また、図6に示した訓練データの生成処理と、図7に示す学習モデル12Mの生成処理とは各別の装置で行われてもよい。
 情報処理装置10の制御部11は、訓練DB12bから訓練データを1つ取得する(S21)。具体的には、制御部11は、訓練DB12bに記憶してある、正解ラベルが付与されているモデル細胞画像を1つ読み出す。正解ラベルは、モデル細胞画像中の細胞の老化情報であり、具体的には低老化ラベル又は高老化ラベルである。そして、制御部11は、読み出した訓練データに含まれるモデル細胞画像を学習モデル12Mに入力し(S22)、モデル細胞画像が入力されることによって学習モデル12Mから出力される出力値を取得する。学習モデル12Mは、入力されたモデル細胞画像に基づく演算を行い、各出力ノードからの出力値を算出する。制御部11は、学習モデル12Mから出力された各出力ノードの出力値と、訓練データに含まれる正解ラベルに応じた値(正解ラベルに対応する出力ノードに対しては1、他の出力ノードに対しては0)とを比較し、両者が近似するように学習モデル12Mの学習処理を行う(S23)。学習処理において、学習モデル12Mは、中間層での演算処理に用いるパラメータを最適化する。例えば制御部11は、中間層におけるノード間の重み(結合係数)等のパラメータを、学習モデル12Mの出力層から入力層に向かって順次更新する誤差逆伝播法を用いて最適化する。
 制御部11は、訓練DB12bに記憶してある訓練データのうちで、学習処理が行われていない未処理の訓練データがあるか否かを判断する(S24)。未処理の訓練データがあると判断した場合(S24:YES)、制御部11はステップS21の処理に戻り、学習処理が未処理の訓練データについてステップS21~S23の処理を行う。未処理の訓練データがないと判断した場合(S24:NO)、制御部11は一連の処理を終了する。なお、学習モデル12Mの学習処理は、100~1千万枚、好ましくは数万枚以上のモデル細胞画像を用いて行われることが望ましい。
 上述した学習処理により、評価対象細胞画像を入力することによって、当該画像中の細胞が低老化細胞である可能性(出力ノード0からの出力値)と、高老化細胞である可能性(出力ノード1からの出力値)とを出力する学習モデル12Mが生成される。なお、本実施形態では、学習モデル12Mの出力ノード1からの出力値(高老化細胞である可能性)を、入力された細胞画像中の細胞の老化の程度を示す老化情報として使用するが、出力ノード0からの出力値を用いてもよい。
 上述したような訓練データを用いた学習処理を繰り返し行うことにより、学習モデル12Mを更に最適化することができる。また、既に学習済みの学習モデル12Mについても、上述した学習処理を行うことによって再学習させることができ、この場合、判別精度がより高い学習モデル12Mを生成できる。
 次に、上述した処理によって生成した学習モデル12Mを用いて、評価対象の細胞の老化度を算出する処理について説明する。図8は老化度の算出処理手順の一例を示すフローチャート、図9は画面例を示す説明図である。以下の処理は、情報処理装置10の制御部11が記憶部12に記憶してあるプログラム12Pに従って実行する。
 情報処理装置10の制御部11(取得部)は、評価対象の細胞の画像を取得する(S31)。なお、細胞の老化度を算出する場合、複数枚(100枚~1千万枚程度、好ましくは数万枚以上)の評価対象細胞画像を取得する。ここで、複数枚の評価対象細胞画像とは、同一のソースから得られた細胞群の中の1~数個の細胞が含まれる、複数枚の画像をいう。具体的には、例えば、同一の培養条件下で培養された細胞群の中の1~数個の細胞が含まれる、複数枚の画像等である。評価対象の細胞の画像は、評価対象細胞毎に細胞画像DB12aに記憶されており、制御部11は、1枚の評価対象細胞の細胞画像を記憶部12から読み出す。なお、情報処理装置10が顕微鏡と通信可能である場合、制御部11は、顕微鏡で逐次撮影される評価対象細胞画像を顕微鏡から取得してもよい。また、情報処理装置10が電子カルテシステムにアクセスできる場合、制御部11は、電子カルテに登録されている評価対象細胞画像を取得してもよい。また評価対象細胞画像が可搬型記憶媒体10aに記憶されている場合、制御部11は、読み取り部16によって可搬型記憶媒体10aから当該画像を読み取ってもよい。
 制御部11は、複数枚の評価対象細胞画像から1枚の評価対象細胞画像を抽出する(S32)。なお、図8に示す処理の処理対象である評価対象細胞画像と、図6に示す処理の処理対象であるモデル細胞画像とにおいて、画像中に含まれる細胞の数は同程度であることが好ましい。例えば訓練データ用のモデル細胞画像が1つの細胞を含む画像である場合、評価対象細胞画像も1つの細胞を含む画像であることが好ましい。
 制御部11は、1枚の評価対象細胞画像に基づいて、当該画像中の評価対象細胞に対する老化情報を出力する(S33)。具体的には、制御部11は、ステップS32で抽出した評価対象細胞画像を学習モデル12Mに入力し、学習モデル12Mからの出力値に基づいて、当該評価対象細胞画像中の細胞の老化情報を取得する。本実施形態では、制御部11は、学習モデル12Mの出力ノード1からの出力値(高老化細胞の判別確率)を、当該評価対象細胞の老化情報に決定するが、出力ノード0からの出力値(低老化細胞の判別確率)を老化情報としてもよい。制御部11は、評価対象細胞画像に基づいて算出した評価対象細胞の老化情報を記憶部12に記憶する(S34)。制御部11は、ステップS31で取得した全ての評価対象細胞画像について、ステップS33~S34の処理を繰り返し、細胞画像DB12aに記録されている複数枚の評価対象細胞画像について、各画像中の細胞の老化情報を収集する。
 制御部11は、ステップS31で取得した複数枚の評価対象細胞画像のうちで、老化情報の出力処理が行われていない未処理の画像があるか否かを判断する(S35)。未処理の画像があると判断した場合(S35:YES)、制御部11はステップS32の処理に戻り、未処理の評価対象細胞画像についてステップS32~S34の処理を行う。未処理の画像がないと判断した場合(S35:NO)、制御部11は、ステップS34で記憶部12に記憶した各評価対象細胞の老化情報の平均値を算出する(S36)。そして、制御部11(出力部)は、算出した各評価対象細胞画像中の細胞の老化情報の平均値を、当該評価対象細胞の老化度として出力する(S37)。例えば制御部11は、図9に示すように、評価対象細胞のIDと、必要に応じて細胞画像と、算出した老化度とを表示した結果画面を表示部15に表示して、評価対象細胞の老化度をユーザ(検査者)に通知する。老化度は、老化の程度を定量的に表すことが可能な数値であるので、老化度によって評価対象細胞の老化の程度を容易に評価できる。
 なお、制御部11は、図9に示す構成に加えて、ステップS32で抽出した評価対象細胞画像と、ステップS33で出力した各評価対象細胞画像中の細胞の老化情報とを対応付けて結果画面に表示してもよい。この場合、ユーザは、評価対象細胞の老化度に加えて、各評価対象細胞画像中の細胞の老化情報を把握できる。また、学習モデル12Mが入力画像中の細胞を低老化細胞又は高老化細胞に分類した際に注目した箇所(分類結果に寄与した箇所)を可視化するGrad-CAM(Gradient weighted Class Activation Mapping)等のアプリケーションを用いて生成されたヒートマップを結果画面に表示してもよい。Grad-CAMは、学習モデル12Mに入力画像が入力されて、学習モデル12Mから出力値が出力された場合に、学習モデル12Mが、入力画像中のどの部分に基づいて出力値を算出したかを示すヒートマップを生成する。
 制御部11は、例えば入力部14を介した操作に従って、次の評価対象細胞の老化度の算出処理の実行指示を受け付けた場合、上述の処理を繰り返し、処理の終了指示を受け付けた場合、一連の処理を終了する。
 本実施形態では、血管内皮細胞の老化の程度が定量的に表された老化度が提示されるので、例えば被検者から取得した血管内皮細胞を本発明の評価対象細胞とすることにより、被検者の血管の老化の程度を精度良く評価することもできる。血管は、各臓器の恒常性維持に大切な役割を持っていることから、血管老化は臓器障害につながる。例えば、動脈硬化を起こすことにより脳卒中や心臓病等の原因となり、あるいは心不全、認知症等の加齢関連疾患を引き起こす。血管の老化の程度を精度良く評価できることにより、加齢関連疾患のリスク又は進行程度を適切に予測できる。また、細胞の老化が原因と考えられる肺線維症、心不全、認知症、慢性腎臓病(CKD)、サルコペニア等の加齢関連疾患についても、病状又は進行程度を予測することができる。なお、血管の老化の程度を時系列で取得することにより、動脈硬化を含む加齢関連疾患のリスクの悪化又は改善の評価を行うことができる。
 また、本実施形態では、学習モデル12Mが細胞画像から細胞の形態の特徴を自動抽出して評価対象細胞の老化の程度をスコアリングするので、検査者は、評価対象細胞を顕微鏡下で撮影するだけでよく、検査工程の簡略化が可能であり、検査者の処理負担が軽減される。また、訓練データとして用いられるモデル細胞は、低老化細胞と高老化細胞の2種を用いるだけで、その間の老化度の判定も可能となるので、訓練データの製造の手間も大幅に減少する。さらに、学習モデル12Mが1枚の入力画像から細胞の形態(低老化細胞及び高老化細胞)を判定するまでに要する処理時間は100μ秒程度であり、高速処理が可能であるので検査時間の短縮が可能である。
 本実施形態では、血管内皮細胞について老化の程度を評価する処理について説明した。しかし、評価対象の細胞は線維芽細胞、間葉系細胞、神経細胞、平滑筋細胞、血球細胞等の他の細胞であってもよい。他の細胞についても同様の処理によって老化の程度を判定することができる。
 本実施形態において、訓練データの生成処理、訓練データを用いた学習モデル12Mの学習処理、学習モデル12Mを用いた細胞の老化情報の判定処理は、情報処理装置10がローカルで行う構成に限定されない。例えば、上述した各処理を実行する情報処理装置をそれぞれ設けてもよい。また、訓練データの生成処理及び学習モデル12Mの学習処理を実行するサーバを設けてもよい。この場合、情報処理装置10は、訓練データに使用するモデル細胞画像をサーバへ送信し、サーバが、当該モデル細胞画像を用いて訓練データを生成し、生成した訓練データを用いた学習処理によって学習モデル12Mを生成して情報処理装置10へ送信するように構成される。よって、情報処理装置10は、サーバから取得した学習モデル12Mを用いて老化度の判定処理を実現できる。また、学習モデル12Mを用いた老化度の判定処理を実行するサーバを設けてもよい。この場合、情報処理装置10は、評価対象細胞画像をサーバへ送信し、サーバで学習モデル12Mを用いた判定処理が行われて算出された老化情報が情報処理装置10に送信されるように構成される。このような構成とした場合であっても、上述した本実施形態と同様の処理が可能であり、同様の効果が得られる。
(実施形態2)
 上述した実施形態1では、入力された複数枚の評価対象細胞画像について学習モデル12Mから出力された各評価対象細胞の老化情報の平均値を、当該評価対象細胞画像中の細胞の老化度としていた。本実施形態は、入力された評価対象細胞画像を、学習モデル12Mの出力値から分類、判別し(上記実施態様では、低老化細胞であるか高老化細胞であるかを判別)、その結果を老化情報とし、判別されたいずれかの分類に属する評価対象細胞画像の全体枚数中の割合(上記実施態様では、高老化細胞と判別された評価対象細胞画像、あるいは低老化細胞と判別された評価対象細胞画像の全体枚数中の割合)を、当該評価対象細胞画像中の細胞の老化度として提示する情報処理装置について説明する。本実施形態の情報処理装置は、実施形態1の情報処理装置10と同様の構成を有するので、構成についての説明は省略する。
 本実施形態では、学習モデル12Mは、図2に示す実施形態1の学習モデル12Mと同様の構成を有するが、情報処理装置10は、学習モデル12Mからの出力値(判別確率)のうちで大きい方の出力値を出力した出力ノードに対応付けられている状態(低老化又は高老化)に、入力された評価対象細胞画像中の細胞を判別する。例えば図2上側に示す例では、出力ノード0からの出力値が出力ノード1からの出力値よりも大きいので、情報処理装置10は、入力画像中の評価対象細胞を低老化細胞と判別する。また図2下側に示す例では、出力ノード1からの出力値が出力ノード0からの出力値よりも大きいので、情報処理装置10は、入力画像中の評価対象細胞を高老化細胞と判別する。本実施形態の学習モデル12Mは、低老化細胞に対する判別確率及び高老化細胞に対する判別確率を出力する2つの出力ノードを有する代わりに、判別確率が大きい方の老化状態(低老化又は高老化)を示す情報を出力する1つの出力ノードを有する構成でもよい。
 入力された複数の評価対象細胞画像について、上記の方法で分類、判別された後、いずれかの分類に属する評価対象細胞画像の全体枚数中の割合を算出し、当該数値を評価対象細胞画像に含まれる細胞の老化度として出力する。上記実施態様では、具体的には、入力された複数の評価対象細胞画像について高老化細胞と判別された割合を、当該評価対象細胞の老化度とすることにより、評価対象細胞の老化の程度を定量的にスコアリングできる。
 本実施形態の情報処理装置10において、モデル細胞画像から訓練データを生成する処理と、訓練データを用いて学習モデル12Mを学習する処理とは、実施形態1と同様である。具体的には、情報処理装置10の制御部11は、図6に示す訓練データの生成処理と同様の処理の実行が可能であり、図7に示す学習モデル12Mの学習処理と同様の処理の実行が可能である。これにより、本実施形態においても、図2に示すような学習モデル12Mが生成される。
 図10は実施形態2の老化度の算出処理手順の一例を示すフローチャートである。図10に示す処理は、図8に示す処理において、ステップS33~S34の代わりにステップS41~S42を追加し、ステップS36の代わりにステップS43を追加したものである。図8と同じステップについては説明を省略する。
 本実施形態の情報処理装置10の制御部11は、図8中のステップS31~S32と同様の処理を行う。制御部11は、入力された評価対象細胞画像を、学習モデル12Mの出力値から分類、判別し、当該分類結果を老化情報として出力する(S41)。具体的には、制御部11は、学習モデル12Mからの出力値のうちで大きい方の出力値を特定し、大きい方の出力値を出力した出力ノードに対応付けられている老化状態(低老化又は高老化)を、ここでの評価対象細胞の老化情報として出力する。
 制御部11は、入力された複数の評価対象細胞画像の判別結果である老化情報に基づいて、各分類に属する評価対象細胞画像の枚数を計数する(S42)。具体的には、制御部11は、ステップS41で、評価対象細胞画像の老化情報を低老化細胞とした場合、低老化細胞の判別枚数に1を加算し、ステップS41で、評価対象細胞画像の老化情報を高老化細胞とした場合、高老化細胞の判別枚数に1を加算する。制御部11は、計数した各分類に属する評価対象細胞画像の枚数を記憶部12に記憶しておく。制御部11は、入力された全ての評価対象細胞画像について、ステップS41~S42の処理を繰り返し、評価対象細胞画像の老化情報を収集する。
 制御部11は、未処理の評価対象細胞画像がないと判断した場合(S35:NO)、ステップS42で計数した各分類に属する評価対象細胞画像の枚数に基づいて、高老化細胞、または低老化細胞に判別された評価対象細胞画像の割合を算出する(S43)。例えば制御部11は、(高老化細胞の判別枚数)/((高老化細胞の判別枚数)+(低老化細胞の判別枚数))の式を用いて高老化細胞の判別割合を算出する。制御部11は、算出した高老化細胞、または低老化細胞の判別割合を、評価対象細胞の老化度として出力する(S37)。ここでも制御部11は、図9に示すような結果画面を表示部15に表示して、評価対象細胞の老化度をユーザ(検査者)に通知する。本実施形態においても、老化度は、評価対象細胞の老化の程度を定量的に表すことが可能な数値であるので、老化度によって評価対象細胞の老化の程度を容易に評価できる。
 本実施形態では、上述した実施形態1と同様の効果が得られる。また、本実施形態においても、上述した実施形態1で適宜説明した変形例の適用が可能である。
(実施形態3)
 上述した実施形態1の学習モデル12Mを用いて薬剤のスクリーニングを行う情報処理装置について説明する。本実施形態では、老化抑制剤、老化誘導剤、老化細胞死誘導剤のスクリーニング処理について説明する。本実施形態の情報処理装置は、実施形態1の情報処理装置10と同様の構成を有するので、構成についての説明は省略する。また、本実施形態の情報処理装置10において、モデル細胞画像から訓練データを生成する処理と、訓練データを用いて学習モデル12Mを学習する処理とは、実施形態1と同様である。よって、本実施形態においても、図2に示すような学習モデル12Mが生成される。
 図11は薬剤のスクリーニング処理手順の一例を示すフローチャート、図12は画面例を示す説明図である。薬剤のスクリーニング処理を行う場合、ユーザは、スクリーニング対象の各薬剤について、薬剤の存在下で評価対象の細胞を培養して第1細胞を生成し、当該薬剤の非存在下または第1細胞を培養した薬剤の濃度と異なる濃度の薬剤の存在下で評価対象の細胞を培養して第2細胞を生成する。そしてユーザは、第1細胞の老化度と、第2細胞の老化度とを比較することにより、当該薬剤の有効性を判断する。多くの薬剤の評価対象細胞への有効性を確認するハイスループットスクリーニングを行う場合には、スクリーニング対象の全ての薬剤について有効性を判断することにより、効果が得られる薬剤を抽出することができる。評価対象細胞の老化度は、評価対象の細胞を撮影した細胞画像を学習モデル12Mに入力することによって得ることができる。ユーザは、スクリーニング対象の各薬剤について、第1細胞の評価対象細胞画像(第1画像)及び第2細胞の評価対象細胞画像(第2画像)をそれぞれ複数枚ずつ用意する。第1細胞及び第2細胞はそれぞれ1種類に限らず、例えば評価対象薬剤の濃度を換えて複数種類評価対象細胞を調製し、それぞれの評価対象細胞の画像を複数の第1画像、あるいは複数の第2画像として比較検討することができる。
 ここで、老化度を比較するとは、具体的には、例えば、前記ストレッサーを用いて細胞にストレスをかけて老化を誘導した後、当該老化細胞を50mM濃度の評価対象薬剤Aの存在化で培養した評価対象第1細胞の老化度(50mM老化度)と、評価対象薬剤の非存在化で培養した評価対象細胞の老化度(非添加老化度)と、さらには200mM濃度の評価対象薬剤Aの存在化で培養した評価対象細胞の老化度(200mM老化度)を比較して、老化度が非添加老化度>50mM老化度>200mM老化度となっていた場合には、当該評価対象薬剤Aは評価対象細胞に対して老化抑制剤または老化細胞死誘導剤として有効であると判断することができる。また、老化度が非添加老化度<50mM老化度<200mM老化度となっていた場合には、当該評価対象薬剤Aは評価対象細胞に対して老化誘導剤として有効であると判断することができる。本発明の方法によれば、ユーザは、評価対象細胞画像を数万枚用意するだけで、本情報処理装置によりその画像中の細胞の老化度を数値として取得できるため、特に評価対象薬剤の数が多いハイスループットスクリーニングを行う場合に大きな効果を有するものである。
 本実施形態の情報処理装置10の制御部11は、1つの薬剤について第1細胞の評価対象細胞画像及び第2細胞の評価対象細胞画像を取得する(S51)。そして、制御部11は、第1細胞の評価対象細胞画像に基づいて、第1細胞の老化度を算出する(S52)。ここでは制御部11は、第1細胞の複数の評価対象細胞画像に対して、図8の処理と同様の処理を実行することにより、第1細胞の老化度を算出する。具体的には、制御部11は、第1細胞の複数の評価対象細胞画像をそれぞれ学習モデル12Mに入力して各画像中の第1細胞の老化情報を出力し、当該老化情報の平均値を算出し、当該第1細胞の老化度とする。
 同様に制御部11は、第2細胞の評価対象細胞画像に基づいて第2細胞の老化度を算出する(S53)。ここでも制御部11は、第2細胞の複数の評価対象細胞画像に対して、図8の処理と同様の処理を実行し、第2細胞の老化度を算出する。具体的には、制御部11は、第2細胞の複数の評価対象細胞画像をそれぞれ学習モデル12Mに入力して各画像中の第2細胞の老化情報を出力し、当該老化情報の平均値を算出し、当該第2細胞の老化度とする。
 そして制御部11は、第1細胞の老化度と第2細胞の老化度とを比較する(S54)。例えば制御部11は、第2細胞の老化度を基準とした第1細胞の老化度の増減値または比率を比較結果として算出する。制御部11は、算出した比較結果を記憶部12に記憶する(S55)。制御部11は、スクリーニング対象の薬剤のうちで、上述した老化度の比較処理が行われていない薬剤(未処理の薬剤)があるか否かを判断する(S56)。制御部11は、未処理の薬剤があると判断した場合(S56:YES)、ステップS51の処理に戻り、未処理の薬剤についてステップS51~S55の処理を行う。具体的には、制御部11は、未処理の薬剤のうちの1つについて第1細胞の評価対象細胞画像及び第2細胞の評価対象細胞画像を取得し、第1細胞の評価対象細胞画像に基づいて当該第1細胞の老化度を算出し、第2細胞の評価対象細胞画像に基づいて当該第2細胞の老化度を算出し、2つの老化度の比較結果を取得する。
 制御部11は、未処理の薬剤がないと判断するまでステップS51~S55の処理を繰り返す。これにより、スクリーニング対象の各薬剤について、第1細胞の老化度及び第2細胞の老化度の比較結果を収集することができる。制御部11は、未処理の薬剤がないと判断した場合(S56:NO)、各薬剤について算出した第1細胞の老化度及び第2細胞の老化度の比較結果から、効果が高い薬剤を抽出する(S57)。例えば制御部11は、第2細胞の老化度を基準とした第1細胞の老化度の増減値または比率が高い順に所定数の薬剤を抽出する。又は、制御部11は、前記老化度の増減値または比率が所定値以上である薬剤を抽出してもよい。具体的には、ABT263による老化細胞の除去の有効性を、学習モデル12Mを用いた老化度によって評価することができた。
 制御部11は、効果が高い薬剤として抽出した薬剤を表示部15に表示する(S58)。例えば制御部11は、図12に示すように、効果が高いと判定された順に、各薬剤の名称、第1細胞及び第2細胞の老化度の比較結果、第1細胞及び第2細胞の評価対象細胞画像等を表示した結果画面を表示部15に表示する。図12には、キナーゼ阻害剤ライブラリに含まれる各薬剤について、学習モデル12Mを用いて有効性を評価した結果を通知する画面例を示しており、有効性が高い順に、テレイン酸、Meck阻害剤(PD-98059)、ダイゼイン、Rock阻害剤(Y-27632・2HCl)が表示されている。図12に示す例では、各薬剤について、非添加時の評価対象細胞画像及び老化度と、添加後の評価対象細胞画像及び老化度と、老化度の変化量とが表示されている。これにより、効果が高い薬剤を効果が高い順にユーザ(検査者)に通知することができ、ユーザは、効果が高い薬剤について、非添加時の第1細胞の画像及び添加時の第2細胞の画像と共に、老化度の比較結果を把握できる。
 上述した処理により、複数種類の薬剤のうちで老化を抑制又は誘導する効果が得られる薬剤、及び老化細胞死誘導剤を抽出するスクリーニングが可能となる。また、本実施形態の学習モデル12Mを用いることにより、抗酸化作用を有するMetformin及びNMN(β-Nicotinamide Mononucleotide)等の既知の抗老化薬の有効性を評価することができた。
 本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、学習モデル12Mを用いて、老化抑制剤、老化誘導剤、老化細胞死誘導剤の各薬剤の非投与細胞、異なる濃度で投与された細胞の老化度を算出することにより、各薬剤の有効性を評価することができる。具体的には、老化抑制剤については細胞の老化が進まないことを確認できた場合に薬剤の有効性を評価することができ、老化誘導剤については細胞の老化が進むことを確認できた場合に薬剤の有効性を評価することができ、老化細胞死誘導剤については老化細胞の数が減少したことを確認できた場合に薬剤の有効性を評価することができる。
 本実施形態の構成は、上述した実施形態1~2の情報処理装置10に適用可能であり、実施形態1~2の情報処理装置10に適用した場合であっても同様の効果が得られる。また、本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。
(実施形態4)
 上述した実施形態3では、薬剤の有効性を判定するスクリーニング処理について説明した。本実施形態では、1種類の薬剤の至適濃度を判定する情報処理装置について説明する。本実施形態では、老化抑制剤の至適濃度を判定する処理について説明するが、老化誘導剤及び老化細胞死誘導剤についても同様の処理によって至適濃度を判定できる。本実施形態の情報処理装置は、実施形態1の情報処理装置10と同様の構成を有するので、構成についての説明は省略する。また、本実施形態の情報処理装置10において、モデル細胞画像から訓練データを生成する処理と、訓練データを用いて学習モデル12Mを学習する処理とは、実施形態1と同様である。よって、本実施形態においても、図2に示すような学習モデル12Mが生成される。
 図13は薬剤の至適濃度の判定処理手順の一例を示すフローチャート、図14は画面例を示す説明図である。薬剤の至適濃度の判定処理を行う場合、ユーザは、判定対象の薬剤について、複数種類(2種類以上)の濃度の当該薬剤の存在下で評価対象の細胞を培養して複数種類の評価対象細胞を生成する。またユーザは、当該薬剤の非存在下で評価対象の細胞を培養してコントロール細胞を生成してもよい。そしてユーザは、複数種類の薬剤濃度の存在下で培養された細胞のそれぞれの老化度と、必要に応じてコントロール細胞の老化度とを比較することにより、当該薬剤の至適濃度を判定する。ユーザは、評価対象の全ての濃度について当該薬剤の評価対象細胞への有効性を判断することにより、最も効果が得られる濃度を特定することができる。本実施形態でも、評価対象の細胞の老化度は、評価対象細胞画像を学習モデル12Mに入力することによって得られる。ユーザは、評価対象の各濃度について評価対象細胞画像と、必要に応じてコントロール細胞画像とを上述のとおり用意する。
 本実施形態の情報処理装置10の制御部11は、至適濃度判定対象の薬剤の1つの濃度について、当該濃度の薬剤の存在下で培養した評価対象細胞の評価対象細胞画像を取得する(S61)。そして、制御部11は、取得した評価対象細胞画像に基づいて、当該細胞の老化度を算出する(S62)。これを異なる濃度の当該薬剤の存在下で培養した評価対象細胞について繰り返し、それぞれの細胞の老化度を算出する。ここでは制御部11は、1つの濃度(例えば50mM)の薬剤の存在化で培養した細胞について上述のとおり複数の評価対象細胞画像を入力し、図8の処理と同様の処理を実行することにより、当該濃度(例えば50mM)の薬剤の存在化で培養した細胞の老化度を算出する。制御部11は、算出した上記細胞の老化度を当該薬剤の特定の濃度(例えば50mM)の結果として記憶部12に記憶しておく。
 制御部11は、判定対象の濃度のうちで、上述した老化度の算出処理が行われていない濃度(未処理の濃度)があるか否かを判断する(S63)。制御部11は、未処理の濃度があると判断した場合(S63:YES)、ステップS61の処理に戻り、未処理の濃度についてステップS61~S62の処理を行う。具体的には、制御部11は、未処理の濃度のうちの1つについて評価対象細胞画像を取得し、当該画像に基づいて評価対象細胞の老化度を算出する。
 制御部11は、未処理の濃度がないと判断するまでステップS61~S62の処理を繰り返す。これにより、評価対象の各濃度について評価対象細胞の老化度を収集することができる。制御部11は、未処理の濃度がないと判断した場合(S63:NO)、必要に応じて当該薬剤の非存在下で培養したコントロール細胞の評価対象細胞画像を取得する(S64)。そして、制御部11は、取得したコントロール細胞画像に基づいて、当該コントロール細胞の老化度を算出する(S65)。ここでも制御部11は、コントロール細胞の複数の細胞画像に対して、図8の処理と同様の処理を実行し、コントロール細胞の老化度を算出する。
 制御部11は、ステップS62で算出した各濃度の薬剤の存在下で培養した評価対象細胞の老化度と、必要に応じてステップS65で算出したコントロール細胞の老化度とに基づいて、当該薬剤の至適濃度を判定する(S66)。例えば制御部11は、老化抑制剤の場合には、コントロール細胞の老化度を基準として、細胞の老化度が低くなっている評価対象細胞における薬剤濃度を、当該老化抑制剤の至適濃度と判断することができる。例えばコントロール細胞の老化度が0.8であり、第1濃度の薬剤の存在下で培養した評価対象細胞の老化度が0.6であり、第2濃度(第1濃度<第2濃度)の薬剤の存在下で培養した評価対象細胞の老化度が0.4であり、第3濃度(第2濃度<第3濃度)の薬剤の存在下で培養した評価対象細胞の老化度が0.2であり、第4濃度(第3濃度<第4濃度)の薬剤の存在下で培養した評価対象細胞の老化度が0.2であった場合、制御部11は、第3~第4濃度を至適濃度に特定することができる。
 制御部11は、判定結果(特定した至適濃度)を表示部15に表示する(S67)。例えば制御部11は、図14に示すように、判定対象の薬剤の濃度が低い順に、各濃度、各濃度の薬剤の存在下で培養した評価対象細胞の老化度及び細胞画像等を表示した結果画面を表示部15に表示する。図14に示す例では、薬剤の非存在下で培養したコントロール細胞の老化度及び細胞画像(薬剤の非添加時)と、各濃度について薬剤の存在下で培養した評価対象細胞の老化度及び細胞画像と、第3濃度が至適濃度に特定されたことを示すマークとが表示されている。これにより、各濃度での薬剤の効果をユーザ(検査者)に通知することができ、ユーザは、各濃度について、評価対象細胞の画像と共に、薬剤添加後の老化度を把握でき、当該薬剤の至適濃度を把握できる。
 本実施形態の構成は、上述した実施形態1~3の情報処理装置10に適用可能であり、実施形態1~3の情報処理装置10に適用した場合であっても同様の効果が得られる。具体的には、実施形態1~2の情報処理装置10に適用した場合、任意の評価対象細胞の老化度を算出できると共に、任意の薬剤について至適濃度を特定することができる。なお、本実施形態において、評価対象細胞の老化度を算出する処理は、図10に示した実施形態2の処理を用いてもよい。この場合でも同様の処理の実行が可能であり、同様の効果が得られる。また、実施形態3の情報処理装置10に適用した場合、複数種類の薬剤に対するスクリーニング処理を実行できると共に、各薬剤について至適濃度を特定することができる。また、本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。
(実施形態5)
 上述した実施形態3では、薬剤の有効性を判定するスクリーニング処理について説明した。本実施形態では、薬剤のスクリーニング処理の結果を用いて薬剤を製造する方法について説明する。本実施形態では、老化抑制剤の製造方法について説明するが、老化誘導剤及び老化細胞死誘導剤についても同様の処理によって製造することができる。本実施形態の情報処理装置は、実施形態1の情報処理装置10と同様の構成を有するので、構成についての説明は省略する。また、本実施形態の情報処理装置10においても、モデル細胞画像から訓練データを生成する処理と、訓練データを用いて学習モデル12Mを学習する処理とは、実施形態1と同様である。よって、本実施形態においても、図2に示すような学習モデル12Mが生成される。
 図15は薬剤の製造処理手順の一例を示すフローチャートである。図15に示す処理は、図11に示す処理においてステップS58の代わりにステップS71を追加したものである。図11と同じステップについては説明を省略する。本実施形態の情報処理装置10の制御部11は、図11中のステップS51~S57と同様の処理を行う。これにより、本実施形態においても、薬剤について、特定濃度の評価対象薬剤の存在下で培養した第1細胞の老化度と、非存在下、または第1細胞と異なる濃度の薬剤の存在下で培養した第2細胞の老化度との比較結果に基づいて当該評価対象薬剤の有効性を評価することができる。
 本実施形態では、情報処理装置10の制御部11は、ステップS57の処理後、効果が高い薬剤として抽出した薬剤を製造する処理を行う(S71)。すなわち、本発明は上記で選択された薬剤を製剤化して薬剤として製造する方法も含む。なお、本実施形態では、例えば図12に示すような画面を表示部15に表示して、効果が高い薬剤として抽出した薬剤をユーザに提示し、提示した薬剤のうちでユーザが選択した薬剤について製造処理を行ってもよい。薬剤の製造処理は、補助剤、賦形剤、希釈剤、又は安定剤等の添加剤を用いて、薬剤学の分野で通常使用される方法によって薬剤を製造する処理である。
 本実施形態では、薬剤を製造する際に、学習モデル12Mを用いて、老化抑制剤、老化誘導剤、老化細胞死誘導剤の各薬剤の非投与細胞、異なる濃度で投与された細胞の老化度を算出することにより、各薬剤の有効性を評価することができる。よって、高い有効性が評価された薬剤を製造することが可能となる。
 本実施形態の構成は、上述した実施形態1~4の情報処理装置10に適用可能であり、実施形態1~4の情報処理装置10に適用した場合であっても同様の効果が得られる。なお、本実施形態において、評価対象の細胞の老化度を算出する処理は、図10に示した実施形態2の処理を用いてもよい。この場合でも同様の処理の実行が可能であり、同様の効果が得られる。また、本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。
 上述した実施形態1~5では、細胞の老化情報を学習モデル12Mを用いて判定し、判定結果を用いて各種の処理を行う情報処理装置10について説明した。学習モデル12Mは、入力画面中の細胞の形態を自動判定するので、老化以外にも、細胞の外見を変化させる疾患の進行度、あるいは当該細胞の状態の悪化度の判定に本発明を用いることができる。このような疾患としては、例えば、がん等が挙げられる。また、このような疾患の進行度、あるいは細胞の状態の悪化度を本発明により測定し得ることにより、当該疾患の治療薬、予防薬、あるいは細胞の状態の悪化抑制剤、状態が悪化した細胞死誘導剤等のスクリーニングを行うことができ、さらに当該スクリーニング方法により選択された薬剤を製剤化することにより、上記医薬品を製造する方法も本発明により提供される。さらに、細胞の外見を変化させる状態として、例えば多能性幹細胞等から分化誘導をかけた場合の細胞の分化状態や、分化途中の細胞の機能的変化であって、当該機能変化が細胞の外見に表れるもの等も挙げられる。具体的には、例えば、多能性幹細胞から分化誘導された心筋細胞について、その成熟度や凝集のしやすさ等を評価する方法、さらには当該細胞の分化誘導方法の最適化を行う場合や、分化させた細胞の品質確認等の際に、細胞の分化マーカを免疫染色等により確認せずとも、本発明の方法で細胞の状態を簡便に評価することができる。
 今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、本発明者である「楠本大」著の論文名「Anti-senescent drug screening by deep learning-based morphology senescence scoring」の論文が、英国科学誌「Nature Communications」のvolume 12, Article number: 257 (2021)に掲載された。当該論文に記載された方法は、本開示における評価対象細胞の老化度の算出方法の一例として挙げられる。また、当該論文の記載事項はすべて本願発明の範囲に含まれる。
 10  情報処理装置
 11  制御部
 12  記憶部
 13  通信部
 14  入力部
 15  表示部
 12a 細胞画像DB
 12b 訓練DB
 12M 学習モデル
 

Claims (21)

  1.  細胞の画像を取得し、
     細胞の画像を入力した場合に前記画像中の細胞の老化情報を出力するように学習された学習モデルに、取得した前記細胞の画像を入力して前記細胞の老化度を出力する
     処理をコンピュータに実行させるプログラム。
  2.  前記細胞の画像を複数取得し、
     前記複数の細胞の画像のそれぞれを前記学習モデルに入力し、それぞれの画像中の細胞の老化情報を取得し、
     前記複数の画像中の細胞の老化情報の平均値を、前記細胞の老化度として算出する
     処理を前記コンピュータに実行させる請求項1に記載のプログラム。
  3.  前記学習モデルは、前記細胞の画像を入力した場合に前記画像中の細胞を高老化細胞又は低老化細胞に分類するように学習させたものである
     請求項1又は2に記載のプログラム。
  4.  前記細胞の画像を複数取得し、
     前記複数の細胞の画像のそれぞれを前記学習モデルに入力し、それぞれの画像中の細胞を高老化細胞又は低老化細胞に分類した判別結果を取得し、
     前記複数の画像中の細胞の判別結果の割合に基づいて、前記細胞の老化度を算出する
     処理を前記コンピュータに実行させる請求項3に記載のプログラム。
  5.  前記学習モデルは、低老化細胞を撮影した画像と、低老化細胞であることを示す情報とを含む訓練データ、並びに、前記低老化細胞と同じ細胞の高老化細胞を撮影した画像と、高老化細胞であることを示す情報とを含む訓練データを用いて学習してある
     請求項1~4のいずれかひとつに記載のプログラム。
  6.  前記訓練データに含まれる高老化細胞の画像は、少なくとも2回以上同様の作成方法で作成された高老化細胞をそれぞれ撮影した画像を含む
     請求項5に記載のプログラム。
  7.  前記低老化細胞は、細胞において検出したい老化度の下限程度に老化が誘導された細胞であり、
     前記高老化細胞は、細胞において検出したい老化度の上限程度に老化が誘導された細胞である
     請求項3~6のいずれかひとつに記載のプログラム。
  8.  前記学習モデルは、畳み込みニューラルネットワークを用いて構成されている
     請求項1~7のいずれかひとつに記載のプログラム。
  9.  前記細胞は、血管内皮細胞、線維芽細胞、間葉系細胞、神経細胞、平滑筋細胞、血球細胞のいずれかである
     請求項1~8のいずれかひとつに記載のプログラム。
  10.  前記細胞の画像は、顕微鏡下で広い視野で撮影した画像を分割したものである
     請求項1~9のいずれかひとつに記載のプログラム。
  11.  薬剤の存在下で培養された第1細胞の第1画像及び前記薬剤の非存在下または前記第1細胞とは異なる濃度の前記薬剤の存在下で培養された第2細胞の第2画像を取得し、
     請求項1~10のいずれかひとつに記載のプログラムを用いて、取得した前記第1画像及び第2画像をそれぞれ前記学習モデルに入力して前記第1画像中の第1細胞の老化度及び前記第2画像中の第2細胞の老化度を出力し、
     前記第1細胞の老化度と、前記第2細胞の老化度とを比較する
     処理を含む老化抑制剤、老化誘導剤、または老化細胞死誘導剤のスクリーニング方法。
  12.  同じ種類で異なる濃度の薬剤の存在下で培養された2種類以上の細胞の画像を取得し、
     請求項1~10のいずれかひとつに記載のプログラムを用いて、取得した前記画像をそれぞれ前記学習モデルに入力して、それぞれの画像中の細胞の老化度を出力し、
     それぞれの細胞の老化度を比較する
     処理を含む老化抑制剤、老化誘導剤、または老化細胞死誘導剤の至適濃度の特定方法。
  13.  薬剤の存在下で培養された第1細胞の第1画像及び前記薬剤の非存在下または前記第1細胞とは異なる濃度の前記薬剤の存在下で培養された第2細胞の第2画像を取得し、
     請求項1~10のいずれかひとつに記載のプログラムを用いて、取得した前記第1画像及び第2画像をそれぞれ前記学習モデルに入力して前記第1画像中の第1細胞の老化度及び前記第2画像中の第2細胞の老化度を出力し、
     前記第1細胞の老化度と、前記第2細胞の老化度とを比較することにより老化抑制剤、老化誘導剤、または老化細胞死誘導剤を特定し、
     特定した薬剤を製造する
     処理を含む薬剤製造方法。
  14.  細胞の画像と、前記画像中の細胞の老化情報とを含む訓練データを取得し、
     取得した訓練データを用いて、前記訓練データに含まれる細胞の画像を入力した場合に前記画像中の細胞の老化情報を出力する学習モデルを生成する
     処理をコンピュータが実行するモデル生成方法。
  15.  前記訓練データは、低老化細胞を撮影した画像と、低老化細胞であることを示す情報とを含む訓練データ、並びに、前記低老化細胞と同じ細胞の高老化細胞を撮影した画像と、高老化細胞であることを示す情報とを含む訓練データを含む
     請求項14に記載のモデル生成方法。
  16.  前記訓練データに含まれる高老化細胞の画像は、少なくとも2回以上同様の作成方法で作成された高老化細胞をそれぞれ撮影した画像を含む
     請求項15に記載のモデル生成方法。
  17.  前記低老化細胞は、細胞において検出したい老化度の下限程度に老化が誘導された細胞であり、
     前記高老化細胞は、細胞において検出したい老化度の上限程度に老化が誘導された細胞である
     請求項15又は16に記載のモデル生成方法。
  18.  前記学習モデルは、畳み込みニューラルネットワークを用いて構成されている
     請求項14~17のいずれかひとつに記載のモデル生成方法。
  19.  前記細胞は、血管内皮細胞、線維芽細胞、間葉系細胞、神経細胞、平滑筋細胞、血球細胞のいずれかである
     請求項14~18のいずれかひとつに記載のモデル生成方法。
  20.  細胞の画像を取得し、
     細胞の画像を入力した場合に前記画像中の細胞の老化情報を出力するように学習された学習モデルに、取得した前記細胞の画像を入力して前記細胞の老化度を出力する
     処理をコンピュータが実行する情報処理方法。
  21.  細胞の画像を取得する取得部と、
     細胞の画像を入力した場合に前記画像中の細胞の老化情報を出力するように学習された学習モデルに、取得した前記細胞の画像を入力して前記細胞の老化度を出力する出力部と
     を備える情報処理装置。
     
PCT/JP2022/000581 2022-01-11 2022-01-11 プログラム、スクリーニング方法、至適濃度の特定方法、薬剤製造方法、モデル生成方法、情報処理方法、及び情報処理装置 WO2023135650A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/000581 WO2023135650A1 (ja) 2022-01-11 2022-01-11 プログラム、スクリーニング方法、至適濃度の特定方法、薬剤製造方法、モデル生成方法、情報処理方法、及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/000581 WO2023135650A1 (ja) 2022-01-11 2022-01-11 プログラム、スクリーニング方法、至適濃度の特定方法、薬剤製造方法、モデル生成方法、情報処理方法、及び情報処理装置

Publications (1)

Publication Number Publication Date
WO2023135650A1 true WO2023135650A1 (ja) 2023-07-20

Family

ID=87278570

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/000581 WO2023135650A1 (ja) 2022-01-11 2022-01-11 プログラム、スクリーニング方法、至適濃度の特定方法、薬剤製造方法、モデル生成方法、情報処理方法、及び情報処理装置

Country Status (1)

Country Link
WO (1) WO2023135650A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190228840A1 (en) * 2018-01-23 2019-07-25 Spring Discovery, Inc. Methods and Systems for Determining the Biological Age of Samples

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190228840A1 (en) * 2018-01-23 2019-07-25 Spring Discovery, Inc. Methods and Systems for Determining the Biological Age of Samples

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Identification of drug candidates that suppress vascular aging by senescence scoring based on A1 image recognition - High-speed, low-cost, large-scale screening for drug discovery", 12 January 2021 (2021-01-12), XP093080683, Retrieved from the Internet <URL:https://www.keio.ac.jp/ja/press-releases/files/2021/1/12/210112-1.pdf> [retrieved on 20230911] *
DAI KUSUMOTO, SHINSUKE YUASA, KEIICHI FUKUDA: "O5-6: Application of image recognition system using deep learning to disease drug discovery", PROGRAMS AND ABSTRACTS OF THE 40TH ANNUAL MEETING OF JAPAN SOCIETY OF CIRCULATION CONTROL IN MEDICINE; JUNE 7TH - JUNE 8TH, 2019, JAPAN SOCIETY OF CIRCULATION CONTROL IN MEDICINE, JP, 21 May 2019 (2019-05-21) - 8 June 2019 (2019-06-08), JP, pages 64, XP009548081 *
KUSUMOTO DAI, SEKI TOMOHISA, SAWADA HIROMUNE, KUNITOMI AKIRA, KATSUKI TOSHIOMI, KIMURA MAI, ITO SHOGO, KOMURO JIN, HASHIMOTO HISAY: "Anti-senescent drug screening by deep learning-based morphology senescence scoring", NATURE COMMUNICATIONS, vol. 12, no. 1, XP093080668, DOI: 10.1038/s41467-020-20213-0 *
KUSUMOTO DAI: "Deep-SeSMo ", 14 January 2021 (2021-01-14), XP093080681, Retrieved from the Internet <URL:https://github.com/Dai-Kusumoto/Deep-SeSMO> [retrieved on 20230911] *
KUSUMOTO DAI: "Development of anti-atherosclerotic drugs using deep learning-based image analysis", GRANTS-IN-AID FOR SCIENTIFIC RESEARCH DATABASE; KAKENHI-PROJECT-19K08549, 27 December 2021 (2021-12-27), XP093080680, Retrieved from the Internet <URL:https://kaken.nii.ac.jp/ja/grant/KAKENHI-PROJECT-19K08549> [retrieved on 20230911] *
KUSUMOTO DAI: "Development of new anti-arteriosclerosis drugs from microscopic images using deep learning image analysis ", 2019 IMPLEMENTATION STATUS REPORT; GRANTS-IN-AID FOR SCIENTIFIC RESEARCH DATABASE, 1 January 2019 (2019-01-01), XP093080675, Retrieved from the Internet <URL:https://kaken.nii.ac.jp/ja/report/KAKENHI-PROJECT-19K08549/19K085492019hokoku> [retrieved on 20230911] *
KUSUMOTO DAI: "Development of new anti-arteriosclerosis drugs from microscopic images using deep learning image analysis ", 2020 IMPLEMENTATION STATUS REPORT; GRANTS-IN-AID FOR SCIENTIFIC RESEARCH DATABASE, 1 January 2020 (2020-01-01), XP093080678, Retrieved from the Internet <URL:https://kaken.nii.ac.jp/ja/report/KAKENHI-PROJECT-19K08549/19K085492020hokoku> [retrieved on 20230911] *
KUSUMOTO, DAI ET AL.: "Abstract 13576: Anti-senescent Drug Screening by Deep Learning- based Morphology Senescence Scoring", CIRCULATION, vol. 142, 12 November 2020 (2020-11-12), Retrieved from the Internet <URL:https://www.ahajournals.org/doi/10.1161/circ.142.suppl_3.13576> [retrieved on 20220314] *
KUSUMOTO, DAI ET AL.: "P1-JV-3: Screening anti-vascular aging agents and identification of novel anti-aging drugs by image analysis using deep learning", PROGRAMS AND ABSTRACTS OF THE 23RD SCIENTIFIC SESSION OF THE SOCIETY OF CARDIOVASCULAR ENDOCRINOLOGY AND METABOLISM; DECEMBER 14TH -15TH, 2019, SOCIETY OF CARDIOVASCULAR ENDOCRINOLOGY AND METABOLISM, JP, 2 December 2019 (2019-12-02) - 15 December 2019 (2019-12-15), JP, pages 101, XP009548080 *

Similar Documents

Publication Publication Date Title
Haloi Improved microaneurysm detection using deep neural networks
JP2021000442A (ja) 画像分析の方法及びシステム
US8831327B2 (en) Systems and methods for tissue classification using attributes of a biomarker enhanced tissue network (BETN)
CN107533649A (zh) 使用图像分类的自动脑肿瘤诊断方法和系统
Lu et al. A method for optimal detection of lung cancer based on deep learning optimized by marine predators algorithm
Alok et al. Deep learning‐based image classifier for malaria cell detection
Junayed et al. ScarNet: development and validation of a novel deep CNN model for acne scar classification with a new dataset
El Gannour et al. COVID-19 Detection on x-ray images using a combining mechanism of pre-trained CNNs
JP7197795B2 (ja) 機械学習プログラム、機械学習方法および機械学習装置
Gill et al. An Efficient VGG19 Framework for Malaria Detection in Blood Cell Images
Bhosale et al. Bio-medical imaging (X-ray, CT, ultrasound, ECG), genome sequences applications of deep neural network and machine learning in diagnosis, detection, classification, and segmentation of COVID-19: a Meta-analysis & systematic review
Wang et al. Differentiating operator skill during routine fetal ultrasound scanning using probe motion tracking
Shivsharan et al. Diabetic retinopathy detection using optimization assisted deep learning model: outlook on improved Grey Wolf algorithm
WO2022061176A1 (en) Methods and systems for predicting neurodegenerative disease state
ÇETİNER et al. Classification of cataract disease with a DenseNet201 based deep learning model
WO2023135650A1 (ja) プログラム、スクリーニング方法、至適濃度の特定方法、薬剤製造方法、モデル生成方法、情報処理方法、及び情報処理装置
Kumar et al. A hybrid deep model with concatenating framework of convolutional neural networks for identification of autism spectrum disorder
Muis et al. CNN-based Approach for Enhancing Brain Tumor Image Classification Accuracy
Ahmed et al. Malaria Parasite Detection Using CNN-Based Ensemble Technique on Blood Smear Images
Pathak et al. Diagnosis and Analysis of Tuberculosis Disease Using Simple Neural Network and Deep Learning Approach for Chest X-Ray Images
Fathima et al. Analysis Of Machine Learning Algorithm for Prognostication of Parkinson’s Disease Using Speech Articulation
Tiwari et al. Detection of Tuberculosis Bacilli Using Deep Learning
Anusha et al. Glaucoma Detection Using the YOLO V5 Algorithm
Varma et al. Early Detection of Alzheimer’s Disease Using SVM, Random Forest & FNN Algorithms
Mounika et al. A Deep Hybrid Neural Network Model to Detect Diabetic Retinopathy from Eye Fundus Images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22920176

Country of ref document: EP

Kind code of ref document: A1