WO2023238756A1 - ウイルス粒子検出方法、情報処理装置及びウイルス粒子検出プログラム - Google Patents

ウイルス粒子検出方法、情報処理装置及びウイルス粒子検出プログラム Download PDF

Info

Publication number
WO2023238756A1
WO2023238756A1 PCT/JP2023/020378 JP2023020378W WO2023238756A1 WO 2023238756 A1 WO2023238756 A1 WO 2023238756A1 JP 2023020378 W JP2023020378 W JP 2023020378W WO 2023238756 A1 WO2023238756 A1 WO 2023238756A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
particle
virus
learning
type
Prior art date
Application number
PCT/JP2023/020378
Other languages
English (en)
French (fr)
Inventor
尚巳 岡田
恭成 松坂
美加子 和田
Original Assignee
国立大学法人 東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人 東京大学 filed Critical 国立大学法人 東京大学
Publication of WO2023238756A1 publication Critical patent/WO2023238756A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/50Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing
    • G01N33/53Immunoassay; Biospecific binding assay; Materials therefor
    • G01N33/569Immunoassay; Biospecific binding assay; Materials therefor for microorganisms, e.g. protozoa, bacteria, viruses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present invention relates to a virus particle detection method, an information processing device, and a virus particle detection program.
  • adeno-associated virus which hosts primates such as humans, is a non-pathogenic virus that can infect proliferating cells and non-propagating cells.
  • AAV vectors which are AAV recombinant vectors, have been applied to various diseases as safe and effective gene therapy vectors due to their high transfer efficiency of target genes carried on the viral genome (see Patent Document 1). reference).
  • viral vectors including the AAV vectors mentioned above are subject to further investigation regarding safety and effectiveness due to the presence of neutralizing antibodies and incomplete organ tropism. Improvements may be required.
  • an object of the present invention is to provide a virus particle detection method, an information processing device, and a virus particle detection program that can detect virus particles with high accuracy.
  • a virus particle detection method for achieving the above object is a virus particle detection method for detecting the type of virus particles to be tested, and includes generating a plurality of learning image data in which the virus particles are reflected; For each of the plurality of generated training image data, input of a combination of the type of the virus particle reflected in each training image data and the position information of the virus particle in each training image data is received, and the plurality of training images are processed.
  • the plurality of training data are generated by associating the inputted combinations with each training image data for each training image data, and the learning model is developed by performing machine learning on the generated training data.
  • virus particles can be detected with high accuracy.
  • FIG. 1 is a diagram showing a configuration example of an information processing system 10 in the first embodiment.
  • FIG. 2 is a diagram showing a configuration example of the information processing device 1 in the first embodiment.
  • FIG. 3 is a diagram schematically explaining the first embodiment.
  • FIG. 4 is a diagram schematically explaining the first embodiment.
  • FIG. 5 is a diagram schematically explaining the first embodiment.
  • FIG. 6 is a flowchart illustrating learning processing in the first embodiment.
  • FIG. 7 is a flowchart illustrating learning processing in the first embodiment.
  • FIG. 8 is a flowchart diagram illustrating learning processing in the first embodiment.
  • FIG. 9 is a diagram illustrating a specific example of the process of S23.
  • FIG. 10 is a diagram illustrating a specific example of the process of S23.
  • FIG. 10 is a diagram illustrating a specific example of the process of S23.
  • FIG. 11 is a diagram illustrating a specific example of the process of S23.
  • FIG. 12 is a diagram illustrating a specific example of the teacher data DT4.
  • FIG. 13 is a diagram illustrating learning processing in the first embodiment.
  • FIG. 14 is a diagram illustrating learning processing in the first embodiment.
  • FIG. 15 is a flowchart illustrating estimation processing in the first embodiment.
  • FIG. 16 is a diagram illustrating estimation processing in the first embodiment.
  • FIG. 1 is a diagram showing a configuration example of an information processing system 10 in the first embodiment.
  • the information processing system 10 includes, for example, an information processing device 1, an operating terminal 2, and a storage unit 130.
  • the storage unit 130 may be a storage unit placed outside the information processing device 1 or may be a storage unit installed within the information processing device 1.
  • the operating terminal 2 is, for example, a mobile terminal such as a PC (Personal Computer) or a smartphone, and is a terminal through which an operator of the information processing device 1 (hereinafter also simply referred to as an operator) inputs necessary information.
  • a mobile terminal such as a PC (Personal Computer) or a smartphone
  • an operator inputs necessary information.
  • the information processing device 1 is, for example, a physical machine or a virtual machine, and performs processing for generating a learning model for detecting virus particles (hereinafter also simply referred to as learning processing) and processing for detecting virus particles by using the learning model. (hereinafter also simply referred to as estimation processing).
  • learning processing processing for generating a learning model for detecting virus particles
  • estimation processing processing for detecting virus particles by using the learning model.
  • the virus particle is a virus vector particle
  • the learning model generated in the learning process may be, for example, a learning model based on YOLO (You Only Look Once).
  • the information processing device 1 collects a plurality of image data (hereinafter also referred to as learning image data) in which virus vector particles to be tested (e.g., virus vector particles having a capsid) are reflected. generate.
  • the viral vector particles to be tested are, for example, parvovirus vector particles such as dependent parvovirus vector particles including AAV virus vector particles, bocaparvovirus vector particles, erythroparvovirus vector particles, and protoparvovirus vector particles. It's fine.
  • the viral vector particles to be tested may be, for example, adenovirus vector particles including master denovirus vector particles.
  • the virus vector particles to be tested may be, for example, simplex virus vector particles.
  • the viral vector particles to be tested may be, for example, betabaculovirus vector particles. Furthermore, the viral vector particles to be tested may be, for example, inovirus vector particles. Furthermore, the viral vector particles to be tested may be, for example, tequatrovirus vector particles. Then, the information processing device 1, for example, generates a combination (hereinafter also simply referred to as a combination) of the type of virus vector particles reflected in each image data and the position information of the virus vector particles in each image data for each of the plurality of generated image data. ). There are multiple types of viral vector particles, including, for example, whole particles, hollow particles, broken particles, and intermediates.
  • the information processing device 1 generates a plurality of teacher data by, for example, associating the inputted combinations with each image data. After that, the information processing device 1 generates a learning model by, for example, performing machine learning on the plurality of generated teacher data.
  • the information processing device 1 inputs, for example, image data in which virus vector particles are reflected (hereinafter also referred to as determination image data) to the learning model. Then, the information processing device 1 obtains, for example, an estimation result output from the learning model in conjunction with input of image data. Thereafter, the information processing device 1 outputs, for example, the acquired estimation results as a combination corresponding to the virus vector particles appearing in the input image data.
  • the information processing device 1 constructs a learning model by using a plurality of training data including position information of virus vector particles in the image data in addition to image data and the type of virus vector particles. generate.
  • the information processing device 1 can, for example, detect each virus vector particle without manual intervention. Further, the information processing device 1 can, for example, detect each virus vector particle with high precision and high speed.
  • the information processing system 10 has one information processing device 1, but the information processing system 10 may have a plurality of information processing devices 1, for example. Further, although a case will be described below in which the information processing system 10 has one operating terminal 2, the information processing system 10 may have, for example, a plurality of operating terminals 2.
  • the information processing device 1 and the operation terminal 2 may be, for example, a single device.
  • the information processing system 10 may not include the operation terminal 2, for example, when the information processing device 1 is a PC or a mobile terminal that allows an operator to directly input information.
  • FIG. 2 is a diagram showing a configuration example of the information processing device 1 in the first embodiment.
  • the information processing device 1 includes, for example, a CPU 101 that is a processor, a memory 102, a communication interface 103, and a storage medium 104. Each part is connected to each other via a bus 105.
  • the storage medium 104 has a program storage area (not shown) that stores a program 110 for performing, for example, learning processing and estimation processing (hereinafter also collectively referred to as learning processing, etc.).
  • the storage medium 104 includes a storage unit 130 (hereinafter also referred to as an information storage area 130) that stores information used when performing learning processing, etc., for example.
  • the storage medium 104 may be, for example, a HDD (Hard Disk Drive) or an SSD (Solid State Drive).
  • the CPU 101 executes the program 110 loaded into the memory 102 from the storage medium 104 to perform learning processing and the like.
  • the communication interface 103 communicates with the operation terminal 2, for example.
  • the information processing device 1 includes, for example, an image generation section 111, a type input reception section 112, a teacher data generation section 113, a learning model generation section 114, an image input section 115, and a result acquisition section.
  • Each function including the section 116 and the type output section 117 is realized.
  • each of the image generation unit 111, type input reception unit 112, teacher data generation unit 113, and learning model generation unit 114 has a function of realizing learning processing, for example. Further, each of the image generation unit 111, the image input unit 115, the result acquisition unit 116, and the type output unit 117 has a function of realizing estimation processing, for example.
  • the learning process and the estimation process are executed in the information processing device 1, the present invention is not limited to this. Specifically, either the learning process or the estimation process may be executed, for example, in another information processing apparatus (not shown) different from the information processing apparatus 1.
  • the image generation unit 111 generates, for example, a plurality of image data DT1 (learning image data DT1) in which virus vector particles are reflected. Specifically, the image generation unit 111 controls, for example, a transmission electron microscope (hereinafter also referred to as a transmission electron microscope) to photograph virus vector particles and generate a plurality of image data DT1. Note that the image generation unit 111 may, for example, simply acquire the plurality of image data DT1 captured by the TEM from the TEM.
  • a transmission electron microscope hereinafter also referred to as a transmission electron microscope
  • the type input reception unit 112 includes type information DT2 indicating the type of virus vector particles reflected in each image data DT1, and the type information DT2 indicating the type of virus vector particles in each image data DT1.
  • the input of the combination with position information DT3 indicating the position of is accepted.
  • the type input reception unit 112 sequentially outputs, for example, the image data DT1 generated (acquired) by the image generation unit 111 to the operation terminal 2. Then, the operator views, for example, the image data DT1 output to the operating terminal 2, and inputs a combination of type information DT2 and position information DT3 corresponding to the virus vector particles appearing in the image data DT1. Thereafter, the type input reception unit 112 receives, for example, a combination of type information DT2 and position information DT3 input by the worker. Note that when a plurality of virus vector particles are shown in the image data DT1, the operator must input, for example, a combination of type information DT2 and position information DT3 corresponding to each of the plurality of virus vector particles. It's fine.
  • the teacher data generation unit 113 for example, for each of the plurality of image data DT1 generated by the image generation unit 111, combines the type information DT2 and the position information DT3 whose input is received by the type input reception unit 112. By associating the combination with each image data DT1, a plurality of teacher data DT4 are generated. Then, the teacher data generation unit 113 stores the plurality of generated teacher data DT4 in the information storage area 130, for example.
  • the learning model generation unit 114 performs machine learning on the plurality of teacher data DT4 (the plurality of teacher data DT stored in the information storage area 130) generated by the teacher data generation unit 113, for example.
  • a learning model MD is generated by Then, the learning model generation unit 114 stores the generated learning model MD in the information storage area 130, for example.
  • the image generation unit 111 generates image data DT11 (determination image data DT11) in which the virus vector particles are reflected, for example, as in the case of learning processing.
  • the image input unit 115 inputs, for example, image data DT11 generated by the image generation unit 111 to the learning model MD.
  • the result acquisition unit 116 acquires, for example, the estimation result output from the learning model MD in response to the input of the image data DT11 by the image input unit 115.
  • the estimation result is, for example, the estimation result about the combination of the type information DT12 and the position information DT13 corresponding to the virus vector particle shown in the image data DT11.
  • the learning model MD is, for example, one that estimates the combination of type information DT12 and position information DT13 corresponding to each of the plurality of virus vector particles. It's good.
  • the type output unit 117 converts the estimation result acquired by the result acquisition unit 116 into type information DT12 and position information corresponding to the virus vector particle reflected in the image data DT11 acquired by the image generation unit 111, for example. Output as a combination with DT13.
  • the information processing device 1 can, for example, detect each virus vector particle without manual intervention. Further, the information processing device 1 can, for example, accurately detect each virus vector particle.
  • FIGS. 9 to 14 are diagrams for explaining the learning process in the first embodiment.
  • FIG. 6 is a flowchart explaining the image acquisition process.
  • the image generation unit 111 waits, for example, until the image acquisition timing comes (NO in S11).
  • the image acquisition timing may be, for example, a timing specified by the operator.
  • the image acquisition timing may be, for example, the timing at which the image data DT1 is photographed by a TEM.
  • the image generation unit 111 acquires, for example, image data DT1 in which the virus vector particles are reflected (S12). Specifically, the image generation unit 111, for example, sequentially acquires a plurality of image data DT1 captured by the TEM from the TEM.
  • the image generation unit 111 stores, for example, the image data DT1 acquired in the process of S12 in the information storage area 130 (S13).
  • FIG. 7 is a flowchart diagram illustrating information acquisition processing.
  • the type input reception unit 112 waits, for example, until the information acquisition timing comes (NO in S21).
  • the information acquisition timing may be, for example, a timing specified by the operator. Specifically, the information acquisition timing may be, for example, the timing immediately after the process of S13 is performed.
  • the type input reception unit 112 outputs, for example, the image data DT1 acquired in the process of S12 to the operation terminal 2 (S22).
  • the type input reception unit 112 waits until, for example, a combination of the type information DT2 of the virus vector particles reflected in the image data DT1 acquired in the process of S12 and the position information DT3 of the virus vector particles in the image data DT1 is input. (NO in S23). That is, the type input reception unit 112 waits until, for example, the operator inputs the combination of type information DT2 and position information DT3 via the operating terminal 2.
  • the type input reception unit 112 stores, for example, the inputted combination of type information DT2 and position information DT3 in the information storage area 130 (S24). That is, the type input reception unit 112 stores, for example, in the information storage area 130, a combination of type information DT2 and position information DT3 corresponding to each of the plurality of image data DT1 captured by the TEM.
  • S23 A specific example of the process in S23 will be described below.
  • the type input receiving unit 112 receives, for example, the input type information DT2 (type information DT2 indicating a perfect particle), and also inputs the coordinates of each vertex of the input bounding box BB1 to the position information DT3 ( It is accepted as position information DT3) of the complete particle.
  • the operator can check the virus that can be determined to be a hollow particle on the output screen of the operation terminal 2.
  • a bounding box BB2 containing vector particles is input, and type information DT2 indicating that the virus vector particles contained in bounding box BB2 are hollow particles is input.
  • the type input receiving unit 112 receives, for example, the input type information DT2 (type information DT2 indicating a hollow particle), and also inputs the coordinates of each vertex of the input bounding box BB1 to the position information DT3 (hollow particles). It is accepted as particle position information DT3).
  • the operator can check the output screen of the operation terminal 2 for viruses that can be determined to be damaged particles.
  • the bounding box BB3 containing the vector particle is input, and the type information DT2 indicating that the virus vector particle included in the bounding box BB3 is a damaged particle is input.
  • the type input receiving unit 112 receives, for example, the input type information DT2 (type information DT2 indicating damaged particles), and also inputs the coordinates of each vertex of the input bounding box BB3 to the position information DT3 (damaged particles). It is accepted as particle position information DT3).
  • the operator can detect a virus that can be determined to be an intermediate on the output screen of the operation terminal 2.
  • a bounding box BB4 containing the vector particle is input, and type information DT2 indicating that the virus vector particle contained in the bounding box BB4 is an intermediate is input.
  • the type input receiving unit 112 acquires the input type information DT2 (type information DT2 indicating an intermediate), and also inputs the coordinates of each vertex of the input bounding box BB4 to the position information DT3 ( It is acquired as position information DT3) of the intermediate.
  • FIG. 8 is a flowchart diagram illustrating the main processing of the learning processing.
  • the teacher data generation unit 113 waits, for example, until the learning timing comes (NO in S41).
  • the learning timing may be, for example, a timing specified by the operator. Specifically, the learning timing is such that, for example, the number of combinations of image data DT1, type information DT2, and position information DT3 stored in the information storage area 130 is determined by the number of teacher data DT4 used to generate the learning model MD (preset It may be the timing when the number reached).
  • the teacher data generation unit 113 generates data for each of the plurality of image data DT1 acquired in the process of S12 (for each of the plurality of image data DT1 stored in the information storage area 130).
  • a plurality of teacher data DT4 are generated by associating the combination of type information DT2 and position information DT3 input in the process of S23 with each image data DT1 (S42).
  • the teacher data generation unit 113 stores, for example, the plurality of generated teacher data DT4 in the information storage area 130 (S43).
  • the plurality of teacher data DT4 will be explained below.
  • FIG. 12 is a diagram illustrating a specific example of the teacher data DT4.
  • the teacher data DT4 shown in FIG. 12 includes, for example, "image data” in which the identification information of the image data DT1 acquired in the process of S12 is set, and "type data” in which the type information DT2 inputted in the process of S23 is set. "Information” as an item.
  • the "type information” includes, for example, “complete particle” indicating the type corresponding to a complete particle, “hollow particle” indicating the type corresponding to a hollow particle, “damaged particle” indicating the type corresponding to a damaged particle, Alternatively, "intermediate” indicating the type corresponding to the intermediate is set.
  • the teacher data DT4 shown in FIG. 12 includes, for example, "position information (lower left coordinates)" and "position information (upper right coordinates)” in which the position information DT3 corresponding to the bounding box whose input was accepted in the process of S23 is set. has as an item.
  • the "position information (lower left coordinates)” is set to the lower left X and Y coordinates of the bounding box whose input was accepted in the process of S23.
  • the "position information (upper right coordinates)" for example, the X and Y coordinates of the upper right corner of the bounding box whose input was accepted in the process of S23 are set.
  • the teacher data DT4 may include, for example, other items corresponding to the position information DT3 (for example, the upper left coordinates and lower right coordinates of the bounding box whose input was accepted in the process of S23).
  • DT101 is set as “image data” and "DT101” is set as “type information”.
  • Perfect particle is set, "24, 10” is set as “position information (lower left coordinates)”, and "30, 16” is set as “position information (upper right coordinates)”.
  • teaching data DT4 shown in FIG. 12, for example, in the second row of data (second teaching data DT4), "DT101" is set as “image data”, and “damaged particle” is set as “type information”. " is set, “12, 42” is set as “position information (lower left coordinates)”, and “18, 52” is set as “position information (upper right coordinates)”.
  • position information (lower left coordinates)" and “position information (upper right coordinates)” in the teacher data DT4 include coordinates normalized between 0 and 1 as the X and Y coordinates, respectively. It may be set.
  • the learning model generation unit 114 generates the learning model MD by, for example, performing machine learning on the plurality of teacher data DT4 generated in the process of S42 (S44).
  • the learning model generation unit 114 stores the learning model MD generated in the process of S44, for example, in the information storage area 130 (S45).
  • the type corresponding to a complete particle, the type corresponding to a hollow particle, the type corresponding to a damaged particle, or the type corresponding to an intermediate is "type information".
  • the "type information" in the teacher data DT4 may be set to, for example, one of a plurality of types (hereinafter also referred to as damage types) depending on the damage state of the virus vector particle. .
  • the plurality of damage types include, for example, a damage type indicating a virus vector particle with a deformed particle shape (hereinafter also referred to as the first damage type). It may be.
  • the plurality of damage types include, for example, a type indicating a virus vector particle in which at least a portion of the outer edge of the particle is damaged (hereinafter also referred to as a second damage type). It can be anything.
  • the multiple damage types include, for example, a type that indicates at least a part of a virus vector particle in which the particle has been fractured into multiple pieces (hereinafter referred to as the third damage type). ) may be included.
  • the teacher data DT4 is set in such a manner that a plurality of damaged particles including, for example, a first damage type, a second damage type, and a third damage type are distinguished. It can be anything.
  • the second damage type may be further classified into a plurality of damage types depending on the damage position at the outer edge of the particle, for example.
  • the second damage type includes, for example, a type indicating a damaged particle in which a part of the outer edge of the particle is damaged in a predetermined direction (for example, the upper side in image data DT1), and a type indicating a damaged particle in which a part of the outer edge of the particle is damaged in a predetermined direction. and a type indicating a damaged particle that is partially damaged in a different direction (for example, the downward side in image data DT1).
  • FIG. 15 is a flowchart illustrating estimation processing in the first embodiment.
  • FIG. 16 is a diagram illustrating estimation processing in the first embodiment.
  • the image generation unit 111 waits, for example, until the estimated timing comes (NO in S51).
  • the estimated timing may be, for example, a timing specified by the operator.
  • the estimation timing may be, for example, the timing after the learning model MD is generated in the learning process.
  • the image generation unit 111 obtains, for example, image data DT11 in which the virus vector particles are reflected (S52). Specifically, the image generation unit 111 obtains, for example, image data DT11 captured by the TEM from the TEM.
  • the image input unit 115 inputs, for example, the image data DT11 acquired in the process of S52 to the learning model MD (S53).
  • the result acquisition unit 116 acquires, for example, the estimation result output from the learning model MD in conjunction with the input of the image data DT11 in the process of S53 (S54).
  • the estimation result is, for example, the estimation result about the combination of the type information DT12 and the position information DT13 corresponding to the virus vector particle appearing in the image data DT11 acquired in the process of S52.
  • the type output unit 117 outputs, for example, the estimation result obtained in the process of S54 to the operating terminal as a combination of the type information DT12 and position information DT13 corresponding to the virus vector particle reflected in the image data DT11 obtained in the process of S52. 2 (S55).
  • the type output unit 117 corresponds to, for example, a combination of type information DT12a of each virus vector particle and position information DT13a (bounding box including position information DT13a) of each virus vector particle.
  • the attached image data DT11a is displayed on the operating terminal 2.
  • "full” corresponds to the type indicating a complete particle
  • "empty” corresponds to a type indicating a hollow particle
  • "broken01” corresponds to the first broken type.
  • "broken02” corresponds to the second damage type
  • "broken03" corresponds to the third damage type.
  • the information processing device 1 in this embodiment generates, for example, a plurality of image data DT1 (learning image data DT1) in which the virus vector particles of the test subject are reflected. Then, the information processing device 1, for example, generates a combination of the type information DT2 of the virus vector particles reflected in each image data DT1 and the position information DT3 of the virus vector particles in each image data DT1 for each of the plurality of generated image data DT1. Accept input. Next, the information processing device 1 generates a plurality of teacher data DT4 by, for example, associating the received input combination of type information DT2 and position information DT3 with each image data DT1. do. After that, the information processing device 1 generates the learning model MD by, for example, performing machine learning on the plurality of generated teacher data DT4.
  • the learning model MD by, for example, performing machine learning on the plurality of generated teacher data DT4.
  • the information processing device 1 in this embodiment inputs, for example, image data DT11 in which viral vector particles are reflected (determination image data DT11) to the learning model MD. Then, the information processing device 1 obtains, for example, the estimation result output from the learning model MD in response to the input of the image data DT11. Thereafter, the information processing device 1 outputs, for example, the acquired estimation result as a combination of type information DT12 and position information DT13 corresponding to the virus vector particle reflected in the input image data DT11.
  • the information processing device 1 in this embodiment for example, in addition to the image data DT1 and the type information DT2 of virus vector particles, also includes a plurality of teacher data DT4 including position information DT3 of the virus vector particles in the image data DT1. By using this, a learning model MD is generated.
  • the information processing device 1 can, for example, detect each virus vector particle without manual intervention. Further, the information processing device 1 can, for example, accurately detect each virus vector particle.
  • the image generation method includes, for example, an operation of preparing AAV vector particles to be photographed by TEM.
  • the preparation of AAV vector particles includes, for example, an operation of preparing AAV vector particles by cell culture (hereinafter also referred to as operation a) and an operation of concentrating the culture supernatant by ultrafiltration (hereinafter also referred to as operation b). (hereinafter also referred to as operation c), and an operation of performing affinity purification on the AAV vector particles after operation b has been performed (hereinafter also referred to as operation c).
  • the amount of AAV vector particles subjected to ultrafiltration in step b may be, for example, about 10 to the 12th power (about 10 mL).
  • the amount of AAV vector particles subjected to affinity purification in step c may be, for example, about 10 to the 12th power (about 5 mL).
  • an operation of washing the AAV vector particles after operation c has been performed (hereinafter also referred to as operation d), and a predetermined staining agent for washing the AAV vector particles after operation d have been performed. (hereinafter also referred to as operation e).
  • operation d includes, for example, an operation of placing 3 ⁇ L of AAV vector particle solution on a support membrane (grid) and leaving it for 60 seconds (hereinafter also referred to as operation d1), and AAV vector particle solution after operation d1 is performed.
  • An operation of removing water by applying a filter paper perpendicularly to the side of the membrane on which the particles are mounted (hereinafter also referred to as operation d2), and adding 3 ⁇ L of water to the AAV vector particles after operation d2 has been performed.
  • the operation may include an operation of leaving it for 10 seconds (hereinafter also referred to as operation d3).
  • each of operation d2 and operation d3 may be performed multiple times (for example, three times) in this order, for example.
  • a product name "Collodion Membrane Affixed Mesh" manufactured by Nissin EM Co., Ltd. can be mentioned.
  • operation e is, for example, an operation in which a predetermined staining agent is placed on the membrane on which AAV vector particles are placed after operation d is carried out and left for 60 seconds (hereinafter also referred to as operation e1), and operation e1 is performed.
  • the subsequent operation of removing water by applying a filter paper perpendicularly to the side of the membrane on which the AAV vector particles are placed (hereinafter also referred to as operation e2), and the operation of removing the moisture from the membrane on which the AAV vector particles are placed after operation e2 has been performed.
  • the AAV vector particles may be placed on a filter paper with the surface thereof facing downward and left for 120 seconds (hereinafter also referred to as operation e3).
  • image data DT1 is generated by photographing the AAV vector particles after the operation e has been performed using a TEM.
  • each image data DT1 is adjusted so that a sufficient number (for example, about 300 to 400) of AAV vector particles are reflected. becomes possible. Furthermore, in the image generation method, by performing operation c, operation d, and operation e, it becomes possible to increase the sharpness of the AAV vector particles reflected in the image data DT1, for example.
  • the predetermined staining agent used in step e includes, for example, a negative staining reagent containing phosphotungstic acid, ammonium molybutate, methylamine tungstate, or methylamine vanadate as an active ingredient; A negative staining reagent containing vanadate as an active ingredient is preferred.
  • a negative staining reagent containing vanadate as an active ingredient is preferred.
  • all of operation b, operation c, operation d, and operation e may not be performed. That is, in the image generation method, for example, some of the operations b, c, d, and e may not be performed.
  • Information processing device 2 Operation terminal 10: Information processing system 101: CPU 102: Memory 103: Communication interface 104: Storage medium 105: Bus 110: Program 111: Image generation section 112: Type input reception section 113: Teacher data generation section 114: Learning model generation section 115: Image input section 116: Result acquisition section 117: Type output unit 130: Information storage area DT1: Image data DT2: Type information DT3: Position information DT4: Teacher data DT11: Image data DT12: Type information DT13: Position information MD: Learning model

Abstract

ウイルス粒子が映る複数の学習用画像データを生成し、生成した複数の学習用画像データごとに、各学習用画像データに映るウイルス粒子の種別と各学習用画像データにおけるウイルス粒子の位置情報との組み合わせの入力を受け付け、複数の学習用画像データごとに、入力を受け付けた組み合わせを各学習用画像データに対応付けることによって、複数の教師データを生成し、生成した複数の教師データの機械学習を行うことによって学習モデルを生成し、ウイルス粒子が映る判定用画像データを学習モデルに入力し、判定用画像データの入力に伴って学習モデルから出力される推定結果を取得し、取得した推定結果を、判定用画像データに映るウイルス粒子に対応する組み合わせとして出力する。

Description

ウイルス粒子検出方法、情報処理装置及びウイルス粒子検出プログラム 関連出願の参照
 本願は、先行する米国特許出願である第63/349,783号(出願日:2022年6月7日)の優先権の利益を享受するものであり、その開示内容全体は引用することにより本明細書の一部とされる。
 本発明は、ウイルス粒子検出方法、情報処理装置及びウイルス粒子検出プログラムに関する。
 例えば、ヒト等の霊長類をホストとするアデノ随伴ウイルス(以下、AAV:Adeno-Associated Virusとも呼ぶ)は、増殖細胞及び非増殖細胞に対して感染可能な非病原性ウイルスである。そして、AAVの組換えベクターであるAAVベクターは、ウイルスゲノム上に搭載された目的遺伝子の高い伝達効率から、安全かつ有効な遺伝子治療用ベクターとして様々な疾患に応用されている(特許文献1を参照)。
特表2020-513230号公報
 ここで、上記のようなAAVベクターを含む各種のウイルスベクター(以下、単にウイルスベクターとも呼ぶ)は、中和抗体の存在や臓器指向性の不完全さ等から、安全性や有効性についてのさらなる改善が必要となる場合がある。
 そのため、ウイルスベクターの作成過程においては、例えば、キャプシド内部において完全長のDNA(DeoxyriboNucleic Acid)を包括した完全体粒子、DNAを含まない空の外殻である中空粒子、粒子の一部が損傷した破損粒子、及び、断片化したDNAが包括された中間体等のそれぞれを精度良く検出(分類)することが可能な方法が求められている。
 そこで、本発明の目的は、ウイルス粒子を精度良く検出することが可能なウイルス粒子検出方法、情報処理装置及びウイルス粒子検出プログラムを提供することにある。
 上記目的を達成するための本発明におけるウイルス粒子検出方法は、被検対象のウイルス粒子の種別を検出するウイルス粒子検出方法であって、前記ウイルス粒子が映る複数の学習用画像データを生成し、生成した前記複数の学習用画像データごとに、各学習用画像データに映る前記ウイルス粒子の前記種別と各学習用画像データにおける前記ウイルス粒子の位置情報との組み合わせの入力を受け付け、前記複数の学習用画像データごとに、入力を受け付けた前記組み合わせを各学習用画像データに対応付けることによって、前記複数の教師データを生成し、生成した前記複数の教師データの機械学習を行うことによって前記学習モデルを生成し、前記ウイルス粒子が映る判定用画像データを前記学習モデルに入力し、前記判定用画像データの入力に伴って前記学習モデルから出力される推定結果を取得し、取得した前記推定結果に対応する前記組み合わせを、前記判定用画像データに映る前記ウイルス粒子に対応する前記組み合わせとして出力する。
 本発明におけるウイルス粒子検出方法、情報処理装置及びウイルス粒子検出プログラムによれば、ウイルス粒子を精度良く検出することが可能になる。
図1は、第1の実施の形態における情報処理システム10の構成例を示す図である。 図2は、第1の実施の形態における情報処理装置1の構成例を示す図である。 図3は、第1の実施の形態の概略を説明する図である。 図4は、第1の実施の形態の概略を説明する図である。 図5は、第1の実施の形態の概略を説明する図である。 図6は、第1の実施の形態における学習処理を説明するフローチャート図である。 図7は、第1の実施の形態における学習処理を説明するフローチャート図である。 図8は、第1の実施の形態における学習処理を説明するフローチャート図である。 図9は、S23の処理の具体例を説明する図である。 図10は、S23の処理の具体例を説明する図である。 図11は、S23の処理の具体例を説明する図である。 図12は、教師データDT4の具体例を説明する図である。 図13は、第1の実施の形態における学習処理を説明する図である。 図14は、第1の実施の形態における学習処理を説明する図である。 図15は、第1の実施の形態における推定処理を説明するフローチャート図である。 図16は、第1の実施の形態における推定処理を説明する図である。
 以下、図面を参照して本開示の実施の形態について説明を行う。しかしながら、かかる説明は限定的な意味に解釈されるべきではなく、特許請求の範囲に記載の主題を限定するものではない。また、本開示の趣旨及び範囲から逸脱することがなく様々な変更や置換や改変をすることが可能である。また、異なる実施の形態を適宜組み合わせることが可能である。
 [第1の実施の形態における情報処理システム10の構成例]
 初めに、第1の実施の形態における情報処理システム10の構成例について説明を行う。図1は、第1の実施の形態における情報処理システム10の構成例を示す図である。
 情報処理システム10は、例えば、情報処理装置1と、操作端末2と、記憶部130とを有する。なお、記憶部130は、情報処理装置1の外部に配置される記憶部であってもよいし、情報処理装置1内に搭載される記憶部であってもよい。
 操作端末2は、例えば、PC(Personal Computer)やスマートフォン等のモバイル端末であり、情報処理装置1の作業者(以下、単に作業者とも呼ぶ)が必要な情報の入力等を行う端末である。
 情報処理装置1は、例えば、物理マシンや仮想マシンであり、ウイルス粒子を検出する学習モデルを生成する処理(以下、単に学習処理とも呼ぶ)と、学習モデルを用いることによってウイルス粒子を検出する処理(以下、単に推定処理とも呼ぶ)とを行う。以下、ウイルス粒子がウイルスベクター粒子である場合について説明を行う。なお、学習処理において生成する学習モデルは、例えば、YOLO(You Only Look Once)による学習モデルであってよい。
 具体的に、情報処理装置1は、学習処理において、例えば、被検対象のウイルスベクター粒子(例えば、キャプシドを有するウイルスベクター粒子)が映る複数の画像データ(以下、学習用画像データとも呼ぶ)を生成する。被検対象のウイルスベクター粒子は、例えば、AAVウイルスベクター粒子を含むディペンドパルボウイルスベクター粒子、ボカパルボウイルスベクター粒子、エリスロパルボウイルスベクター粒子、及び、プロトパルボウイルスベクター粒子等のパルボウイルスベクター粒子であってよい。また、被検対象のウイルスベクター粒子は、例えば、マスタデノウイルスベクター粒子を含むアデノウイルスベクター粒子であってもよい。また、被検対象のウイルスベクター粒子は、例えば、シンプレックスウイルスベクター粒子であってもよい。また、被検対象のウイルスベクター粒子は、例えば、ベータバキュロウイルスベクター粒子であってもよい。また、被検対象のウイルスベクター粒子は、例えば、イノウイルスベクター粒子であってもよい。また、被検対象のウイルスベクター粒子は、例えば、テクアトロウイルスベクター粒子であってもよい。そして、情報処理装置1は、例えば、生成した複数の画像データごとに、各画像データに映るウイルスベクター粒子の種別と各画像データにおけるウイルスベクター粒子の位置情報との組み合わせ(以下、単に組み合わせとも呼ぶ)の入力を受け付ける。ウイルスベクター粒子の種別は、例えば、完全体粒子、中空粒子、破損粒子及び中間体を含む複数の種別である。続いて、情報処理装置1は、例えば、複数の画像データごとに、入力を受け付けた組み合わせを各画像データに対応付けることによって、複数の教師データを生成する。その後、情報処理装置1は、例えば、生成した複数の教師データの機械学習を行うことによって学習モデルを生成する。
 また、情報処理装置1は、推定処理において、例えば、ウイルスベクター粒子が映る画像データ(以下、判定用画像データとも呼ぶ)を学習モデルに入力する。そして、情報処理装置1は、例えば、画像データの入力に伴って学習モデルから出力される推定結果を取得する。その後、情報処理装置1は、例えば、取得した推定結果を、入力された画像データに映るウイルスベクター粒子に対応する組み合わせとして出力する。
 すなわち、本実施の形態における情報処理装置1は、例えば、画像データとウイルスベクター粒子の種別とに加え、画像データにおけるウイルスベクター粒子の位置情報についても含む複数の教師データを用いることによって学習モデルを生成する。
 これにより、本実施の形態における情報処理装置1は、例えば、各ウイルスベクター粒子の検出を人手によらずに行うことが可能になる。また、情報処理装置1は、例えば、各ウイルスベクター粒子の検出を精度良くかつ高速に行うことが可能になる。
 以下、情報処理システム10が1台の情報処理装置1を有する場合について説明を行うが、情報処理システム10は、例えば、複数台の情報処理装置1を有するものであってもよい。また、以下、情報処理システム10が1台の操作端末2を有する場合について説明を行うが、情報処理システム10は、例えば、複数台の操作端末2を有するものであってもよい。
 さらに、情報処理装置1と操作端末2とは、例えば、単一の装置であってもよい。具体的に、情報処理システム10は、例えば、作業者が情報を直接入力可能なPCやモバイル端末を情報処理装置1として用いる場合、操作端末2を有しないものであってよい。
 [第1の実施の形態における情報処理装置1の構成例]
 次に、情報処理装置1の構成例について説明を行う。図2は、第1の実施の形態における情報処理装置1の構成例を示す図である。
 情報処理装置1は、図2に示すように、例えば、プロセッサであるCPU101と、メモリ102と、通信インタフェース103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。
 記憶媒体104は、例えば、学習処理及び推定処理(以下、これらを総称して学習処理等とも呼ぶ)を行うためのプログラム110を記憶するプログラム格納領域(図示せず)を有する。
 また、記憶媒体104は、例えば、学習処理等を行う際に用いられる情報を記憶する記憶部130(以下、情報格納領域130とも呼ぶ)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。
 CPU101は、例えば、記憶媒体104からメモリ102にロードされたプログラム110を実行して学習処理等を行う。
 また、通信インタフェース103は、例えば、操作端末2と通信を行う。
 [第1の実施の形態の概略]
 次に、第1の実施の形態の概略について説明を行う。図3から図5は、第1の実施の形態の概略を説明する図である。
 情報処理装置1は、図3に示すように、例えば、画像生成部111と、種別入力受付部112と、教師データ生成部113と、学習モデル生成部114と、画像入力部115と、結果取得部116と、種別出力部117とを含む各機能を実現する。
 具体的に、画像生成部111、種別入力受付部112、教師データ生成部113及び学習モデル生成部114のそれぞれは、例えば、学習処理を実現する機能である。また、画像生成部111、画像入力部115と、結果取得部116及び種別出力部117のそれぞれは、例えば、推定処理を実現する機能である。
 なお、以下、学習処理及び推定処理が情報処理装置1において実行される場合について説明を行うが、これに限られない。具体的に、学習処理及び推定処理のうちのいずれかは、例えば、情報処理装置1と異なる他の情報処理装置(図示せず)において実行されるものであってもよい。
 初めに、学習処理における機能について説明を行う。
 画像生成部111は、例えば、ウイルスベクター粒子が映る複数の画像データDT1(学習用画像データDT1)を生成する。具体的に、画像生成部111は、例えば、透過電子顕微鏡(以下、TEM:Transmission Electron Microscopeとも呼ぶ)を制御することによって、ウイルスベクター粒子を撮影して複数の画像データDT1を生成する。なお、画像生成部111は、例えば、TEMによって撮影された複数の画像データDT1をTEMから単に取得するものであってもよい。
 種別入力受付部112は、例えば、画像生成部111が生成した複数の画像データDT1ごとに、各画像データDT1に映るウイルスベクター粒子の種別を示す種別情報DT2と、各画像データDT1におけるウイルスベクター粒子の位置を示す位置情報DT3との組み合わせの入力を受け付ける。
 具体的に、種別入力受付部112は、例えば、画像生成部111が生成(取得)した画像データDT1を操作端末2に順次出力する。そして、作業者は、例えば、操作端末2に出力された画像データDT1を閲覧し、画像データDT1に映るウイルスベクター粒子に対応する種別情報DT2と位置情報DT3との組み合わせを入力する。その後、種別入力受付部112は、例えば、作業者によって入力された種別情報DT2と位置情報DT3との組み合わせを受け付ける。なお、画像データDT1に複数のウイルスベクター粒子が映っている場合、作業者は、例えば、複数のウイルスベクター粒子のそれぞれに対応する種別情報DT2と位置情報DT3との組み合わせをそれぞれ入力するものであってよい。
 教師データ生成部113は、図4に示すように、例えば、画像生成部111が生成した複数の画像データDT1ごとに、種別入力受付部112が入力を受け付けた種別情報DT2と位置情報DT3との組み合わせを各画像データDT1に対応付けることによって、複数の教師データDT4を生成する。そして、教師データ生成部113は、例えば、生成した複数の教師データDT4を情報格納領域130に記憶する。
 学習モデル生成部114は、図4に示すように、例えば、教師データ生成部113が生成した複数の教師データDT4(情報格納領域130に記憶された複数の教師データDT)の機械学習を行うことによって学習モデルMDを生成する。そして、学習モデル生成部114は、例えば、生成した学習モデルMDを情報格納領域130に記憶する。
 次に、推定処理における機能について説明を行う。
 画像生成部111は、例えば、学習処理における場合と同様に、ウイルスベクター粒子が映る画像データDT11(判定用画像データDT11)を生成する。
 画像入力部115は、図5に示すように、例えば、画像生成部111が生成した画像データDT11を学習モデルMDに入力する。
 結果取得部116は、図5に示すように、例えば、画像入力部115による画像データDT11の入力に伴って学習モデルMDから出力される推定結果を取得する。推定結果は、例えば、画像データDT11に映るウイルスベクター粒子に対応する種別情報DT12と位置情報DT13との組み合わせについての推定結果である。なお、画像データDT11に複数のウイルスベクター粒子が映っている場合、学習モデルMDは、例えば、複数のウイルスベクター粒子のそれぞれに対応する種別情報DT12と位置情報DT13との組み合わせをそれぞれ推定するものであってよい。
 種別出力部117は、図5に示すように、例えば、結果取得部116が取得した推定結果を、画像生成部111が取得した画像データDT11に映るウイルスベクター粒子に対応する種別情報DT12と位置情報DT13との組み合わせとして出力する。
 これにより、本実施の形態における情報処理装置1は、例えば、各ウイルスベクター粒子の検出を人手によらずに行うことが可能になる。また、情報処理装置1は、例えば、各ウイルスベクター粒子の検出を精度良く行うことが可能になる。
 [第1の実施の形態における学習処理のフローチャート図]
 次に、第1の実施の形態における学習処理について説明を行う。図6から図8は、第1の実施の形態における学習処理を説明するフローチャート図である。また、図9から図14は、第1の実施の形態における学習処理を説明する図である。
 初めに、学習処理のうち、画像データDT1を取得する処理(以下、画像取得処理とも呼ぶ)について説明を行う。図6は、画像取得処理について説明するフローチャート図である。
 画像生成部111は、図6に示すように、例えば、画像取得タイミングになるまで待機する(S11のNO)。画像取得タイミングは、例えば、作業者によって指定されたタイミングであってよい。具体的に、画像取得タイミングは、例えば、TEMによって画像データDT1が撮影されたタイミングであってよい。
 そして、画像取得タイミングになった場合(S11のYES)、画像生成部111は、例えば、ウイルスベクター粒子が映る画像データDT1を取得する(S12)。具体的に、画像生成部111は、例えば、TEMによって撮影された複数の画像データDT1をTEMから順次取得する。
 その後、画像生成部111は、例えば、S12の処理で取得した画像データDT1を情報格納領域130に記憶する(S13)。
 次に、学習処理のうち、種別情報DT2と位置情報DT3とを取得する処理(以下、情報取得処理とも呼ぶ)について説明を行う。図7は、情報取得処理について説明するフローチャート図である。
 種別入力受付部112は、図7に示すように、例えば、情報取得タイミングになるまで待機する(S21のNO)。情報取得タイミングは、例えば、作業者によって指定されたタイミングであってよい。具体的に、情報取得タイミングは、例えば、S13の処理が行われた直後のタイミングであってよい。
 そして、情報取得タイミングになった場合(S21のYES)、種別入力受付部112は、例えば、S12の処理で取得した画像データDT1を操作端末2に出力する(S22)。
 その後、種別入力受付部112は、例えば、S12の処理で取得した画像データDT1に映るウイルスベクター粒子の種別情報DT2と画像データDT1におけるウイルスベクター粒子の位置情報DT3との組み合わせが入力されるまで待機する(S23のNO)。すなわち、種別入力受付部112は、例えば、作業者が操作端末2を介して種別情報DT2と位置情報DT3との組み合わせを入力するまで待機する。
 そして、S12の処理で取得した画像データDT1に映るウイルスベクター粒子の種別情報DT2と画像データDT1におけるウイルスベクター粒子の位置情報DT3との組み合わせが入力された場合(S23のYES)、種別入力受付部112は、例えば、入力を受け付けた種別情報DT2と位置情報DT3との組み合わせを情報格納領域130に記憶する(S24)。すなわち、種別入力受付部112は、例えば、TEMによって撮影された複数の画像データDT1のそれぞれに対応する種別情報DT2と位置情報DT3との組み合わせを情報格納領域130に記憶する。以下、S23の処理の具体例について説明を行う。
 [S23の処理の具体例]
 図9から図11は、S23の処理の具体例を説明する図である。
 図9に示すように、例えば、S22の処理において画像データDT1aが操作端末2に表示された場合、作業者は、操作端末2の出力画面(図示せず)上において、完全体粒子であると判断可能なウイルスベクター粒子を含むバウンディングボックスBB1を入力するとともに、バウンディングボックスBB1に含まれるウイルスベクター粒子が完全体粒子であることを示す種別情報DT2を入力する。そして、種別入力受付部112は、この場合、例えば、入力された種別情報DT2(完全体粒子を示す種別情報DT2)を受け付けるとともに、入力されたバウンディングボックスBB1の各頂点の座標を位置情報DT3(完全体粒子の位置情報DT3)として受け付ける。
 また、図9に示すように、例えば、S22の処理において画像データDT1aが操作端末2に表示された場合、作業者は、操作端末2の出力画面上において、中空粒子であると判断可能なウイルスベクター粒子を含むバウンディングボックスBB2を入力するとともに、バウンディングボックスBB2に含まれるウイルスベクター粒子が中空粒子であることを示す種別情報DT2を入力する。そして、種別入力受付部112は、この場合、例えば、入力された種別情報DT2(中空粒子を示す種別情報DT2)を受け付けるとともに、入力されたバウンディングボックスBB1の各頂点の座標を位置情報DT3(中空粒子の位置情報DT3)として受け付ける。
 また、図10に示すように、例えば、S22の処理において画像データDT1bが操作端末2に表示された場合、作業者は、操作端末2の出力画面上において、破損粒子であると判断可能なウイルスベクター粒子を含むバウンディングボックスBB3を入力するとともに、バウンディングボックスBB3に含まれるウイルスベクター粒子が破損粒子であることを示す種別情報DT2を入力する。そして、種別入力受付部112は、この場合、例えば、入力された種別情報DT2(破損粒子を示す種別情報DT2)を受け付けるとともに、入力されたバウンディングボックスBB3の各頂点の座標を位置情報DT3(破損粒子の位置情報DT3)として受け付ける。
 また、図11に示すように、例えば、S22の処理において画像データDT1cが操作端末2に表示された場合、作業者は、操作端末2の出力画面上において、中間体であると判断可能なウイルスベクター粒子を含むバウンディングボックスBB4を入力するとともに、バウンディングボックスBB4に含まれるウイルスベクター粒子が中間体であることを示す種別情報DT2を入力する。そして、種別入力受付部112は、この場合、例えば、入力された種別情報DT2(中間体を示す種別情報DT2)を取得するとともに、入力されたバウンディングボックスBB4の各頂点の座標を位置情報DT3(中間体の位置情報DT3)として取得する。
 次に、学習処理のメイン処理について説明を行う。図8は、学習処理のメイン処理について説明するフローチャート図である。
 教師データ生成部113は、図8に示すように、例えば、学習タイミングになるまで待機する(S41のNO)。学習タイミングは、例えば、作業者によって指定されたタイミングであってよい。具体的に、学習タイミングは、例えば、情報格納領域130に記憶された画像データDT1と種別情報DT2と位置情報DT3との組み合わせの数が学習モデルMDの生成に用いる教師データDT4の数(予め設定された数)に到達したタイミングであってよい。
 そして、学習タイミングになった場合(S41のYES)、教師データ生成部113は、例えば、S12の処理で取得した複数の画像データDT1ごと(情報格納領域130に格納された複数の画像データDT1ごと)に、S23の処理で入力を受け付けた種別情報DT2と位置情報DT3との組み合わせを各画像データDT1に対応付けることによって、複数の教師データDT4を生成する(S42)。
 その後、教師データ生成部113は、例えば、生成した複数の教師データDT4を情報格納領域130に記憶する(S43)。以下、複数の教師データDT4の具体例について説明を行う。
 [教師データDT4の具体例]
 図12は、教師データDT4の具体例を説明する図である。
 図12に示す教師データDT4は、例えば、S12の処理で取得した画像データDT1の識別情報が設定される「画像データ」と、S23の処理で入力を受け付けた種別情報DT2が設定される「種別情報」とを項目として有する。「種別情報」には、例えば、完全体粒子に対応する種別を示す「完全体粒子」、中空粒子に対応する種別を示す「中空粒子」、破損粒子に対応する種別を示す「破損粒子」、または、中間体に対応する種別を示す「中間体」が設定される。
 また、図12に示す教師データDT4は、例えば、S23の処理で入力を受け付けたバウンディングボックスに対応する位置情報DT3が設定される「位置情報(左下座標)」及び「位置情報(右上座標)」を項目として有する。「位置情報(左下座標)」には、例えば、S23の処理で入力を受け付けたバウンディングボックスの左下のX座標及びY座標が設定される。また、「位置情報(右上座標)」には、例えば、S23の処理で入力を受け付けたバウンディングボックスの右上のX座標及びY座標が設定される。なお、教師データDT4は、例えば、位置情報DT3に対応する他の項目(例えば、S23の処理で入力を受け付けたバウンディングボックスの左上の座標や右下の座標)を含むものであってもよい。
 具体的に、図12に示す教師データDT4において、例えば、1行目のデータ(1つ目の教師データDT4)には、「画像データ」として「DT101」が設定され、「種別情報」として「完全体粒子」が設定され、「位置情報(左下座標)」として「24,10」が設定され、「位置情報(右上座標)」として「30,16」が設定されている。
 また、図12に示す教師データDT4において、例えば、2行目のデータ(2つ目の教師データDT4)には、「画像データ」として「DT101」が設定され、「種別情報」として「破損粒子」が設定され、「位置情報(左下座標)」として「12,42」が設定され、「位置情報(右上座標)」として「18,52」が設定されている。
 また、図12に示す教師データDT4において、例えば、5行目のデータ(5つ目の教師データDT4)には、「画像データ」として「DT102」が設定され、「種別情報」として「破損粒子」が設定され、「位置情報(左下座標)」として「14,15」が設定され、「位置情報(右上座標)」として「18,20」が設定されている。図12に含まれる他のデータについての説明は省略する。
 なお、教師データDT4における「位置情報(左下座標)」や「位置情報(右上座標)」には、X座標及びY座標のそれぞれとして、例えば、0から1までの間に正規化された座標が設定されるものであってもよい。
 図8に戻り、学習モデル生成部114は、例えば、S42の処理で生成した複数の教師データDT4の機械学習を行うことによって学習モデルMDを生成する(S44)。
 そして、学習モデル生成部114は、例えば、S44の処理で生成した学習モデルMDを情報格納領域130に記憶する(S45)。
 これにより、情報処理装置1は、例えば、推定処理において用いることが可能な学習モデルMDを生成することが可能になる。
 なお、図12等で説明した教師データDT4の例では、完全体粒子に対応する種別、中空粒子に対応する種別、破損粒子に対応する種別、または、中間体に対応する種別が「種別情報」に設定される場合について説明を行ったが、これに限られない。すなわち、教師データDT4における「種別情報」には、例えば、ウイルスベクター粒子の破損状況に応じた複数の種別(以下、破損種別とも呼ぶ)のうちのいずれかが設定されるものであってもよい。
 具体的に、複数の破損種別には、図13(A)に示すように、例えば、粒子の形状が変形したウイルスベクター粒子を示す破損種別(以下、第1破損種別とも呼ぶ)が含まれるものであってよい。また、複数の破損種別には、図13(B)に示すように、例えば、粒子の外縁の少なくとも一部が破損したウイルスベクター粒子を示す種別(以下、第2破損種別とも呼ぶ)が含まれるものであってよい。また、複数の破損種別には、図13(C)及び図13(D)に示すように、例えば、粒子が複数に断裂したウイルスベクター粒子の少なくとも一部を示す種別(以下、第3破損種別とも呼ぶ)が含まれるものであってよい。そして、教師データDT4には、図14の下線部分に示すように、例えば、第1破損種別と第2破損種別と第3破損種別とを含む複数の破損粒子が区別される形で設定されるものであってよい。
 さらに具体的に、第2破損種別は、例えば、粒子の外縁における破損位置に応じてさらに複数の破損種別に区別されるものであってもよい。具体的に、第2破損種別には、例えば、粒子の外縁における所定方向側(例えば、画像データDT1における上方向側)の一部が破損した破損粒子を示す種別と、粒子の外縁における所定方向と異なる方向側(例えば、画像データDT1における下方向側)の一部が破損した破損粒子を示す種別とのそれぞれが含まれるものであってもよい。
 これにより、本変形例における情報処理装置1は、例えば、各ウイルスベクター粒子の検出精度をより向上させることが可能になる。
 [第1の実施の形態における推定処理のフローチャート図]
 次に、第1の実施の形態における推定処理について説明を行う。図15は、第1の実施の形態における推定処理を説明するフローチャート図である。また、図16は、第1の実施の形態における推定処理を説明する図である。
 画像生成部111は、図15に示すように、例えば、推定タイミングになるまで待機する(S51のNO)。推定タイミングは、例えば、作業者によって指定されたタイミングであってよい。具体的に、推定タイミングは、例えば、学習処理において学習モデルMDが生成された後のタイミングであってよい。
 そして、推定タイミングになった場合(S51のYES)、画像生成部111は、例えば、ウイルスベクター粒子が映る画像データDT11を取得する(S52)。具体的に、画像生成部111は、例えば、TEMによって撮影された画像データDT11をTEMから取得する。
 続いて、画像入力部115は、例えば、S52の処理で取得した画像データDT11を学習モデルMDに入力する(S53)。
 さらに、結果取得部116は、例えば、S53の処理における画像データDT11の入力に伴って学習モデルMDから出力される推定結果を取得する(S54)。推定結果は、例えば、S52の処理で取得された画像データDT11に映るウイルスベクター粒子に対応する種別情報DT12と位置情報DT13との組み合わせについての推定結果である。
 その後、種別出力部117は、例えば、S54の処理で取得した推定結果を、S52の処理で取得した画像データDT11に映るウイルスベクター粒子に対応する種別情報DT12と位置情報DT13との組み合わせとして操作端末2に出力する(S55)。
 具体的に、種別出力部117は、図16に示すように、例えば、各ウイルスベクター粒子の種別情報DT12aと各ウイルスベクター粒子の位置情報DT13a(位置情報DT13aを含むバウンディングボックス)との組み合わせが対応付けられた画像データDT11aを操作端末2に表示する。なお、図16に示す例において、「full」は、完全体粒子を示す種別に対応し、「empty」は、中空粒子を示す種別に対応し、「broken01」は、第1破損種別に対応し、「broken02」は、第2破損種別に対応し、「broken03」は、第3破損種別に対応する。
 これにより、作業者は、例えば、S52の処理で取得した画像データDT11に映るウイルスベクター粒子に対応する種別情報DT12と位置情報DT13との推定結果を閲覧することが可能になる。
 このように、本実施の形態における情報処理装置1は、学習処理において、例えば、被検対象のウイルスベクター粒子が映る複数の画像データDT1(学習用画像データDT1)を生成する。そして、情報処理装置1は、例えば、生成した複数の画像データDT1ごとに、各画像データDT1に映るウイルスベクター粒子の種別情報DT2と各画像データDT1におけるウイルスベクター粒子の位置情報DT3との組み合わせの入力を受け付ける。続いて、情報処理装置1は、例えば、複数の画像データDT1ごとに、入力を受け付けた種別情報DT2と位置情報DT3との組み合わせを各画像データDT1に対応付けることによって、複数の教師データDT4を生成する。その後、情報処理装置1は、例えば、生成した複数の教師データDT4の機械学習を行うことによって学習モデルMDを生成する。
 また、本実施の形態における情報処理装置1は、推定処理において、例えば、ウイルスベクター粒子が映る画像データDT11(判定用画像データDT11)を学習モデルMDに入力する。そして、情報処理装置1は、例えば、画像データDT11の入力に伴って学習モデルMDから出力される推定結果を取得する。その後、情報処理装置1は、例えば、取得した推定結果を、入力された画像データDT11に映るウイルスベクター粒子に対応する種別情報DT12と位置情報DT13との組み合わせとして出力する。
 すなわち、本実施の形態における情報処理装置1は、例えば、画像データDT1とウイルスベクター粒子の種別情報DT2とに加え、画像データDT1におけるウイルスベクター粒子の位置情報DT3についても含む複数の教師データDT4を用いることによって学習モデルMDを生成する。
 これにより、本実施の形態における情報処理装置1は、例えば、各ウイルスベクター粒子の検出を人手によらずに行うことが可能になる。また、情報処理装置1は、例えば、各ウイルスベクター粒子の検出を精度良く行うことが可能になる。
 [画像データDT1の生成方法]
 次に、第1の実施の形態における画像データDT1の生成方法(以下、単に画像生成方法とも呼ぶ)の具体例について説明を行う。以下、ウイルスベクター粒子がAAVベクター粒子である場合について説明を行う。
 画像生成方法は、例えば、TEMによる撮影対象となるAAVベクター粒子を調製する操作を含む。具体的に、AAVベクター粒子の調製は、例えば、AAVベクター粒子を細胞培養によって調製する操作(以下、操作aとも呼ぶ)と、培養上清を限外濾過によって濃縮する操作(以下、操作bとも呼ぶ)と、操作bが行われた後のAAVベクター粒子についてアフィニティー精製を行う操作(以下、操作cとも呼ぶ)とを含む。具体的に、操作bにおいて限外濾過に付されるAAVベクター粒子の量は、例えば、10の12乗個程度(10mL程度)であってよい。また、操作cにおいてアフィニティー精製に付されるAAVベクター粒子の量は、例えば、10の12乗個程度(5mL程度)であってよい。
 そして、画像生成方法では、例えば、操作cが行われた後のAAVベクター粒子を洗浄する操作(以下、操作dとも呼ぶ)と、操作dが行われた後のAAVベクター粒子を所定の染色剤によって染色する操作(以下、操作eとも呼ぶ)とを含む。
 具体的に、操作dは、例えば、3μLのAAVベクター粒子溶液を支持膜(グリッド)に乗せて60sec放置する操作(以下、操作d1とも呼ぶ)と、操作d1が行われた後のAAVベクター粒子が乗る膜の側面に対して濾紙を垂直に当てることによって水分を除去する操作(以下、操作d2とも呼ぶ)と、操作d2が行われた後のAAVベクター粒子に対して3μLの水を添加して10sec放置する操作(以下、操作d3とも呼ぶ)とを含むものであってよい。さらに、操作d2及び操作d3のそれぞれは、例えば、この順に複数回(例えば、3回)行われるものであってもよい。なお、操作d1において用いる支持膜の市販品としては、例えば、日新EM株式会社製の商品名「コロジオン膜貼付メッシュ」が挙げられる。
 また、操作eは、例えば、操作dが行われた後のAAVベクター粒子が乗る膜に所定の染色剤を乗せて60sec放置する操作(以下、操作e1とも呼ぶ)と、操作e1が行われた後のAAVベクター粒子が乗る膜の側面に対して濾紙を垂直に当てることによって水分を除去する操作(以下、操作e2とも呼ぶ)と、操作e2が行われた後のAAVベクター粒子が乗る膜を、AAVベクター粒子が乗る面を下向きにした状態で濾紙に乗せて120sec放置する操作(以下、操作e3とも呼ぶ)とを含むものであってよい。
 その後、画像生成方法では、例えば、操作eが行われた後のAAVベクター粒子をTEMによって撮影することによって画像データDT1を生成する。
 すなわち、本実施の形態における画像生成方法では、操作bを行うことによって、例えば、各画像データDT1において十分な数(例えば、300個から400個程度)のAAVベクター粒子が映るように調製することが可能になる。また、画像生成方法では、操作c、操作d及び操作eを行うことによって、例えば、画像データDT1に映るAAVベクター粒子の鮮明度を上昇させることが可能になる。
 これにより、画像生成方法では、例えば、学習モデルMDの生成に適した画像データDT1を生成することが可能になる。そのため、本実施の形態における学習処理では、例えば、判定精度の高い学習モデルMDを生成することが可能になる。
 なお、操作eにおいて用いる所定の染色剤は、例えば、リンタングステン酸、モリブテン酸アンモニウム、メチルアミンタングステートまたはメチルアミンバナデートを有効成分とするネガティブ染色試薬が挙げられ、メチルアミンタングステートまたはメチルアミンバナデートを有効成分とするネガティブ染色試薬が好ましい。これにより、画像生成方法では、例えば、画像データDT1に映るAAVベクター粒子の鮮明度をより上昇させることが可能になる。
 また、画像生成方法では、例えば、操作b、操作c、操作d及び操作eの全てが行われないものであってもよい。すなわち、画像生成方法では、例えば、操作b、操作c、操作d及び操作eのうちの一部の操作が行われないものであってもよい。
1:情報処理装置
2:操作端末
10:情報処理システム
101:CPU
102:メモリ
103:通信インタフェース
104:記憶媒体
105:バス
110:プログラム
111:画像生成部
112:種別入力受付部
113:教師データ生成部
114:学習モデル生成部
115:画像入力部
116:結果取得部
117:種別出力部
130:情報格納領域
DT1:画像データ
DT2:種別情報
DT3:位置情報
DT4:教師データ
DT11:画像データ
DT12:種別情報
DT13:位置情報
MD:学習モデル

Claims (9)

  1.  被検対象のウイルス粒子の種別を検出するウイルス粒子検出方法であって、
     前記ウイルス粒子が映る複数の学習用画像データを生成し、
     生成した前記複数の学習用画像データごとに、各学習用画像データに映る前記ウイルス粒子の前記種別と各学習用画像データにおける前記ウイルス粒子の位置情報との組み合わせの入力を受け付け、
     前記複数の学習用画像データごとに、入力を受け付けた前記組み合わせを各学習用画像データに対応付けることによって、前記複数の教師データを生成し、
     生成した前記複数の教師データの機械学習を行うことによって学習モデルを生成し、
     前記ウイルス粒子が映る判定用画像データを前記学習モデルに入力し、
     前記判定用画像データの入力に伴って前記学習モデルから出力される推定結果を取得し、
     取得した前記推定結果を、前記判定用画像データに映る前記ウイルス粒子に対応する前記組み合わせとして出力する、
     ことを特徴とするウイルス粒子検出方法。
  2.  前記入力を受け付ける工程では、前記複数の学習用画像データごとに、各学習用画像データに映る前記ウイルス粒子の前記種別として、完全体粒子を示す種別、中空粒子を示す種別、破損粒子を示す種別及び中間体を示す種別を含む複数の種別のうちのいずれかの入力を受け付ける、
     ことを特徴とする請求項1に記載のウイルス粒子検出方法。
  3.  前記破損粒子を示す種別は、前記ウイルス粒子の破損状況に応じた複数の破損種別を含み、
     前記入力を受け付ける工程では、前記複数の学習用画像データごとに、各学習用画像データに映る前記ウイルス粒子の前記種別として、前記複数の破損種別を含む前記複数の種別のうちのいずれかの入力を受け付ける、
     ことを特徴とする請求項2に記載のウイルス粒子検出方法。
  4.  前記複数の破損種別は、粒子の形状が変形した前記ウイルス粒子を示す種別と、粒子の外縁の少なくとも一部が破損した前記ウイルス粒子を示す種別と、粒子が複数に断裂した前記ウイルス粒子を示す種別とを含む、
     ことを特徴とする請求項3に記載のウイルス粒子検出方法。
  5.  前記複数の破損種別は、粒子の外縁における所定方向側の一部が破損した前記ウイルス粒子を示す種別と、粒子の外縁における前記所定方向と異なる方向側の一部が破損した前記ウイルス粒子を示す種別とを含む、
     ことを特徴とする請求項3に記載のウイルス粒子検出方法。
  6.  さらに、前記学習用画像データを生成する工程の前に、前記ウイルス粒子を培養し、
     培養された前記ウイルス粒子について限外濾過を行い、
     限外濾過を行った前記ウイルス粒子についてアフィニティー精製を行い、
     アフィニティー精製を行った前記ウイルス粒子を洗浄し、
     洗浄した前記ウイルス粒子を所定の染色剤によって染色し、
     前記複数の学習用画像データを生成する工程では、染色した前記ウイルス粒子が映る前記複数の学習用画像データを生成する、
     ことを特徴とする請求項1に記載のウイルス粒子検出方法。
  7.  前記所定の染色剤は、メチルアミンタングステートまたはメチルアミンバナデートを有効成分とするネガティブ染色試薬である、
     ことを特徴とする請求項6に記載のウイルス粒子検出方法。
  8.  被検対象のウイルス粒子の種別を検出する情報処理装置であって、
     前記ウイルス粒子が映る複数の学習用画像データを生成する画像生成部と、
     生成した前記複数の学習用画像データごとに、各学習用画像データに映る前記ウイルス粒子の前記種別と各学習用画像データにおける前記ウイルス粒子の位置情報との組み合わせの入力を受け付ける種別入力受付部と、
     前記複数の学習用画像データごとに、入力を受け付けた前記組み合わせを各学習用画像データに対応付けることによって、前記複数の教師データを生成する教師データ生成部と、
     生成した前記複数の教師データの機械学習を行うことによって学習モデルを生成する学習モデル生成部と、
     前記ウイルス粒子が映る判定用画像データを前記学習モデルに入力する画像入力部と、
     前記判定用画像データの入力に伴って前記学習モデルから出力される推定結果を取得する結果取得部と、
     取得した前記推定結果を、前記判定用画像データに映る前記ウイルス粒子に対応する前記組み合わせとして出力する種別出力部とを有する、
     ことを特徴とする情報処理装置。
  9.  被検対象のウイルス粒子の種別を検出する処理をコンピュータに実行させるウイルス粒子検出プログラムであって、
     前記ウイルス粒子が映る複数の学習用画像データを生成し、
     生成した前記複数の学習用画像データごとに、各学習用画像データに映る前記ウイルス粒子の前記種別と各学習用画像データにおける前記ウイルス粒子の位置情報との組み合わせの入力を受け付け、
     前記複数の学習用画像データごとに、入力を受け付けた前記組み合わせを各学習用画像データに対応付けることによって、前記複数の教師データを生成し、
     生成した前記複数の教師データの機械学習を行うことによって学習モデルを生成し、
     前記ウイルス粒子が映る判定用画像データを前記学習モデルに入力し、
     前記判定用画像データの入力に伴って前記学習モデルから出力される推定結果を取得し、
     取得した前記推定結果を、前記判定用画像データに映る前記ウイルス粒子に対応する前記組み合わせとして出力する、
     ことを特徴とするウイルス粒子検出プログラム。
PCT/JP2023/020378 2022-06-07 2023-05-31 ウイルス粒子検出方法、情報処理装置及びウイルス粒子検出プログラム WO2023238756A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202263349783P 2022-06-07 2022-06-07
US63/349,783 2022-06-07

Publications (1)

Publication Number Publication Date
WO2023238756A1 true WO2023238756A1 (ja) 2023-12-14

Family

ID=89118279

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/020378 WO2023238756A1 (ja) 2022-06-07 2023-05-31 ウイルス粒子検出方法、情報処理装置及びウイルス粒子検出プログラム

Country Status (1)

Country Link
WO (1) WO2023238756A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009511046A (ja) * 2005-10-12 2009-03-19 インテリジェント ヴァイルス イメージング インコーポレイテッド ウイルス粒子の組織化電子顕微鏡写真における識別及び分類
JP2017031204A (ja) * 2010-11-04 2017-02-09 アカデミア シニカAcademia Sinica 表面タンパク質の単純化したグリコシル化によるウイルス粒子の生産方法
CN112712031A (zh) * 2020-12-31 2021-04-27 水木未来(北京)科技有限公司 一种病毒颗粒的识别方法及装置
JP2022020559A (ja) * 2020-07-20 2022-02-01 キヤノン株式会社 画像処理装置、画像処理方法、および、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009511046A (ja) * 2005-10-12 2009-03-19 インテリジェント ヴァイルス イメージング インコーポレイテッド ウイルス粒子の組織化電子顕微鏡写真における識別及び分類
JP2017031204A (ja) * 2010-11-04 2017-02-09 アカデミア シニカAcademia Sinica 表面タンパク質の単純化したグリコシル化によるウイルス粒子の生産方法
JP2022020559A (ja) * 2020-07-20 2022-02-01 キヤノン株式会社 画像処理装置、画像処理方法、および、プログラム
CN112712031A (zh) * 2020-12-31 2021-04-27 水木未来(北京)科技有限公司 一种病毒颗粒的识别方法及装置

Similar Documents

Publication Publication Date Title
Turk et al. The promise and the challenges of cryo‐electron tomography
JP5344922B2 (ja) 電子顕微鏡写真におけるウイルス粒子構造の識別及び特徴付けの方法
Condezo et al. Structures of adenovirus incomplete particles clarify capsid architecture and show maturation changes of packaging protein L1 52/55k
Ghildyal et al. The matrix protein of Human respiratory syncytial virus localises to the nucleus of infected cells and inhibits transcription
JP5243535B2 (ja) イメージ内のウィルス顆粒を集計及び区分する方法
JP2016071412A (ja) 画像分類装置、画像分類システム、画像分類方法、及びプログラム
WO2023238756A1 (ja) ウイルス粒子検出方法、情報処理装置及びウイルス粒子検出プログラム
JP2004134758A (ja) 検査システムセットアップ技術
Lin et al. Plasma proteomic profiling for detecting and differentiating in situ and invasive carcinomas of the uterine cervix
Burton-Smith et al. Cryo-electron microscopy of the giant viruses
JP2010224922A (ja) クラス識別器生成装置
De Sá Magalhães et al. Quality assessment of virus-like particle: A new transmission electron microscopy approach
JP4978504B2 (ja) 情報処理装置、通信情報採取方法、及び、プログラム
CN114740825A (zh) 数据测量标定方法、装置、车用控制器、车辆及介质
CN114240899A (zh) 一种基于图像配准的导波频散曲线模态追踪方法及系统
CN102183923A (zh) 一种计算机关联事件执行控制方法及系统
CN105647915A (zh) 猴b病毒抗体的免疫梳检测试纸及制备方法和应用
CN112700445B (zh) 图像处理方法、装置及系统
JPH0961436A (ja) 蛍光抗体検査装置
JP2003150960A (ja) 識別処理装置およびそのコンピュータプログラム
Lu et al. A cluster of 3′ coterminal transcripts from US12–US17 locus of human cytomegalovirus
JP6261152B2 (ja) 二次元電気泳動画像の解析方法、解析プログラム、及び解析装置
JP2024035180A (ja) 荷電粒子顕微鏡デバイスのアプリケーション管理
CN114862599A (zh) 利用无人设备进行银行业务处理的方法及装置
JPWO2021130979A5 (ja)

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23819736

Country of ref document: EP

Kind code of ref document: A1