JP2021126074A - Dyed image generation system, dyed image generation method and program - Google Patents
Dyed image generation system, dyed image generation method and program Download PDFInfo
- Publication number
- JP2021126074A JP2021126074A JP2020022917A JP2020022917A JP2021126074A JP 2021126074 A JP2021126074 A JP 2021126074A JP 2020022917 A JP2020022917 A JP 2020022917A JP 2020022917 A JP2020022917 A JP 2020022917A JP 2021126074 A JP2021126074 A JP 2021126074A
- Authority
- JP
- Japan
- Prior art keywords
- image
- visible light
- fertilized egg
- learning
- stained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Apparatus Associated With Microorganisms And Enzymes (AREA)
Abstract
Description
本発明は、染色画像生成システム、染色画像生成方法および染色画像生成プログラムに関する。 The present invention relates to a stained image generation system, a stained image generation method, and a stained image generation program.
人工授精によって得られた受精卵においては、当該受精卵の出生率が高いことが期待される。受精卵が正常であるか否か、染色体異常があるか否か等の解析を行うために、従来、受精卵の各種の特徴に基づいて解析を行う技術が知られている。例えば、特許文献1においては、受精卵の経時変化に基づいて解析を行う技術が開示されている。特許文献2においては、受精卵の細胞皮質の量に基づいて解析を行う技術が開示されている。特許文献3においては、受精卵の正常画像データと異常画像データとに基づいて識別器を生成する技術が開示されている。 In fertilized eggs obtained by artificial insemination, the fertilized egg is expected to have a high fertility rate. In order to analyze whether or not a fertilized egg is normal and whether or not there is a chromosomal abnormality, a technique for performing analysis based on various characteristics of a fertilized egg has been conventionally known. For example, Patent Document 1 discloses a technique for performing analysis based on a change over time in a fertilized egg. Patent Document 2 discloses a technique for performing analysis based on the amount of cell cortex of a fertilized egg. Patent Document 3 discloses a technique for generating a classifier based on normal image data and abnormal image data of a fertilized egg.
上述の従来技術は、染色体の状態を直接的に視認して解析するものではない。受精卵が正常であるか否か、染色体異常があるか否か等の解析は、染色体の状態を直接的に視認して行うことが好ましい。 The above-mentioned prior art does not directly visually recognize and analyze the state of chromosomes. It is preferable to directly visually recognize the state of the chromosome for analysis of whether or not the fertilized egg is normal and whether or not there is a chromosomal abnormality.
染色体を直接的に観察するために、受精卵を染色液で染色することが行われている。染色液によれば、紫外線照明下で染色体が蛍光を発して染色されるため、染色体の構造等を視認して解析を行うことができる。しかし、受精卵を染色液で染色すると、胚が死滅するため、解析後の受精卵を利用することができない。
本発明は、前記課題にかんがみてなされたもので、受精卵を死滅させずに染色された状態の受精卵を解析可能にすることを目的とする。
In order to directly observe the chromosomes, fertilized eggs are stained with a staining solution. According to the staining solution, the chromosomes fluoresce and are stained under ultraviolet illumination, so that the structure of the chromosomes and the like can be visually recognized and analyzed. However, when the fertilized egg is stained with a staining solution, the embryo is killed, so that the fertilized egg after the analysis cannot be used.
The present invention has been made in view of the above problems, and an object of the present invention is to make it possible to analyze a fertilized egg in a stained state without killing the fertilized egg.
上述の目的を達成するため、染色画像生成システムは、解析対象の受精卵に可視光を照射して撮影した画像である解析用可視光照射画像を取得する解析用可視光照射画像取得部と、染色液を含む溶媒中の学習用受精卵に可視光を照射して撮影した画像である学習用可視光照射画像と前記学習用受精卵に紫外線を照射して撮影した画像である学習用紫外線照射画像とに基づいて機械学習された機械学習モデルであって、可視光照明下の受精卵の画像から、染色された受精卵の画像を生成する機械学習モデルに対して、前記解析用可視光照射画像を入力し、前記解析対象の受精卵が染色された画像である染色画像を生成する染色画像生成部と、を備える。 In order to achieve the above-mentioned object, the stained image generation system includes an analysis visible light irradiation image acquisition unit that acquires an analysis visible light irradiation image which is an image taken by irradiating the fertilized egg to be analyzed with visible light. The learning visible light irradiation image which is an image taken by irradiating the learning fertilized egg in a solvent containing a staining solution with visible light and the learning ultraviolet irradiation image which is an image taken by irradiating the learning fertilized egg with ultraviolet light. A machine learning model that is machine-learned based on an image and that generates a stained image of a fertilized egg from an image of a fertilized egg under visible light illumination is irradiated with visible light for analysis. It includes a stained image generation unit that inputs an image and generates a stained image that is an image in which the fertilized egg to be analyzed is stained.
すなわち、染色画像生成システムにおいては、受精卵に可視光を照射して撮影した画像から、受精卵が染色された画像を生成する機械学習モデルが予め生成されている。このため、解析対象の受精卵を可視光照明下で撮影し、機械学習モデルに入力すれば、解析対象の受精卵が染色された画像である染色画像を生成することができる。染色画像に対して解析を行えば、解析対象の受精卵が正常であるか否か、染色体異常があるか否か等を推定することができる。そして、解析対象の受精卵に染色液は用いられないため、解析によって受精卵が死滅することはない。従って、解析対象の受精卵の中から正常な可能性が高い受精卵を選別するなどにより、不妊治療における人工授精や、畜産業界での人工授精などにおける出生率を向上させることができる。 That is, in the stained image generation system, a machine learning model that generates an image in which the fertilized egg is stained is generated in advance from an image taken by irradiating the fertilized egg with visible light. Therefore, if the fertilized egg to be analyzed is photographed under visible light illumination and input to the machine learning model, it is possible to generate a stained image which is an image in which the fertilized egg to be analyzed is stained. By analyzing the stained image, it is possible to estimate whether or not the fertilized egg to be analyzed is normal, whether or not there is a chromosomal abnormality, and the like. Since the staining solution is not used for the fertilized egg to be analyzed, the fertilized egg is not killed by the analysis. Therefore, it is possible to improve the birth rate in artificial insemination in infertility treatment and artificial insemination in the livestock industry by selecting fertilized eggs that are highly likely to be normal from the fertilized eggs to be analyzed.
ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)染色画像生成システムの構成:
(2)機械学習処理:
(3)染色画像生成処理:
(4)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of stained image generation system:
(2) Machine learning process:
(3) Stained image generation processing:
(4) Other embodiments:
(1)染色画像生成システムの構成:
図1は染色画像生成システム10を含む受精卵解析システム1の概略構成を示す図であり、図2は受精卵解析システム1のブロック図である。受精卵解析システム1は、染色画像生成システム10、顕微鏡40、ディスプレイ50を備えている。図1,図2においては省略されているが、染色画像生成システム10に対して各種のユーザインタフェース(キーボードやマウス等)が接続されていてもよい。本実施形態において、受精卵解析システム1で撮影される対象はシャーレS内の溶媒中に存在する受精卵である。本実施形態においては受精卵の染色体等が解析対象となるが、当該染色体を解析可能にするため、顕微鏡40が利用される。
(1) Configuration of stained image generation system:
FIG. 1 is a diagram showing a schematic configuration of a fertilized egg analysis system 1 including a stained
本実施形態にかかる顕微鏡40は、対物レンズLo、接眼レンズLeを備えており、ユーザは、回転部Rを回転操作しながら接眼レンズLeを通して受精卵を拡大観察することが可能である。なお、拡大倍率は、例えば、100倍程度である。本実施形態にかかる顕微鏡40は、カメラ41、可視光源42、UV光源43を備えている。カメラ41は、可視光(例えば、400nm〜750nm)の強度を検出するエリアセンサを備えたカメラである。なお、本実施形態においてカメラ41は、紫外線を出力しない。
The
可視光源42は、白色光を観察対象に照射する光源である。UV光源43は、紫外線(例えば400nmより小さい波長の光)を観察対象に照射する光源である。顕微鏡40においては、手動または自動で光源を切り替えることができる。従って、可視光源42が点灯され、UV光源43が消灯された状態でカメラ41による撮影が行われると、可視光照明下で受精卵を撮影することができる。また、UV光源43が点灯され、可視光源42が消灯された状態でカメラ41による撮影が行われると、紫外線照明下で受精卵を撮影することができる。
The
本実施形態において染色画像生成システム10は、据置型のコンピュータであり、制御部20、記録媒体30を備えている。また、染色画像生成システム10には、図示しないインタフェースを介して顕微鏡40およびディスプレイ50が接続される。染色画像生成システム10の制御部20は、顕微鏡40に対して種々の信号を出力し、顕微鏡40から画像データ等の種々の情報を取得することができる。また、染色画像生成システム10は、ディスプレイ50を制御して任意の画像を表示させることができる。
In the present embodiment, the stained
制御部20は、図示しないCPU,RAM,ROM,GPUを備えており、記録媒体30等に記録された各種プログラムを実行することができる。本実施形態において、制御部20は、染色画像生成プログラム21と機械学習プログラム22とを実行することができる。染色画像生成プログラム21は、カメラ41によって解析対象の受精卵が可視光照明下で撮影された解析用可視光照射画像に基づいて、受精卵が染色された画像である染色画像を生成する機能を制御部20に実行させるプログラムである。染色画像生成プログラム21が実行されると、制御部20は、解析用可視光照射画像取得部21a、染色画像生成部21bとして機能する。
The
本実施形態において、当該染色画像の生成は予め行われた機械学習の結果に基づいて実行される。機械学習プログラム22は、カメラ41によって学習用受精卵が可視光照明下で撮影された学習用可視光照射画像と、学習用受精卵が紫外線照明下で撮影された学習用紫外線照射画像とに基づいて染色画像を生成するためのモデルを機械学習する機能を制御部20に実行させるプログラムである。機械学習プログラム22が実行されると、制御部20は、機械学習部22aとして機能する。
In the present embodiment, the generation of the stained image is performed based on the result of machine learning performed in advance. The
(2)機械学習処理:
本実施形態において、機械学習処理は、ニューラルネットワークを形成する訓練モデルを最適化する処理である。本実施形態においては、可視光照明下で受精卵が撮影された画像から染色画像を生成するモデルを機械学習する。従って、本実施形態において、モデルとは、入力される画像データの画素毎の階調値を入力値とし、生成される画像の画像データの画素毎の階調値を出力値とした場合における両データの対応関係を導出する式を示す情報である。
(2) Machine learning process:
In the present embodiment, the machine learning process is a process of optimizing the training model that forms the neural network. In this embodiment, machine learning is performed on a model that generates a stained image from an image of a fertilized egg taken under visible light illumination. Therefore, in the present embodiment, the model means both in the case where the gradation value for each pixel of the input image data is used as the input value and the gradation value for each pixel of the image data of the generated image is used as the output value. It is information showing an expression for deriving the correspondence of data.
モデルは、種々の態様であってよいが、本実施形態においては、pix2pixと呼ばれるモデルを機械学習することが想定されている。なお、pix2pixについては、例えば、Image-to-Image Translation with Conditional Adversarial Networks(arXiv:1611.07004v3 [cs.CV] 26 Nov 2018)に開示されている。 The model may be in various modes, but in the present embodiment, it is assumed that a model called pix2pix is machine-learned. Note that pix2pix is disclosed in, for example, Image-to-Image Translation with Conditional Adversarial Networks (arXiv: 1611.00704v3 [cs.CV] 26 Nov 2018).
図3は、本実施形態における機械学習モデルを模式的に示す図である。本実施形態においては、生成モデルGと識別モデルDとが訓練モデルとして用意される。生成モデルGは、1枚の画像から他の画像を生成するモデルである。識別モデルDは、第1の画像および第2の画像を比較し、第2の画像が、第1の画像から生成された偽物の画像であるか否か識別するモデルである。 FIG. 3 is a diagram schematically showing a machine learning model in this embodiment. In the present embodiment, the generative model G and the discriminative model D are prepared as training models. The generative model G is a model that generates another image from one image. The discriminative model D is a model that compares the first image and the second image and discriminates whether or not the second image is a fake image generated from the first image.
本実施形態においては、受精卵に可視光を照射して撮影した画像Ivtを生成モデルGに入力し、受精卵に紫外線を照射して撮影した画像Iufを生成するように機械学習する。また、本実施形態においては、受精卵に可視光を照射して撮影した画像Ivtを第1の画像とし、生成モデルGで生成された画像Iuf、または受精卵に紫外線を照射して撮影した画像Iutを第2の画像として識別モデルDに入力する。そして、第2の画像が生成された画像Iufである場合に偽、第2の画像が第1の画像の受精卵を染色液に入れて紫外線照明下で撮影した画像Iutである場合に真を出力するように、識別モデルDは機械学習される。機械学習を行う際のモデルの構造や損失関数の設定等は、種々の手法で行われてよく、例えば、上述のImage-to-Image Translation with Conditional Adversarial Networks(arXiv:1611.07004v3 [cs.CV] 26 Nov 2018)など、種々の公知技術を利用可能である。 In the present embodiment, the image Ivt taken by irradiating the fertilized egg with visible light is input to the generative model G, and machine learning is performed so as to generate the image Iuf taken by irradiating the fertilized egg with ultraviolet rays. Further, in the present embodiment, the image Ivt taken by irradiating the fertilized egg with visible light is used as the first image, and the image Iff generated by the generative model G or the image taken by irradiating the fertilized egg with ultraviolet rays. Iut is input to the identification model D as a second image. Then, false when the second image is the generated image If, and true when the second image is the image Iut taken under ultraviolet illumination by putting the fertilized egg of the first image in the staining solution. The discriminative model D is machine-learned to output. The structure of the model and the setting of the loss function when performing machine learning may be performed by various methods. For example, the above-mentioned Image-to-Image Translation with Conditional Adversarial Networks (arXiv: 1611.07004v3 [cs.CV]] Various known technologies such as 26 Nov 2018) are available.
以上のような機械学習を行うにあたり、記録媒体30には予め教師データ30aが記録される。制御部20は、当該教師データ30aに基づいてニューラルネットワークの訓練モデルを最適化し、最適化された機械学習済のモデルを機械学習モデル30bとして記録媒体30に記録させる。教師データ30aは、受精卵に可視光を照射して撮影した画像と、当該受精卵の溶媒中に染色液が入れられた状態で紫外線を照射して撮影した画像との組が複数組用意されることで生成される。
In performing the machine learning as described above, the
生成モデルGの機械学習を効率的に進め、かつ、充分な精度になるまで進めるためには、可視光照明下と紫外線照明下とで同一の状態の受精卵の画像が教師データ30aの組になることが好ましい。すなわち、受精卵は溶媒中で容易に移動し、回転するため、容易に異なる姿勢になる。姿勢が同一であれば受精卵の構成要素(細胞核や染色体等)が画像内で同一の位置にあるため、可視光照明下で撮影された画像と紫外線照明下で撮影された画像との差異は主に染色の有無になる。この場合、生成モデルGは、単に、染色されていない受精卵を染色された受精卵に変換すればよいため、比較的単純な変換を行えばよい。
In order to efficiently proceed with machine learning of the generative model G and to achieve sufficient accuracy, images of fertilized eggs in the same state under visible light illumination and ultraviolet illumination are combined into a set of
しかし、受精卵における位置の変動や回転を許容すると、受精卵の構成要素の染色による変化に加え、位置や姿勢等の変化を生成モデルGによって再現する必要がある。このような学習は非常に困難であり、染色体の解析などに耐え得る程度の高精度の再現を実行可能な生成モデルを機械学習することは事実上不可能である。 However, if the change in position and rotation of the fertilized egg are allowed, it is necessary to reproduce the change in position, posture, and the like in addition to the change due to staining of the components of the fertilized egg by the generative model G. Such learning is extremely difficult, and it is virtually impossible to machine-learn a generative model capable of performing high-precision reproduction that can withstand chromosome analysis and the like.
そこで、本実施形態においては、可視光照明下で撮影された画像と、紫外線照明下で撮影された画像とで受精卵が同一の状態(またはほぼ同一の状態)であるように撮影を行う。具体的には、利用者は、学習用受精卵が存在する溶媒をシャーレS内に用意して顕微鏡40にセットする。次に、利用者は、溶媒に染色液を入れる。染色液は、例えば、Hoechst(登録商標) 33342等のヘキスト染色剤等を利用可能であり、例えば、溶媒に対して、例えば、1mg/ml程度の量とされる。
Therefore, in the present embodiment, the image taken under visible light illumination and the image taken under ultraviolet illumination are photographed so that the fertilized egg is in the same state (or substantially the same state). Specifically, the user prepares a solvent in which the fertilized egg for learning is present in the petri dish S and sets it in the
本実施形態において学習用受精卵は、染色液を含む溶媒中で紫外線が照射されると蛍光を発するが、可視光が照射されても蛍光は観察されない(またはほぼ観察されない)。従って、シャーレSに対して染色液を入れた後に、可視光照明下および紫外線照明下で学習用受精卵を撮影すれば、同一の状態(またはほぼ同一の状態)の受精卵を可視光、紫外線のそれぞれで照明した場合の画像を撮影することができる。 In the present embodiment, the fertilized learning egg fluoresces when irradiated with ultraviolet rays in a solvent containing a staining solution, but fluorescence is not observed (or almost not observed) even when irradiated with visible light. Therefore, if the fertilized eggs for learning are photographed under visible light illumination and ultraviolet illumination after adding the staining solution to Chare S, the fertilized eggs in the same state (or almost the same state) can be seen with visible light and ultraviolet rays. It is possible to take an image when illuminated by each of the above.
本実施形態にかかる制御部20は、機械学習プログラム22の機能により、このような撮影を行うことができる。具体的には、シャーレSに対して染色液を入れ、顕微鏡40を操作してカメラ41の視野内に学習用受精卵を配置した後、利用者が撮影指示を行う。撮影指示が行われると制御部20は、可視光源42を制御して可視光を出力させ、UV光源43を制御して紫外線が出力されない状態にする。また、制御部20は、カメラ41を制御して学習用受精卵を撮影する。撮影された学習用可視光照射画像は、RAMに記録される。
The
さらに、制御部20は、可視光源42を制御して可視光が出力されない状態とし、UV光源43を制御して紫外線を出力させる。また、制御部20は、カメラ41を制御して学習用受精卵を撮影する。撮影された学習用紫外線照射画像は、RAMに記録される。そして、制御部20は、撮影された学習用可視光照射画像と学習用紫外線照射画像とを対応づけた1組のデータとし、教師データ30aとして記録媒体30に記録する。制御部20は、以上の処理を繰り返すことにより、複数組のデータを有する教師データ30aを作成する。
Further, the
なお、教師データ30aを構成する学習用可視光照射画像と学習用紫外線照射画像とにおける縦横の画素数は、生成モデルGに応じて決まる既定の数である。従って、制御部20は、当該既定の数に合わせるために拡大、縮小処理やトリミング処理を行ってよい。また、教師データ30aの作成に際しては、各種の手法でデータ作成処理の効率化が行われてもよい。例えば、複数の学習用受精卵がカメラ41の視野に存在する状態で撮影が行われ、1個ずつの学習用受精卵の画像が切り出されてもよい。
The number of vertical and horizontal pixels in the learning visible light irradiation image and the learning ultraviolet irradiation image constituting the
さらに、機械学習を実施するためには、教師データ30aのデータ量が十分に確保されていることが好ましい。そこで、データ量を増やすために、各種の水増し処理、例えば、画像の回転、移動、反転、拡大、縮小の各処理が行われ、異なる組の教師データ30aとされてもよい。
Further, in order to carry out machine learning, it is preferable that a sufficient amount of data of the
教師データ30aにおいては、学習用受精卵が同一の状態で撮影されればよく、この意味では学習用紫外線照射画像が先に撮影され、学習用可視光照射画像が後に撮影されてもよい。ただし、本実施形態のように、学習用受精卵に対する紫外線の照射および学習用紫外線照射画像の撮影が、学習用可視光照射画像の撮影後に行われる構成であるとより好ましい。すなわち、染色液を溶媒に入れてから学習用受精卵が蛍光を出力可能になるまでに、僅かに時間がかかる可能性がある。また、染色液によって可視光下で学習用受精卵の色が僅かに変化する場合、染色開始からの時間が長いほどその影響が大きいと考えられる。
In the
そこで、先に学習用可視光照射画像を撮影し、後に学習用紫外線照射画像を撮影する構成とすれば、染色液による影響を抑制した状態で学習用可視光照射画像を撮影し、染色液によって蛍光が出力される状態で学習用紫外線照射画像することが可能である。なお、本出願人の実験によれば、学習用可視光照射画像と学習用紫外線照射画像とにおいて、一方の受精卵の画像を基準とした場合に許容される他方の受精卵の画像のずれは4%程度であることが判明している。従って、ずれが4%以内になるように教師データ30aを用意することが好ましい。また、学習用可視光照射画像と学習用紫外線照射画像とを撮影した場合に、両者のずれが4%より大きい場合、回転処理等の画像処理を行って、両者のずれを4%未満にして教師データ30aとする構成としてもよい。
Therefore, if the learning visible light irradiation image is first taken and then the learning ultraviolet irradiation image is taken, the learning visible light irradiation image is taken with the influence of the dyeing solution suppressed, and the dyeing solution is used. It is possible to perform an ultraviolet irradiation image for learning in a state where fluorescence is output. According to the experiment of the applicant, the deviation between the image of the visible light irradiation for learning and the image of the other fertilized egg that is allowed when the image of one fertilized egg is used as a reference is It is known to be about 4%. Therefore, it is preferable to prepare the
以上のような教師データ30aは、機械学習が行われる前に予め用意される。教師データ30aが用意されると、当該教師データ30aを利用して機械学習を行うことができる。すなわち、訓練モデルとして予め用意された生成モデルGに対し、学習用可視光照射画像を入力すると、染色画像が生成される。一方、識別モデルDに対して、当該生成された染色画像と、染色画像を生成する際の基の学習用可視光照射画像を入力すると、偽または真が出力される。識別モデルDに対して、学習用可視光照射画像と学習用紫外線照射画像とを入力すると、偽または真が出力される。
The
そこで、生成された染色画像が入力された場合に識別モデルDが偽を出力し、学習用紫外線照射画像が入力された場合に識別モデルDが真を出力するように学習を進めれば、生成モデルGによって生成される染色画像が本物の画像(染色された受精卵を撮影した画像)に近くなる。 Therefore, if the learning proceeds so that the discriminative model D outputs false when the generated stained image is input and the discriminative model D outputs true when the learning ultraviolet irradiation image is input, the generation is generated. The stained image generated by the model G becomes close to the real image (the image obtained by photographing the stained fertilized egg).
図4は機械学習処理を示すフローチャートである。機械学習処理は、解析対象の受精卵の染色画像の生成が行われる前に予め実行される。また、機械学習処理が行われる前には、予め教師データ30aが用意される。機械学習処理が開始されると、制御部20は、機械学習部22aの機能により、訓練モデルを取得する(ステップS100)。本実施形態において、制御部20は、可視光照明下で撮影された受精卵の画像を入力値とし、受精卵が染色液に入れられ、紫外線照明下で蛍光を発した状態で撮影された画像を出力値とする生成モデルGの訓練モデル(モデルを示すフィルタや活性化関数、損失関数等の情報)を取得する。
FIG. 4 is a flowchart showing the machine learning process. The machine learning process is executed in advance before the generation of the stained image of the fertilized egg to be analyzed is performed. Further, before the machine learning process is performed, the
また、制御部20は、可視光照明下で撮影された受精卵の画像と、染色された受精卵の画像(生成された染色画像または撮影された染色画像)とを入力値とし、染色された受精卵の画像が真偽のいずれであるのかを出力値とする識別モデルDの訓練モデル(モデルを示すフィルタや活性化関数、損失関数等の情報)を取得する。
Further, the
次に、制御部20は、機械学習部22aの機能により、教師データ30aを取得する(ステップS105)。本実施形態において、教師データ30aは、学習用可視光照射画像と学習用紫外線照射画像が対応づけられた情報である。
Next, the
次に、制御部20は、機械学習部22aの機能により、テストデータを取得する(ステップS110)。本実施形態においては、教師データ30aの一部を抽出し、学習の汎化が行われたか否かを確認するためのテストデータとする。なお、テストデータは、機械学習には使用されない。
Next, the
次に、制御部20は、機械学習部22aの機能により、初期値を決定する(ステップS115)。すなわち、制御部20は、ステップS100で取得した訓練モデルのうち、学習対象となる可変のパラメーター(フィルタの重みやバイアス等)に対して初期値を与える。初期値は、種々の手法で決定されて良い。むろん、学習の過程でパラメーターが最適化されるように初期値が調整されても良いし、各種のデータベース等から学習済のパラメーターが取得されて利用されても良い。
Next, the
次に、制御部20は、機械学習部22aの機能により、学習を行う(ステップS120)。すなわち、制御部20は、ステップS100で取得した訓練モデルの生成モデルGに対して、ステップS105で取得した教師データ30aの学習用可視光照射画像を入力し、染色画像を出力する。次に、制御部20は、識別モデルDに対して学習用可視光照射画像と、比較画像とを入力し、真偽のいずれかを出力する。なお、比較画像は、学習用紫外線照射画像(すなわち、真の画像)または生成モデルGで生成された染色画像(すなわち、偽の画像)のいずれかである。いずれを利用するのかは、予め統計的に決められている。
Next, the
訓練モデルによる最終的な出力値、すなわち、生成モデルGによって生成された染色画像と、識別モデルDによって識別された真偽の出力とが得られると、制御部20は、当該出力値と、正解値(教師データ30aが示す学習用紫外線照射画像と、比較画像の真偽を示す情報)とに基づいて、出力値と正解値との誤差を評価する損失関数に基づいて誤差を特定する。損失関数Eが得られたら、制御部20は、既定の最適化アルゴリズム、例えば、確率的勾配降下法等によってパラメーターを更新する。すなわち、制御部20は、損失関数Eのパラメーターによる微分に基づいてパラメーターを更新する処理を既定回数繰り返す。
When the final output value by the training model, that is, the stained image generated by the generative model G and the true / false output identified by the identification model D is obtained, the
損失関数Eは、公知の各種の態様とすることができるが、さらに、染色画像をより鮮明にするための要素が加えられてもよい。すなわち、GAN(Generative Adversarial Network)等のモデルによって生成される画像は、細部が不鮮明になりやすい。一方、受精卵の染色画像を解析する際には、染色体や細胞の細部が解析されることが多い。従って、細胞の細部が再現されない状態で染色画像が生成されると解析に利用しづらい。そこで、生成モデルGにおいて、生成された染色画像が、学習用紫外線照射画像と同程度の鮮鋭度になるほど損失が少なくなるように、損失関数が定義されてもよい。 The loss function E can be in various known modes, but an element for making the stained image clearer may be added. That is, the details of the image generated by a model such as GAN (Generative Adversarial Network) tend to be blurred. On the other hand, when analyzing a stained image of a fertilized egg, details of chromosomes and cells are often analyzed. Therefore, if a stained image is generated without reproducing the details of the cells, it is difficult to use it for analysis. Therefore, in the generative model G, the loss function may be defined so that the loss decreases as the generated stained image becomes as sharp as the learning ultraviolet irradiation image.
具体的には、学習用可視光照射画像に基づいて生成された染色画像と、学習用紫外線照射画像とに対して平滑化処理および輪郭強調処理(LoG(Laplacian of Gaussian))が適用され、適用後の画像の差を示す損失関数が、生成モデルGの損失関数に含まれていてもよい。この損失関数が小さくなるようにパラメーターが調整されると、染色画像の鮮鋭度が高くなるように生成モデルGを機械学習させることができる。この結果、染色画像がシャープになり、細部が不鮮明になることを防止することができる。 Specifically, smoothing processing and contour enhancement processing (LoG (Laplacian of Gaussian)) are applied and applied to the stained image generated based on the learning visible light irradiation image and the learning ultraviolet irradiation image. A loss function indicating the difference between the later images may be included in the loss function of the generation model G. When the parameters are adjusted so that this loss function becomes small, the generative model G can be machine-learned so that the sharpness of the stained image becomes high. As a result, the stained image becomes sharp and it is possible to prevent the details from becoming unclear.
以上のようにして、既定回数のパラメーターの更新が行われると、制御部20は、訓練モデルの汎化が完了したか否かを判定する(ステップS125)。すなわち、制御部20は、ステップS110で取得したテストデータの学習用可視光照射画像を訓練モデルの生成モデルGに入力して染色画像を生成する。また、制御部20は、生成された染色画像とテストデータの学習用可視光照射画像とを訓練モデルの識別モデルDに入力して、真偽を判定する。そして、制御部20は、テストデータのうち、真が出力された数を取得し、テストデータの全サンプル数で除することで推定精度を取得する。本実施形態において、制御部20は、推定精度が閾値以上である場合に汎化が完了したと判定する。
When the parameters are updated a predetermined number of times as described above, the
なお、汎化性能の評価に加え、ハイパーパラメーターの妥当性の検証が行われてもよい。すなわち、学習対象となる可変のパラメーター以外の可変量であるハイパーパラメーター、例えば、ノードの数等がチューニングされる構成において、制御部20は、検証データに基づいてハイパーパラメーターの妥当性を検証しても良い。検証データは、ステップS110と同様の処理により、教師データ30aから検証データを予め抽出し、訓練に用いないデータとして確保しておくことで取得すれば良い。
In addition to the evaluation of generalization performance, the validity of hyperparameters may be verified. That is, in a configuration in which a hyperparameter that is a variable quantity other than the variable parameter to be learned, for example, the number of nodes is tuned, the
ステップS125において、訓練モデルの汎化が完了したと判定されない場合、制御部20は、ステップS120を繰り返す。すなわち、さらに学習対象となる可変のパラメーターを更新する処理を行う。一方、ステップS125において、訓練モデルの汎化が完了したと判定された場合、制御部20は、機械学習済の訓練モデルを機械学習モデル30bとして記録媒体30に記録する(ステップS130)。なお、本実施形態においては、機械学習モデル30bの追加学習等を実施可能にするため、生成モデルGと識別モデルDとが機械学習モデル30bとして記録媒体30に記録されるが、染色画像の生成を行い、識別を行わないことが想定されるのであれば、生成モデルGが機械学習モデル30bとして記録され、識別モデルDが記録されない構成であってもよい。
If it is not determined in step S125 that the generalization of the training model is complete, the
(3)染色画像生成処理:
次に、解析対象の受精卵(例えば、人工授精後における出生率を推定する対象の受精卵や人工授精後に染色体異常が存在しないか解析する対象の受精卵等)を可視光照明下で撮影した画像に基づいて実施される染色画像生成処理を図5に示すフローチャートに基づいて説明する。染色画像生成処理は、機械学習モデル30bが記録媒体30に記録された後に実行される。染色画像生成処理を実行するに際し、利用者は、解析対象の受精卵を含む溶媒をシャーレS内に用意し、顕微鏡40にセットする。ここで、シャーレS内の溶媒に染色液は入れられない。すなわち、本実施形態においては、受精卵の生命を維持させるため、溶媒に染色液が入れられていない状態で解析用可視光照射画像が撮影される。
(3) Stained image generation processing:
Next, an image of the fertilized egg to be analyzed (for example, the fertilized egg whose birth rate is estimated after artificial insemination or the fertilized egg whose chromosomal abnormality is analyzed after artificial insemination) under visible light illumination. The stained image generation process performed based on the above will be described with reference to the flowchart shown in FIG. The stained image generation process is executed after the
このようなシャーレSが顕微鏡40にセットされた状態で利用者は、顕微鏡40を操作して可視光源42を点灯させ、カメラ41の視野内に解析対象の受精卵を移動させる。この状態で利用者が図示しないマウスやキーボード等の操作部によって染色画像生成処理の開始を指示すると、制御部20は、染色画像生成プログラム21の実行を開始する。
With such a petri dish S set in the
染色画像生成プログラム21の実行が開始されると、制御部20は、解析用可視光照射画像取得部21aの機能により、解析対象の受精卵に可視光を照射させる(ステップS200)。すなわち、制御部20は、可視光源42に制御信号を出力し、既定の強度で可視光源42を点灯させる。この際、UV光源43は消灯した状態とされる。
When the execution of the stained
次に、制御部20は、解析用可視光照射画像取得部21aの機能により、カメラ41によって解析用可視光照射画像を撮影する(ステップS205)。すなわち、制御部20は、カメラ41を制御し、可視光が照射された解析対象の受精卵の画像データを取得する。また、制御部20は、撮影された画像データを、記録媒体30に記録する(図2に示す解析用可視光照射画像データ30c)。
Next, the
次に、制御部20は、染色画像生成部21bの機能により、解析用可視光照射画像を機械学習モデルに入力する(ステップS210)。すなわち、制御部20は、記録媒体30に記録された機械学習モデル30bを取得し、解析用可視光照射画像を生成モデルGに入力し、染色画像を取得する。
Next, the
次に、制御部20は、染色画像生成部21bの機能により、染色画像を表示させる(ステップS215)。すなわち、制御部20は、ディスプレイ50を制御し、ステップS210で取得された染色画像を表示させる。染色画像の表示態様は、種々の態様であって良く、本実施形態においては、ステップS205で撮影された画像が静止画として表示される。むろん、複数枚の染色画像が同時に表示されてもよいし、ステップS205で撮影された解析用可視光照射画像と染色画像とが並べて表示されてもよい。また、ステップS205で解析用可視光照射画像を連続的に撮影することで動画データを生成し、機械学習モデル30bの生成モデルGで生成した染色画像の動画データを生成し、染色画像の動画データを表示させる構成等であってもよい。
Next, the
以上のような本実施形態によれば、解析対象の受精卵を可視光照明下で撮影した画像に基づいて、染色液を含む溶媒内の受精卵に紫外線を照射した場合に出力される可視光の蛍光によって形成される画像と同等の染色画像を生成することができる。当該染色画像を生成するために、解析対象の受精卵の溶媒に染色液は入れられない。また、受精卵に対して紫外線が照射されることもない。従って、染色画像を生成するために受精卵を死滅させることはないし、紫外線による損傷を発生させることもない。 According to the present embodiment as described above, the visible light output when the fertilized egg in the solvent containing the staining solution is irradiated with ultraviolet rays based on the image of the fertilized egg to be analyzed under visible light illumination. It is possible to generate a stained image equivalent to the image formed by the fluorescence of. In order to generate the stained image, the staining solution is not put in the solvent of the fertilized egg to be analyzed. In addition, the fertilized egg is not irradiated with ultraviolet rays. Therefore, the fertilized egg is not killed to produce a stained image, nor is it caused damage by UV light.
そして、染色画像に対して解析を行えば、解析対象の受精卵が正常であるか否か、染色体異常があるか否か等を推定することができる。従って、解析対象の受精卵の中から正常な可能性が高い受精卵を選別するなどにより、不妊治療における人工授精や、畜産業界での人工授精などにおける出生率を向上させることができる。 Then, by analyzing the stained image, it is possible to estimate whether or not the fertilized egg to be analyzed is normal, whether or not there is a chromosomal abnormality, and the like. Therefore, it is possible to improve the birth rate in artificial insemination in infertility treatment and artificial insemination in the livestock industry by selecting fertilized eggs that are highly likely to be normal from the fertilized eggs to be analyzed.
(4)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、染色液が入れられた溶媒中の受精卵を可視光照明下と紫外線照明下で撮影した画像に基づいて機械学習モデルを生成する限りにおいて、他にも種々の実施形態を採用可能である。例えば、染色画像生成システムは、複数の装置によって実現されても良く、機械学習がサーバで実施され、染色画像の生成がクライアントで実施されるシステム等であっても良い。この構成においては、例えば、複数のクライアントから教師データが収集され、この教師データに基づいてサーバにおいて機械学習が行われる構成であっても良い。
(4) Other embodiments:
The above embodiment is an example for carrying out the present invention, as long as a machine learning model is generated based on images taken of a fertilized egg in a solvent containing a staining solution under visible light illumination and ultraviolet illumination. In addition, various other embodiments can be adopted. For example, the stained image generation system may be realized by a plurality of devices, or may be a system in which machine learning is performed by a server and a dyed image is generated by a client. In this configuration, for example, teacher data may be collected from a plurality of clients, and machine learning may be performed on the server based on the teacher data.
さらに、解析用可視光照射画像取得部21a、染色画像生成部21b、機械学習部22aの少なくとも一部が複数の装置に分かれて存在してもよい。例えば、機械学習部22aにおいて、教師データ30aを作成する処理と、教師データ30aに基づいて機械学習を行う処理とが異なる装置で実施される構成等であっても良い。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。例えば、機械学習を実行するシステムと染色画像生成システム10とが異なる装置で構成される場合、染色画像生成システム10で利用される顕微鏡40は、UV光源43を備えていなくてもよい。
Further, at least a part of the visible light irradiation
解析用可視光照射画像取得部は、解析対象の受精卵に可視光を照射して撮影した画像である解析用可視光照射画像を取得することができればよい。すなわち、解析用可視光照射画像取得部は、機械学習モデルに対して入力される受精卵の画像である解析用可視光照射画像を取得することができればよい。なお、解析用可視光照射画像は、可視光照明下で撮影されればよいが、機械学習モデルを学習するための教師データを生成する際の照明条件と同一の照明条件で撮影されることが好ましい。また、解析用可視光照射画像は、機械学習モデルに対して入力されるため、機械学習モデルに入力されるフォーマット(画素数、チャネル数)である必要がある。むろん、フォーマットに合わせるために任意の画像処理が行われてよく、トリミングや拡大縮小、エッジ強調、色変換、コントラスト調整、回転等の各種画像処理が行われてよい。 The analysis visible light irradiation image acquisition unit only needs to be able to acquire an analysis visible light irradiation image which is an image taken by irradiating the fertilized egg to be analyzed with visible light. That is, the analysis visible light irradiation image acquisition unit only needs to be able to acquire the analysis visible light irradiation image which is an image of the fertilized egg input to the machine learning model. The visible light irradiation image for analysis may be taken under visible light illumination, but it may be taken under the same lighting conditions as when generating teacher data for learning a machine learning model. preferable. Further, since the visible light irradiation image for analysis is input to the machine learning model, it needs to be in the format (number of pixels, number of channels) input to the machine learning model. Of course, arbitrary image processing may be performed to match the format, and various image processing such as trimming, enlargement / reduction, edge enhancement, color conversion, contrast adjustment, and rotation may be performed.
可視光は、種々の状態で照射されて良い。すなわち、可視光は、解析用可視光照射画像が撮影できるように受精卵に対して照射されれば良く、受精卵と可視光源との位置関係は種々の関係とすることができる。むろん、位置関係が可変であっても良いし、可視光の強度が可変であっても良い。解析用可視光照射画像を表現するためのチャネル数は任意であるが、可視光の波長域を網羅するためには典型的には3チャネルで解析用可視光照射画像が表現されることが好ましい。受精卵は、生命が維持される状態で保持、撮影されることが好ましく、例えば、シャーレに入れられた水等の溶媒中に存在する受精卵が撮影される構成等が想定される。 Visible light may be irradiated in various states. That is, the visible light may be applied to the fertilized egg so that the visible light irradiation image for analysis can be taken, and the positional relationship between the fertilized egg and the visible light source can be various. Of course, the positional relationship may be variable, and the intensity of visible light may be variable. The number of channels for expressing the visible light irradiation image for analysis is arbitrary, but it is preferable that the visible light irradiation image for analysis is represented by typically 3 channels in order to cover the wavelength range of visible light. .. The fertilized egg is preferably held and photographed in a state in which life is maintained. For example, a configuration in which a fertilized egg existing in a solvent such as water in a petri dish is photographed is assumed.
染色画像生成部は、機械学習モデルに対して、解析用可視光照射画像を入力し、解析対象の受精卵が染色された画像である染色画像を生成することができればよい。すなわち、可視光照明下の受精卵の画像から染色された画像を生成する機械学習モデルが予め生成されている。そして、染色画像生成部は、任意の解析対象の受精卵を撮影した解析用可視光照射画像を当該機械学習モデルに対して入力して、染色画像を生成する。染色液は、溶媒に入れられることによって紫外線照明下で受精卵から蛍光を出力させる液体であれば良く、例えば、ヘキスト染色剤以外の各種の染色剤を採用可能である。溶媒は、受精卵の生命が維持される状態で保持できる液体であることが好ましく、例えば、水等である。 The stained image generation unit may input a visible light irradiation image for analysis into the machine learning model and generate a stained image which is an image in which the fertilized egg to be analyzed is stained. That is, a machine learning model that generates a stained image from an image of a fertilized egg under visible light illumination is generated in advance. Then, the stained image generation unit generates a stained image by inputting an analysis visible light irradiation image obtained by photographing a fertilized egg to be analyzed into the machine learning model. The dyeing liquid may be any liquid that outputs fluorescence from the fertilized egg under ultraviolet illumination when placed in a solvent, and for example, various dyeing agents other than the Hoechst stain can be adopted. The solvent is preferably a liquid that can hold the fertilized egg in a state in which the life of the fertilized egg is maintained, and is, for example, water.
機械学習モデルは、可視光照明下の受精卵の画像を染色された受精卵の画像に変換するモデルであれば良く、上述の構成以外にも種々の構成を採用可能である。すなわち、機械学習モデルは、DCGAN(Deep Convolutional Generative Adversarial Networks)の各種態様やそれらの派生の態様、conditional GAN等で得られる画像−画像変換モデルであってもよい。 The machine learning model may be any model that converts the image of the fertilized egg under visible light illumination into the image of the stained fertilized egg, and various configurations other than the above configurations can be adopted. That is, the machine learning model may be an image-image conversion model obtained by various aspects of DCGAN (Deep Convolutional Generative Adversarial Networks), aspects derived from them, conditional GAN, or the like.
機械学習の態様は限定されず、例えばニューラルネットワークを構成する層の数やノードの数、活性化関数の種類、損失関数の種類、勾配降下法の種類、勾配降下法の最適化アルゴリズムの種類、ミニバッチ学習の有無やバッチの数、学習率、初期値、過学習抑制手法の種類や有無、畳み込み層の有無、畳み込み演算におけるフィルタのサイズ、フィルタの種類、パディングやストライドの種類、プーリング層の種類や有無、全結合層の有無、再帰的な構造の有無など、種々の要素を適宜選択して機械学習が行われればよい。むろん、他の機械学習、例えば、深層学習(ディープラーニング)、サポートベクターマシンやクラスタリング、強化学習等によって学習が行われてもよい。さらに、モデルの構造(例えば、層の数や層毎のノードの数等)が自動的に最適化される機械学習が行われてもよい。 The mode of machine learning is not limited, for example, the number of layers and nodes constituting the neural network, the type of activation function, the type of loss function, the type of gradient descent method, the type of gradient descent optimization algorithm, etc. Presence / absence of mini-batch learning, number of batches, learning rate, initial value, type / presence / absence of overlearning suppression method, presence / absence of convolution layer, filter size in convolution calculation, filter type, padding / stride type, pooling layer type Machine learning may be performed by appropriately selecting various elements such as the presence / absence, the presence / absence of a fully connected layer, and the presence / absence of a recursive structure. Of course, learning may be performed by other machine learning, for example, deep learning, support vector machine, clustering, reinforcement learning, or the like. Further, machine learning may be performed in which the structure of the model (for example, the number of layers, the number of nodes per layer, etc.) is automatically optimized.
解析用可視光照射画像や学習用可視光照射画像などの受精卵の画像は、染色体などの解析対象が視認できる状態であれば良い。従って、顕微鏡等の拡大装置を利用して撮影されることが好ましく、その倍率等は解析用途等によって調整可能である。 The image of the fertilized egg such as the visible light irradiation image for analysis and the visible light irradiation image for learning may be in a state where the analysis target such as a chromosome can be visually recognized. Therefore, it is preferable to take an image using a magnifying device such as a microscope, and the magnification and the like can be adjusted depending on the analysis application and the like.
さらに、本発明のように、染色液が入れられた溶媒中の受精卵を可視光照明下と紫外線照明下で撮影した画像に基づいて機械学習モデルを生成する手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合や、複数の装置によって実現される場合が想定可能であり、各種の態様を含むものである。例えば、以上のような手段を備えた顕微鏡等を提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし半導体メモリであってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。 Furthermore, the method of generating a machine learning model based on images of fertilized eggs in a solvent containing a staining solution under visible light illumination and ultraviolet illumination as in the present invention is also applicable as a program or method. It is possible. Further, the system, program, and method as described above can be assumed to be realized as a single device or by a plurality of devices, and include various aspects. For example, it is possible to provide a microscope or the like provided with the above means. In addition, some of them are software and some of them are hardware, which can be changed as appropriate. Further, the invention is also established as a recording medium for a program that controls a system. Of course, the recording medium of the software may be a magnetic recording medium or a semiconductor memory, and any recording medium to be developed in the future can be considered in exactly the same way.
1…受精卵解析システム、10…染色画像生成システム、20…制御部、21…染色画像生成プログラム、21a…解析用可視光照射画像取得部、21b…染色画像生成部、22…機械学習プログラム、22a…機械学習部、30…記録媒体、30a…教師データ、30b…機械学習モデル、30c…解析用可視光照射画像データ、40…顕微鏡、41…カメラ、42…可視光源、43…UV光源、50…ディスプレイ 1 ... fertilized egg analysis system, 10 ... stained image generation system, 20 ... control unit, 21 ... stained image generation program, 21a ... visible light irradiation image acquisition unit for analysis, 21b ... stained image generation unit, 22 ... machine learning program, 22a ... Machine learning unit, 30 ... Recording medium, 30a ... Teacher data, 30b ... Machine learning model, 30c ... Visible light irradiation image data for analysis, 40 ... Microscope, 41 ... Camera, 42 ... Visible light source, 43 ... UV light source, 50 ... Display
Claims (6)
染色液を含む溶媒中の学習用受精卵に可視光を照射して撮影した画像である学習用可視光照射画像と前記学習用受精卵に紫外線を照射して撮影した画像である学習用紫外線照射画像とに基づいて機械学習された機械学習モデルであって、可視光照明下の受精卵の画像から、染色された受精卵の画像を生成する機械学習モデルに対して、前記解析用可視光照射画像を入力し、前記解析対象の受精卵が染色された画像である染色画像を生成する染色画像生成部と、
を備える染色画像生成システム。 A visible light irradiation image acquisition unit for analysis that acquires a visible light irradiation image for analysis, which is an image taken by irradiating a fertilized egg to be analyzed with visible light.
The learning visible light irradiation image which is an image taken by irradiating the learning fertilized egg in a solvent containing a staining solution with visible light and the learning ultraviolet irradiation image which is an image taken by irradiating the learning fertilized egg with ultraviolet light. A machine learning model that is machine-learned based on an image and that generates a stained image of a fertilized egg from an image of a fertilized egg under visible light illumination is irradiated with visible light for analysis. A stained image generation unit that inputs an image and generates a stained image that is an image in which the fertilized egg to be analyzed is stained.
Stained image generation system including.
請求項1に記載の染色画像生成システム。 The irradiation of the fertilized egg for learning with the ultraviolet rays and the acquisition of the ultraviolet irradiation image for learning are performed after the acquisition of the visible light irradiation image for learning.
The stained image generation system according to claim 1.
前記染色液を含まない溶媒中に存在する解析対象の前記受精卵を撮影した画像である、
請求項1または請求項2に記載の染色画像生成システム。 The visible light irradiation image for analysis is
It is an image of the fertilized egg to be analyzed that exists in a solvent that does not contain the stain solution.
The stained image generation system according to claim 1 or 2.
前記学習用可視光照射画像に基づいて生成された前記染色画像と、前記学習用紫外線照射画像とに対して平滑化処理および輪郭強調処理が適用され、適用後の画像の差を小さくするように機械学習されたモデルである、
請求項1〜請求項3のいずれか一項に記載の染色画像生成システム。 The machine learning model is
Smoothing processing and contour enhancement processing are applied to the stained image generated based on the learning visible light irradiation image and the learning ultraviolet irradiation image so as to reduce the difference between the images after application. A machine-learned model,
The stained image generation system according to any one of claims 1 to 3.
染色液を含む溶媒中の学習用受精卵に可視光を照射して撮影した画像である学習用可視光照射画像と前記学習用受精卵に紫外線を照射して撮影した画像である学習用紫外線照射画像とに基づいて機械学習された機械学習モデルであって、可視光照明下の受精卵の画像から、染色された受精卵の画像を生成する機械学習モデルに対して、前記解析用可視光照射画像を入力し、前記解析対象の受精卵が染色された画像である染色画像を生成する染色画像生成工程と、
を含む染色画像生成方法。 A visible light irradiation image acquisition process for analysis to acquire a visible light irradiation image for analysis, which is an image taken by irradiating a fertilized egg to be analyzed with visible light,
The learning visible light irradiation image which is an image taken by irradiating the learning fertilized egg in a solvent containing a staining solution with visible light and the learning ultraviolet irradiation image which is an image taken by irradiating the learning fertilized egg with ultraviolet light. A machine learning model that is machine-learned based on an image and that generates a stained image of a fertilized egg from an image of a fertilized egg under visible light illumination is irradiated with visible light for analysis. A stained image generation step of inputting an image and generating a stained image which is an image in which the fertilized egg to be analyzed is stained.
Stained image generation method including.
解析対象の受精卵に可視光を照射して撮影した画像である解析用可視光照射画像を取得する解析用可視光照射画像取得部、
染色液を含む溶媒中の学習用受精卵に可視光を照射して撮影した画像である学習用可視光照射画像と前記学習用受精卵に紫外線を照射して撮影した画像である学習用紫外線照射画像とに基づいて機械学習された機械学習モデルであって、可視光照明下の受精卵の画像から、染色された受精卵の画像を生成する機械学習モデルに対して、前記解析用可視光照射画像を入力し、前記解析対象の受精卵が染色された画像である染色画像を生成する染色画像生成部、
として機能させる染色画像生成プログラム。 Computer,
Visible light irradiation image acquisition unit for analysis, which acquires a visible light irradiation image for analysis, which is an image taken by irradiating a fertilized egg to be analyzed with visible light.
The learning visible light irradiation image which is an image taken by irradiating the learning fertilized egg in a solvent containing a staining solution with visible light and the learning ultraviolet irradiation image which is an image taken by irradiating the learning fertilized egg with ultraviolet light. A machine learning model that is machine-learned based on an image and that generates a stained image of a fertilized egg from an image of a fertilized egg under visible light illumination is irradiated with visible light for analysis. A stained image generation unit that inputs an image and generates a stained image that is an image in which the fertilized egg to be analyzed is stained.
A stained image generation program that functions as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020022917A JP2021126074A (en) | 2020-02-14 | 2020-02-14 | Dyed image generation system, dyed image generation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020022917A JP2021126074A (en) | 2020-02-14 | 2020-02-14 | Dyed image generation system, dyed image generation method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021126074A true JP2021126074A (en) | 2021-09-02 |
Family
ID=77487125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020022917A Pending JP2021126074A (en) | 2020-02-14 | 2020-02-14 | Dyed image generation system, dyed image generation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021126074A (en) |
-
2020
- 2020-02-14 JP JP2020022917A patent/JP2021126074A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Smal et al. | Multiple object tracking in molecular bioimaging by Rao-Blackwellized marginal particle filtering | |
Smal et al. | Particle filtering for multiple object tracking in dynamic fluorescence microscopy images: Application to microtubule growth analysis | |
JP2023508284A (en) | Method and system for digital staining of microscopic images using deep learning | |
JP2020535502A (en) | Removal of artifacts from tissue images | |
JP2018185759A (en) | Image analysis method, device, program, and method of producing deep learning algorithm | |
US20240312229A1 (en) | Method and system for identifying target region of digital pathology slide, device, and medium | |
JP2015114172A (en) | Image processing apparatus, microscope system, image processing method, and image processing program | |
Speiser et al. | Teaching deep neural networks to localize sources in super-resolution microscopy by combining simulation-based learning and unsupervised learning | |
CA3202916A1 (en) | Automatic annotation of condition features in medical images | |
US11508045B1 (en) | Microscopy system and method for generating stylized contrast images | |
Wijesinghe et al. | Experimentally unsupervised deconvolution for light-sheet microscopy with propagation-invariant beams | |
JP2023534366A (en) | Method and system for acquisition of fluorescence images of live cell biological samples | |
US20140192178A1 (en) | Method and system for tracking motion of microscopic objects within a three-dimensional volume | |
Dai et al. | Exceeding the limit for microscopic image translation with a deep learning-based unified framework | |
US20200074628A1 (en) | Image processing apparatus, imaging system, image processing method and computer readable recoding medium | |
JP2021126074A (en) | Dyed image generation system, dyed image generation method and program | |
JP7148776B2 (en) | Colony identification system, colony identification method and colony identification program | |
Monisha Birlin et al. | Automatic detection of microaneurysms using a novel segmentation algorithm based on deep learning techniques | |
Traub et al. | Towards automatic embryo staging in 3D+ t microscopy images using convolutional neural networks and PointNets | |
Arvind et al. | Deep Learning Regression‐Based Retinal Layer Segmentation Process for Early Diagnosis of Retinal Anamolies and Secure Data Transmission through ThingSpeak | |
de Almeida Simões | Image Quality Improvement of Medical Images Using Deep Learning for Computer-Aided Diagnosis | |
Han et al. | System-and Sample-agnostic Isotropic 3D Microscopy by Weakly Physics-informed, Domain-shift-resistant Axial Deblurring | |
Shahbazi | Computer Vision-Based Approaches to Neural Circuit Tracing at Scale | |
Baldeon-Calisto et al. | Deepsit: Deeply supervised framework for image translation on breast cancer analysis | |
EP4390832A1 (en) | Image processing method to remove white noise and structured noise |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200309 |