JP7477269B2 - 学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラム - Google Patents
学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラム Download PDFInfo
- Publication number
- JP7477269B2 JP7477269B2 JP2019133641A JP2019133641A JP7477269B2 JP 7477269 B2 JP7477269 B2 JP 7477269B2 JP 2019133641 A JP2019133641 A JP 2019133641A JP 2019133641 A JP2019133641 A JP 2019133641A JP 7477269 B2 JP7477269 B2 JP 7477269B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- similar
- target
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 77
- 230000008569 process Effects 0.000 claims description 69
- 238000013528 artificial neural network Methods 0.000 claims description 58
- 238000004364 calculation method Methods 0.000 claims description 57
- 238000000605 extraction Methods 0.000 claims description 34
- 238000003384 imaging method Methods 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 9
- 210000003855 cell nucleus Anatomy 0.000 description 142
- 238000012545 processing Methods 0.000 description 124
- 210000005013 brain tissue Anatomy 0.000 description 77
- 230000011218 segmentation Effects 0.000 description 74
- 230000006870 function Effects 0.000 description 50
- 210000004940 nucleus Anatomy 0.000 description 45
- 238000010586 diagram Methods 0.000 description 40
- 230000003287 optical effect Effects 0.000 description 38
- 238000001000 micrograph Methods 0.000 description 23
- FWBHETKCLVMNFS-UHFFFAOYSA-N 4',6-Diamino-2-phenylindol Chemical compound C1=CC(C(=N)N)=CC=C1C1=CC2=CC=C(C(N)=N)C=C2N1 FWBHETKCLVMNFS-UHFFFAOYSA-N 0.000 description 22
- 210000004204 blood vessel Anatomy 0.000 description 15
- 239000008280 blood Substances 0.000 description 14
- 210000004369 blood Anatomy 0.000 description 14
- 238000013135 deep learning Methods 0.000 description 10
- 101100439295 Citrus limon ClPT1 gene Proteins 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 239000003973 paint Substances 0.000 description 6
- 230000007423 decrease Effects 0.000 description 5
- 210000004565 granule cell Anatomy 0.000 description 5
- 210000004027 cell Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 210000001638 cerebellum Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 210000002241 neurite Anatomy 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 210000000170 cell membrane Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000000805 cytoplasm Anatomy 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000010894 electron beam technology Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 210000004263 induced pluripotent stem cell Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000003470 mitochondria Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
画像認識において優れた性能をもつ深層学習の手法として、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が知られている(非特許文献1)。CNNは画像認識において優れた性能を発揮するものの、膨大な数の教師データを学習に必要とする。
以下、図面を参照しながら第1の実施形態について詳しく説明する。図1は、本実施形態に係る画像処理システムSTの一例を示す図である。画像処理システムSTは、一例として、電子顕微鏡M2と、光学顕微鏡M1と、電子顕微鏡画像データベースDB2と、DAPI画像データベースDB1と、画像処理装置T1とを備える。
学習部1は、対象画像PA1と、核正解画像PT2との組である教師データLDに基づいて学習を実行する。ここで核正解画像PT2とは、対象画像PA1において予め脳組織細胞核A2の画像の領域が示された画像である。
また、本実施形態では、類似物体についての画像が、類似物体が撮像素子を備える顕微鏡によって撮像された画像である場合の一例について説明するが、これに限らない。類似物体についての画像は、外観が対象物体と類似していれば類似物体が紙面などに描かれた画像であってもよい。
画像処理装置T1は、学習した特徴量を先見情報として、対象物体である脳組織細胞核A2を抽出するための抽出器の学習を行う。ここで先見情報とは、対象物体を抽出するための抽出器の学習を実行するより前に、対象物体の外観と類似した特徴が学習された情報である。
類似画像元画像取得部10と、類似物体抽出部11と、類似度算出部12と、学習実行部13と、教師データ取得部14と、学習結果出力部15とは、それぞれ、画像処理装置T1のCPU(Central Processing Unit)がROM(Read Only Memory)からプログラムを読み込んで処理を実行することにより実現されるモジュールである。
なお、類似画像元画像取得部10は、類似元画像データベース3の代わりに、画像処理システムSTの外部のデータベースから類似画像元画像PMを取得してもよい。画像処理システムSTの外部のデータベースとは、例えば、ウェブ上に画像を公開している画像サーバなどの公共のデータベースである。
類似度算出部12は、類似物体抽出部11が生成した類似画像PRと、対象画像取得部140が取得した対象画像PAとに基づいて、類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像との類似度を算出する。類似度算出部12は、類似度を、一例として、対象物体の画像、及び対象物体の画像それぞれのHuモーメントの間のL1距離として算出する。本実施形態では、類似度は値が小さいほど、類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像とは類似している。
ここで再び図2に加えて図3を参照し、学習実行部13について説明する。
クロスエントロピー損失算出部134は、対象画像PAを入力とした場合のニューラルネットワークNNの出力である予測画像PPと、正解画像取得部141が取得した正解画像PTとに基づいてクロスエントロピー損失L1を算出する。
教師データ取得部14は、教師データデータベース4から教師データLDを取得する。教師データ取得部14は、対象画像取得部140と、正解画像取得部141とを備える。
対象画像取得部140は、教師データデータベース4から対象画像PAを取得する。教師データデータベース4は、本実施形態では一例として、図1の電子顕微鏡画像データベースDB2である。対象画像PAは、電子顕微鏡画像データベースDB2に記憶される対象画像PA1の一部である。
判定画像取得部20は、判定画像データベース5から判定画像PEを取得する。判定画像データベース5は、本実施形態では一例として、図1の電子顕微鏡画像データベースDB2である。判定画像PEは、一例として、電子顕微鏡画像データベースDB2に記憶される対象画像PA1の一部である。
判定結果出力部22は、判定実行部21が判定した結果であるセグメンテーション結果を、表示装置(不図示)に表示させる。
図4は、本実施形態に係る画像処理装置T1の機械学習の処理の一例を示す図である。図4に示す一例では、対象物体とは第2部位の細胞核である。また、第1部位の細胞核が、対象物体である第2部位の細胞核の類似物体として用いられる。一例として、第1部位の細胞核とはiPS細胞核A1であり、第2部位の細胞核とは脳組織細胞核A2である。また図4では、第1顕微鏡とは光学顕微鏡M1であり、第2顕微鏡とは電子顕微鏡M2である。
学習用の対象画像PAと、核正解画像PT2との組は、画像処理装置T1が行う学習処理の教師データLDとして用いられる。
対象画像取得部140は、取得した対象画像PAを、対象画像学習部132及びVAT損失算出部133に供給する。正解画像取得部141は、取得した正解画像PTを、クロスエントロピー損失算出部134、及び類似度算出部12に供給する。
類似物体抽出部11は、抽出した類似物体に基づいて類似画像元画像PMから類似画像PRを生成する。類似物体抽出部11は、生成した類似画像PRを、類似度算出部12及び類似画像学習部130に供給する。
上述したように、類似度算出部12は、所定の次数の画像モーメントによって定量化する。
類似度算出部12は、対象物体との類似度を、対象物体画像SPi(i=1、2、・・・、N:Nは類似画像PR1に含まれる対象物体の画像の数)について算出する。類似度算出部12は、一例として、算出した類似度を類似画像PR1に含まれる対象物体の画像についての平均値を、類似画像PR1の類似度として算出する。なお、類似度の算出方法は、上述のHuモーメントを用いた態様に限られない。例えば、領域の外形を、重心をOとしたrΘ座標系で表してヒストグラムを作成し、当該ヒストグラムの差分(L1距離等)に基づいて類似度を算出してもよい。
類似度が所定の値以下である類似画像PRを、CAEによる学習において用いる類似画像から除外される場合、類似物体は、対象物体に対する類似度が所定の値以下である。ここの場合、対象物体に対する外観の類似の程度を示す値を、例えば、類似度の逆数などとすると、類似物体は、対象物体に対する外観の類似の程度を示す値が所定の値以上である。
この項Ladvは、いわゆる局所分布平滑化(Local Distributional Smoothing)に相当し、対象画像PAに摂動を加えることによって、セグメンテーションのロバスト性を向上させる。
以上で、学習実行部13は学習処理を終了する。
ステップS300:判定画像取得部20は、判定画像データベース5から判定画像PEを取得する。判定画像取得部20は、取得した判定画像PEを判定実行部21に供給する。
以上で、判定部2は判定処理を終了する。
図9は、本実施形態に係るセグメンテーション結果の一例を示す図である。図9に示す例では、判定画像PE1に対してセグメンテーションが行われたセグメンテーション結果として、セグメンテーション結果画像PS1~PS4が示されている。
画像処理装置T1によるセグメンテーション結果は、セグメンテーション結果画像PS4である。セグメンテーション結果画像PS1~PS3は、画像処理装置T1によるセグメンテーション結果との比較のために示されている。
なお、損失関数にVAT損失を加えた場合、学習処理においてVAT損失を加えない場合に比べて多くのメモリが必要とされる。
損失関数にVAT損失を加えない場合であっても形状損失を加えることによって、判定精度は向上する。セグメンテーションの判定精度を向上させるためには、損失関数には形状損失及びVAT損失が加えられることが好ましいが、学習処理において利用可能なメモリの容量が十分でない場合にはメモリの容量に応じて、損失関数にはVAT損失は加えられなくてもよい。
グラフG1から、類似度が増加するにつれてセグメンテーションの精度が低下することがわかる。
図11は、本実施形態に係る類似画像PRにおける類似物体の空間密度と判定精度との関係の一例を示す図である。図11において、類似画像PR2bは、類似画像PR2aの物体領域を抽出し、そのうちの1つの領域を表示したものである。また、類似画像PR2cは、類似画像PR2aから抽出された複数の物体領域に対してDouglas-Peukerアルゴリズム適用し、物体領域を、物体領域の輪郭上に頂点を有する多角形として表したものである。上記のようにして類似物体の空間密度を変更した。
グラフG2において、点P2aは類似画像PR2aに対応し、点P2bは類似画像PR2bに対応し、点P2cは類似画像PR2cに対応する。類似画像PR2a、類似画像PR2b、類似画像PR2cは、この順に類似物体の空間密度が高い。
グラフG2から、類似物体の空間密度は、セグメンテーションの精度に影響しないことがわかる。
類似画像学習部130は、判定の対象である対象物体(この一例において、脳組織細胞核A2)と外観が類似した物体である類似物体(この一例において、iPS細胞核A1)についての画像である類似画像PRに基づいて第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)を実行する。
対象画像学習部132は、対象物体(この一例において、脳組織細胞核A2)が撮像された画像である対象画像PAと、対象画像PAにおいて対象物体(この一例において、脳組織細胞核A2)が示された画像である正解画像PTとの組である教師データLDと、類似画像学習部130による第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の結果とに基づいて第2の学習(この一例において、対象画像PAと、正解画像PTとの組である教師データLDを用いて、損失関数Lを最小にするようなニューラルネットワークNNの重みを算出し、算出した重みによってニューラルネットワークNNの重みを更新する処理)を実行する。
本実施形態に係る学習装置(この一例において、学習部1)では、教師データLDの数が十分でない場合であっても、外部のデータベースに予め用意された画像群を用いて第1の学習を実行することによって、教師データLDの数が十分でないことによる判定の精度の低下を抑制できる。
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
上記第1の実施形態では、画像処理システムが、脳組織細胞核が電子顕微鏡によって撮像された画像を対象画像とし、iPS細胞核が光学顕微鏡によって撮像された画像を類似画像として処理を行う場合について説明をした。本実施形態では、画像処理システムが、iPS細胞核が光学顕微鏡によって撮像された画像を対象画像とし、脳組織細胞核が電子顕微鏡によって撮像された画像を類似画像として処理を行う場合について説明をする。
本実施形態に係る画像処理システムを画像処理システムSTaといい、画像処理装置を画像処理装置T1aという。
本実施形態に係る画像処理システムSTa(図12)と第1の実施形態に係る画像処理システムST(図1)とを比較すると、光学顕微鏡M1a、明視野画像データベースDB3a、及び画像処理装置T1aが異なる。ここで、他の構成要素(電子顕微鏡M2、電子顕微鏡画像データベースDB2、及びDAPI画像データベースDB1)が持つ機能は第1の実施形態と同じである。第1の実施形態と同じ機能の説明は省略し、第2の実施形態では、第1の実施形態と異なる部分を中心に説明する。
一方、蛍光観察によって観察されるiPS細胞核A1は、光学顕微鏡M1aによって撮像され、正解画像元画像PNaとしてDAPI画像データベースDB1に蓄積される。
核正解画像PT2aは、電子顕微鏡画像データベースDB2に蓄積される脳組織細胞核A2の画像に基づいて作成される。ここで核正解画像PT2aは、脳組織細胞核A2の画像において脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。作成された核正解画像PT2aは、電子顕微鏡画像データベースDB2に蓄積され、類似画像PR1aとして画像処理装置T1aに供給される。
ステップS30a:核正解画像PT2aが作成される。ここで核正解画像PT2aは、類似画像元画像PMaにおいて脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。
図13では、対象画像PAaと、正解画像PTaと、類似画像PRaに撮像された脳組織細胞核A2の形状の特徴が学習されたCAEfとに基づいて、損失関数Lが算出される。
図14は、本実施形態に係る判定画像PE1aの一例を示す図である。判定画像PE1aは、一例として、光学顕微鏡M1aによって明視野観察に基づいてiPS細胞核A1が撮像されたZスタック画像である。判定画像PE1aでは、異なる3つの方向についてiPS細胞核A1の断面が撮像された3つの断面画像を含む。判定画像PE1aでは、Zスタック画像において撮像されるiPS細胞核A1の深さのうちの中間の深さに相当する深さ以外は、デフォーカスしている。
グラフG34は、画像処理装置T1aによるセグメンテーション精度を示す。グラフG34が示すセグメンテーション精度は、クロスエントロピー損失にVAT損失及び形状損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション精度である。
以下、図面を参照しながら本発明の第3の実施形態について詳しく説明する。
上記第1の実施形態や第2の実施形態では、画像処理システムが、脳組織細胞核が電子顕微鏡によって撮像された画像と、iPS細胞核が光学顕微鏡によって撮像された画像とのうち一方が対象画像とされ、他方が類似画像とされる場合について説明をした。本実施形態では、脳組織細胞核が異なる撮像方法によって撮像された画像のうち、一方が対象画像として用いられ、他方が類似画像として用いられる場合について説明する。第3の実施形態では、光学顕微鏡によって撮像された脳組織細胞核の画像が類似画像として用いられ、電子顕微鏡によって撮像された脳組織細胞核の画像が対象画像として用いられる。
本実施形態に係る画像処理システムを画像処理システムSTbといい、画像処理装置を画像処理装置T1bという。
本実施形態に係る画像処理システムSTb(図16)と第2の実施形態に係る画像処理システムSTa(図12)とを比較すると、DAPI画像データベースDB1b、明視野画像データベースDB3b、及び画像処理装置T1bが異なる。ここで、他の構成要素(光学顕微鏡M1a、電子顕微鏡M2、及び電子顕微鏡画像データベースDB2)が持つ機能は第2の実施形態と同じである。第2の実施形態と同じ機能の説明は省略し、第3の実施形態では、第2の実施形態と異なる部分を中心に説明する。
ステップS30b:核正解画像PT1bが作成される。ここで核正解画像PT1bは、類似画像元画像PMbにおいて脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。
DAPIによって染色された脳組織細胞核A2が光学顕微鏡M1aによる蛍光観察によって撮像されて画像が生成される場合の方が、脳組織細胞核A2の電子顕微鏡M2によって撮像されて画像が生成される場合に比べて類似画像PRbを効率よく生成できる。
以下、図面を参照しながら本発明の第4の実施形態について詳しく説明する。
上記第3の実施形態では、画像処理システムが、脳組織細胞核が異なる撮像方法によって撮像された画像のうち、一方が対象画像として用いられ、他方が類似画像として用いられる場合の別の一例について説明する。第4の実施形態では、光学顕微鏡によって撮像された脳組織細胞核の画像が対象画像として用いられ、電子顕微鏡によって撮像された脳組織細胞核の画像が類似画像として用いられる。
本実施形態に係る画像処理システムを画像処理システムSTcといい、画像処理装置を画像処理装置T1cという。
本実施形態に係る画像処理システムSTc(図17)と第3の実施形態に係る画像処理システムSTb(図16)とを比較すると、DAPI画像データベースDB1c、明視野画像データベースDB3c、電子顕微鏡画像データベースDB2c、及び画像処理装置T1cが異なる。ここで、他の構成要素(光学顕微鏡M1a、電子顕微鏡M2)が持つ機能は第3の実施形態と同じである。第3の実施形態と同じ機能の説明は省略し、第4の実施形態では、第3の実施形態と異なる部分を中心に説明する。
なお、上述した各実施形態においては、対象物体が粒状の形状をもつ細胞核であり、類似度がHuモーメントの間のL1距離として算出される場合の一例について説明したが、これに限らない。図18を参照し、対象物体や類似度の他の例について説明する。
一方、対象物体が神経突起、血管、細胞膜(または細胞質)、フィラメントなどである場合、対象物体の形状は細長い形状である。対象物体の形状は細長い形状である場合、類似度は、例えば、血管様画像の画像セット間距離として算出される。
図19に示す算出処理は、例えば、画像処理装置T1、T1a、T1b、T1cの類似度算出部12によって実行される。図19に示す算出処理の例では、画像セットAと、画像セットBとについて画像セット間距離が算出される。画像セットAは、例えば、複数の対象画像であり、画像セットBは、例えば、複数の類似画像である。複数の対象画像である画像セットAにおいて対象物体とは、例えば、血管であり、複数の類似画像である画像セットBにおいて類似物体とは、例えば、神経突起である。
ステップS410:類似度算出部12は、取得した画像セットAに血管抽出フィルタを適用する。血管抽出フィルタとは、血管の形状の特徴を抽出するためのフィルタである。血管の形状の特徴には、細長いという特徴が含まれる。
ステップS430:類似度算出部12は、血管様画像VAに対してヒストグラム抽出の処理を実行する。
ステップS450:類似度算出部12は、取得した画像セットBに血管抽出フィルタを適用する。
ステップS460:類似度算出部12は、画像セットBに血管抽出フィルタを適用した結果として、血管様画像VBを生成する。
ステップS470:類似度算出部12は、血管様画像VBに対してヒストグラム抽出の処理を実行する。
また、上述した実施形態における画像処理装置T1、T1a、T1b、T1cの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。画像処理装置T1、T1a、T1b、T1cの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
Claims (12)
- 対象物体が撮像された対象画像において、前記対象物体の領域を判定するために用いられるニューラルネットワークの学習装置であって、
前記対象物体と外観が類似した物体である類似物体についての画像である類似画像に基づいて、畳み込みオートエンコーダに対する第1の学習を実行する類似画像学習部と、
前記対象画像と、前記対象画像において前記対象物体が示された画像である正解画像との組である教師データと、前記類似画像学習部による前記第1の学習の結果とに基づいて前記ニューラルネットワークに対する第2の学習を実行する対象画像学習部と、
を備え、
前記対象画像学習部は、前記対象画像を入力とした場合の前記ニューラルネットワークの出力である予測画像を、前記第1の学習の結果に基づく第1の損失算出部に入力することで算出される第1の損失に基づく損失と、前記教師データと、に基づいて前記第2の学習を実行する
学習装置。 - 前記対象画像学習部は、前記第1の損失と、前記予測画像と前記正解画像とにより算出した第2の損失と、に基づいて前記第2の学習を実行する
請求項1に記載の学習装置。 - 前記対象画像学習部は、前記第1の損失と、前記第2の損失と、前記対象画像を用いて算出された第3の損失と、に基づいて前記第2の学習を実行する
請求項2に記載の学習装置。 - 前記類似画像から前記類似物体を抽出する類似物体抽出部をさらに備え、
前記類似画像学習部は、前記類似画像として、前記類似物体抽出部によって抽出された前記類似物体が示された画像を用いて前記第1の学習を実行する
請求項1から請求項3のいずれか一項に記載の学習装置。 - 前記類似物体は、前記対象物体に対する外観の類似の程度を示す値が所定の値以上である
請求項1から請求項4のいずれか一項に記載の学習装置。 - 前記類似画像と前記対象画像とでは、撮像方法が互いに異なる
請求項1から請求項5のいずれか一項に記載の学習装置。 - 請求項1から請求項6のいずれか一項に記載の学習装置による学習結果に基づいて前記対象画像において前記対象物体を判定する判定部を備える
判定装置。 - 請求項1から請求項6のいずれか一項に記載の学習装置を備える顕微鏡。
- 請求項7に記載の判定装置を備える顕微鏡。
- 請求項1から請求項6のいずれか一項に記載の学習装置と、
前記学習装置による学習結果に基づいて前記対象画像において前記対象物体を判定する判定部を備える判定装置と
を備える顕微鏡。 - 対象物体が撮像された対象画像において、前記対象物体の領域を判定するために用いられるニューラルネットワークの学習のためのプログラムであって、
コンピュータに、
前記対象物体と外観が類似した物体である類似物体についての画像である類似画像に基づいて、畳み込みオートエンコーダに対する第1の学習を実行する類似画像学習ステップと、
前記対象画像と、前記対象画像において前記対象物体が示された画像である正解画像との組である教師データと、前記類似画像学習ステップによる前記第1の学習の結果とに基づいて前記ニューラルネットワークに対する第2の学習を実行する対象画像学習ステップと
を実行させ、
前記対象画像学習ステップにおいて、前記対象画像を入力とした場合の前記ニューラルネットワークの出力である予測画像を、前記第1の学習の結果に基づく第1の損失算出部に入力することで算出される第1の損失に基づく損失と、前記教師データと、に基づいて前記第2の学習を実行させるためのプログラム。 - コンピュータに、
請求項11に記載のプログラムによる学習結果に基づいて前記対象画像において前記対象物体を判定する判定ステップ
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019133641A JP7477269B2 (ja) | 2019-07-19 | 2019-07-19 | 学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019133641A JP7477269B2 (ja) | 2019-07-19 | 2019-07-19 | 学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021018582A JP2021018582A (ja) | 2021-02-15 |
JP7477269B2 true JP7477269B2 (ja) | 2024-05-01 |
Family
ID=74566152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019133641A Active JP7477269B2 (ja) | 2019-07-19 | 2019-07-19 | 学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7477269B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011145791A (ja) | 2010-01-13 | 2011-07-28 | Hitachi Ltd | 識別器学習画像生成プログラム、方法、及びシステム |
US20160035093A1 (en) | 2014-07-31 | 2016-02-04 | California Institute Of Technology | Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition |
WO2017221412A1 (ja) | 2016-06-24 | 2017-12-28 | オリンパス株式会社 | 画像処理装置、学習装置、画像処理方法、識別基準の作成方法、学習方法およびプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10740651B2 (en) * | 2016-10-27 | 2020-08-11 | General Electric Company | Methods of systems of generating virtual multi-dimensional models using image analysis |
US11270433B2 (en) * | 2017-06-09 | 2022-03-08 | Ai Medical Service Inc. | Disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein |
-
2019
- 2019-07-19 JP JP2019133641A patent/JP7477269B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011145791A (ja) | 2010-01-13 | 2011-07-28 | Hitachi Ltd | 識別器学習画像生成プログラム、方法、及びシステム |
US20160035093A1 (en) | 2014-07-31 | 2016-02-04 | California Institute Of Technology | Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition |
WO2017221412A1 (ja) | 2016-06-24 | 2017-12-28 | オリンパス株式会社 | 画像処理装置、学習装置、画像処理方法、識別基準の作成方法、学習方法およびプログラム |
Non-Patent Citations (1)
Title |
---|
野里 博和、他6名,胃内視鏡診断の知識を転移させた深層畳み込みニューラルネットワークによる膀胱内視鏡診断支援,電子情報通信学会技術研究報告 ,日本,一般社団法人電子情報通信学会,2018年10月30日,第118巻, 第286号,第83-88頁,ISSN 2432-6380 |
Also Published As
Publication number | Publication date |
---|---|
JP2021018582A (ja) | 2021-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lösel et al. | Introducing Biomedisa as an open-source online platform for biomedical image segmentation | |
Johnson | Adapting mask-rcnn for automatic nucleus segmentation | |
Yasrab et al. | RootNav 2.0: Deep learning for automatic navigation of complex plant root architectures | |
Wickramasinghe et al. | Voxel2mesh: 3d mesh model generation from volumetric data | |
Peng et al. | Automatic reconstruction of 3D neuron structures using a graph-augmented deformable model | |
CN109409416A (zh) | 特征向量降维方法和医学图像识别方法、装置及存储介质 | |
CN110097130A (zh) | 分类任务模型的训练方法、装置、设备及存储介质 | |
Kromp et al. | Evaluation of deep learning architectures for complex immunofluorescence nuclear image segmentation | |
Wen et al. | A novel statistical cerebrovascular segmentation algorithm with particle swarm optimization | |
CN107169974A (zh) | 一种基于多监督全卷积神经网络的图像分割方法 | |
Dalca et al. | Patch-based discrete registration of clinical brain images | |
WO2014172527A1 (en) | Systems and methods for multiplexed biomarker quantitation using single cell segmentation on sequentially stained tissue | |
Wang | Segmentation of multiple structures in chest radiographs using multi-task fully convolutional networks | |
CN104680558B (zh) | 使用GPU硬件加速的Struck目标跟踪方法 | |
Triki et al. | Deep leaf: Mask R-CNN based leaf detection and segmentation from digitized herbarium specimen images | |
WO2021032062A1 (zh) | 图像处理模型生成方法、图像处理方法、装置及电子设备 | |
CN113096137B (zh) | 一种oct视网膜图像领域适应分割方法及系统 | |
Wyburd et al. | TEDS-Net: enforcing diffeomorphisms in spatial transformers to guarantee topology preservation in segmentations | |
CN110570394A (zh) | 医学图像分割方法、装置、设备及存储介质 | |
Van Molle et al. | Quantifying uncertainty of deep neural networks in skin lesion classification | |
CN115294086A (zh) | 医学影像分割方法、分割模型训练方法、介质及电子设备 | |
CN113158970B (zh) | 一种基于快慢双流图卷积神经网络的动作识别方法与系统 | |
Wesemeyer et al. | Annotation quality vs. quantity for deep-learned medical image segmentation | |
Wang et al. | Fast anatomy segmentation by combining coarse scale multi-atlas label fusion with fine scale corrective learning | |
Rama et al. | Image pre-processing: enhance the performance of medical image classification using various data augmentation technique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190815 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240418 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7477269 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |