JP7477269B2 - 学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラム - Google Patents

学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラム Download PDF

Info

Publication number
JP7477269B2
JP7477269B2 JP2019133641A JP2019133641A JP7477269B2 JP 7477269 B2 JP7477269 B2 JP 7477269B2 JP 2019133641 A JP2019133641 A JP 2019133641A JP 2019133641 A JP2019133641 A JP 2019133641A JP 7477269 B2 JP7477269 B2 JP 7477269B2
Authority
JP
Japan
Prior art keywords
image
learning
similar
target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019133641A
Other languages
English (en)
Other versions
JP2021018582A (ja
Inventor
功記 小西
友香 鈴木
三雄 須賀
秀夫 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jeol Ltd
Nikon Corp
Original Assignee
Jeol Ltd
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jeol Ltd, Nikon Corp filed Critical Jeol Ltd
Priority to JP2019133641A priority Critical patent/JP7477269B2/ja
Publication of JP2021018582A publication Critical patent/JP2021018582A/ja
Application granted granted Critical
Publication of JP7477269B2 publication Critical patent/JP7477269B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラムに関する。
医療において細胞や組織が撮像された画像が診断に用いられることがある。コンピュータによる画像認識によって、それらの画像に撮像されている組織や細胞を判定することが行われる。
画像認識において優れた性能をもつ深層学習の手法として、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が知られている(非特許文献1)。CNNは画像認識において優れた性能を発揮するものの、膨大な数の教師データを学習に必要とする。
CNNなどの深層学習を用いたセグメンテーション手法において、教師データが十分な数ない場合、あるいは十分な数用意するのが困難な場合、学習器の汎化性能が低くなることが知られている。学習器の汎化性能が低くなることは、セグメンテーションの精度が低下することを意味する。
Olaf Ronneberger, Philipp Fischer, Thomas Brox、"U-Net: Convolutional Networks for Biomedical Image Segmentation"、[online]、2015年5月18日、インターネット〈URL:https://arxiv.org/abs/1505.04597〉
本発明の一態様は、対象物体が撮像された対象画像において、前記対象物体の領域を判定するために用いられるニューラルネットワークの学習装置であって、前記対象物体と外観が類似した物体である類似物体についての画像である類似画像に基づいて、畳み込みオートエンコーダに対する第1の学習を実行する類似画像学習部と、前記対象画像と、前記対象画像において前記対象物体が示された画像である正解画像との組である教師データと、前記類似画像学習部による前記第1の学習の結果とに基づいて前記ニューラルネットワークに対する第2の学習を実行する対象画像学習部と、を備え、前記対象画像学習部は、前記対象画像を入力とした場合の前記ニューラルネットワークの出力である予測画像を、前記第1の学習の結果に基づく第1の損失算出部に入力することで算出される第1の損失に基づく損失と、前記教師データと、に基づいて前記第2の学習を実行する学習装置である。
本発明の一態様は、上記の学習装置による学習結果に基づいて前記対象画像において前記対象物体を判定する判定部を備える判定装置である。
本発明の一態様は、上記の学習装置を備える顕微鏡である。
本発明の一態様は、上記の判定装置を備える顕微鏡である。
本発明の一態様は、上記の学習装置によって学習された学習済みモデルである。
本発明の一態様は、対象物体が撮像された対象画像において、前記対象物体の領域を判定するために用いられるニューラルネットワークの学習のためのプログラムであって、コンピュータに、前記対象物体と外観が類似した物体である類似物体についての画像である類似画像に基づいて、畳み込みオートエンコーダに対する第1の学習を実行する類似画像学習ステップと、前記対象画像と、前記対象画像において前記対象物体が示された画像である正解画像との組である教師データと、前記類似画像学習ステップによる前記第1の学習の結果とに基づいて前記ニューラルネットワークに対する第2の学習を実行する対象画像学習ステップとを実行させ、前記対象画像学習ステップにおいて、前記対象画像を入力とした場合の前記ニューラルネットワークの出力である予測画像を、前記第1の学習の結果に基づく第1の損失算出部に入力することで算出される第1の損失に基づく損失と、前記教師データと、に基づいて前記第2の学習を実行させるためのプログラムである。
本発明の一態様は、コンピュータに、上記のプログラムによる学習結果に基づいて前記対象画像において前記対象物体を判定する判定ステップを実行させるためのプログラムである。
第1の実施形態に係る画像処理システムの一例を示す図である。 第1の実施形態に係る画像処理装置の構成の一例を示す図である。 第1の実施形態に係る深層学習におけるデータの流れの一例を示す図である。 第1の実施形態に係る画像処理装置の機械学習の処理の一例を示す図である。 第1の実施形態に係る学習処理の一例を示す図である。 第1の実施形態に係る類似度の算出方法の一例を示す図である。 第1の実施形態に係る各画像と学習処理との関係の一例を示す図である。 第1の実施形態に係る判定処理の一例を示す図である。 第1の実施形態に係るセグメンテーション結果の一例を示す図である。 第1の実施形態に係る類似画像の類似度と判定精度との関係の一例を示す図である。 第1の実施形態に係る類似画像における類似物体の空間密度と判定精度との関係の一例を示す図である。 第2の実施形態に係る画像処理システムの一例を示す図である。 第2の実施形態に係る画像と学習処理との関係の一例を示す図である。 第2の実施形態に係る判定画像の一例を示す図である。 第2の実施形態に係る判定精度の一例を示す図である。 第3の実施形態に係る画像処理システムの一例を示す図である。 第4の実施形態に係る画像処理システムの一例を示す図である。 実施形態の変形例に係る対象物体と類似度との対応の一例を示す図である。 実施形態の変形例に係る血管様画像の画像セット間距離の算出処理の一例を示す図である。 実施形態の変形例に係る血管画像及び血管様画像の一例を示す図である。
(第1の実施形態)
以下、図面を参照しながら第1の実施形態について詳しく説明する。図1は、本実施形態に係る画像処理システムSTの一例を示す図である。画像処理システムSTは、一例として、電子顕微鏡M2と、光学顕微鏡M1と、電子顕微鏡画像データベースDB2と、DAPI画像データベースDB1と、画像処理装置T1とを備える。
画像処理システムSTでは、電子顕微鏡M2によって脳組織の細胞核である脳組織細胞核A2が撮像される。脳組織細胞核A2は、一例として、マウスの小脳の顆粒細胞核である。電子顕微鏡M2によって撮像された脳組織細胞核A2の画像は、対象画像PA1として、電子顕微鏡画像データベースDB2から画像処理装置T1に供給される。画像処理装置T1に供給される対象画像PA1の一部は、画像処理装置T1の学習部1に供給され学習処理に用いられ、残りの一部は画像処理装置T1の判定部2に供給され判定処理に用いられる。
画像処理装置T1は、一例として、コンピュータである。画像処理装置T1は、対象画像PA1において脳組織細胞核A2の画像を判定し、対象画像PA1に含まれる領域を脳組織細胞核A2の画像の領域と、それ以外の領域とに分類する。つまり、画像処理装置T1は、対象画像PA1に対してセグメンテーションを行う。脳組織細胞核A2は、判定の対象である対象物体の一例である。
画像処理装置T1は、深層学習に基づいてセグメンテーションを行う。画像処理装置T1は、学習部1と、判定部2とを備える。学習部1は、深層学習に基づいて学習を実行する。判定部2は、学習部1が学習した結果に基づいて対象画像PA1において対象物体の画像の領域を判定する。
学習部1は、対象画像PA1と、核正解画像PT2との組である教師データLDに基づいて学習を実行する。ここで核正解画像PT2とは、対象画像PA1において予め脳組織細胞核A2の画像の領域が示された画像である。
核正解画像PT2は、対象画像PA1において脳組織細胞核A2を示す領域について、例えば医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって、対象画像PA1に基づいて作成される。核正解画像PT2の作成には手間と時間を要するため、核正解画像PT2を十分な数だけ準備できない場合がある。つまり、画像処理装置T1が学習を行うために十分な数の教師データLDを準備できない場合がある。
画像処理システムSTでは、教師データLDを画像処理装置T1が学習を行うために十分な数だけ準備できない場合であっても、学習部1が類似画像PR1を学習に用いることによって学習の汎化性能の低下を抑制する。ここで類似画像PR1は、対象物体と外観が類似した物体である類似物体についての画像である。対象物体と外観が類似した物体とは、例えば、対象物体と輪郭などの形状が類似した物体である。また、類似物体についての画像とは、例えば、撮像素子を備える顕微鏡などによって類似物体が撮像された画像である。
画像処理装置T1は、類似画像PR1を用いて類似物体の特徴量を学習する。画像処理システムSTでは、脳組織細胞核A2と形状が類似した類似物体の一例として、培養初期のヒトの人工多能性幹細胞(iPS細胞)の細胞核の蛍光像であるiPS細胞核A1が採用される。脳組織細胞核A2の形状は粒状であり、iPS細胞核A1の形状は粒状の形状と類似している。
なお、本実施形態では、類似物体が対象物体と形状が類似した物体である場合の一例について説明するが、これに限らない。類似物体は、対象物体と構造や模様などのパターンが類似した物体であってもよい。
また、本実施形態では、類似物体についての画像が、類似物体が撮像素子を備える顕微鏡によって撮像された画像である場合の一例について説明するが、これに限らない。類似物体についての画像は、外観が対象物体と類似していれば類似物体が紙面などに描かれた画像であってもよい。
光学顕微鏡M1は、DAPI(4’,6-diamidino-2-phenylindole)によって染色されたiPS細胞核A1を、蛍光観察によって観察する。iPS細胞核A1は、光学顕微鏡M1によって撮像され、類似画像元画像PMとしてDAPI画像データベースDB1に蓄積される。学習部1は、画像認識によって類似画像元画像PMにおいてiPS細胞核A1の画像の領域を選択し、選択した領域が示された核正解画像PT1を生成する。ここで核正解画像PT1とは、iPS細胞核A1が撮像された類似画像元画像PMにおいて、iPS細胞核A1の画像の領域が示された画像である。
画像処理装置T1は、核正解画像PT1を用いてiPS細胞核A1の特徴量を学習する。ここでiPS細胞核A1の特徴量とは、粒状の形状である。iPS細胞核A1の形状と脳組織細胞核A2の形状とは、粒状である点において類似している。
画像処理装置T1は、学習した特徴量を先見情報として、対象物体である脳組織細胞核A2を抽出するための抽出器の学習を行う。ここで先見情報とは、対象物体を抽出するための抽出器の学習を実行するより前に、対象物体の外観と類似した特徴が学習された情報である。
画像処理システムSTでは、画像処理装置T1が深層学習の学習に用いる教師データLDの数が十分でない場合であっても、先見情報を学習に用いることができるため、学習の汎化性能の低下を抑制できる。つまり、画像処理システムSTでは、教師データLDの数が十分でない場合であっても、セグメンテーションの精度を高めることができる。
次に図2を参照し、画像処理装置T1の構成の詳細について説明する。図2は、本実施形態に係る画像処理装置T1の構成の一例を示す図である。学習部1は、学習装置の一例であり、判定部2は、判定装置の一例である。
まず学習部1の構成について説明する。学習部1は、類似画像元画像取得部10と、類似物体抽出部11と、類似度算出部12と、学習実行部13と、教師データ取得部14と、学習結果出力部15とを備える。
類似画像元画像取得部10と、類似物体抽出部11と、類似度算出部12と、学習実行部13と、教師データ取得部14と、学習結果出力部15とは、それぞれ、画像処理装置T1のCPU(Central Processing Unit)がROM(Read Only Memory)からプログラムを読み込んで処理を実行することにより実現されるモジュールである。
ここで図2に加えて図3を参照しながら、類似画像元画像取得部10及び類似物体抽出部11について説明する。図3は、本実施形態に係る深層学習におけるデータの流れの一例を示す図である。
類似画像元画像取得部10は、類似元画像データベース3から供給される類似画像元画像PMを取得する。図3の類似元画像データベース3は、本実施形態では一例として、図1のDAPI画像データベースDB1である。
なお、類似画像元画像取得部10は、類似元画像データベース3の代わりに、画像処理システムSTの外部のデータベースから類似画像元画像PMを取得してもよい。画像処理システムSTの外部のデータベースとは、例えば、ウェブ上に画像を公開している画像サーバなどの公共のデータベースである。
類似物体抽出部11は、類似画像元画像取得部10が取得した類似画像元画像PMから類似物体を抽出する。類似物体抽出部11は、抽出した類似物体に基づいて類似画像元画像PMから類似画像PRを生成する。
図2に戻って学習部1の構成の説明を続ける。
類似度算出部12は、類似物体抽出部11が生成した類似画像PRと、対象画像取得部140が取得した対象画像PAとに基づいて、類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像との類似度を算出する。類似度算出部12は、類似度を、一例として、対象物体の画像、及び対象物体の画像それぞれのHuモーメントの間のL1距離として算出する。本実施形態では、類似度は値が小さいほど、類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像とは類似している。
学習実行部13は、深層学習に基づいて学習を実行する。以下では、学習実行部13が学習に用いる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を、ニューラルネットワークNNという。学習実行部13は、類似画像学習部130と、形状損失算出部131と、対象画像学習部132と、VAT(Virtual Adversarial Training)損失算出部133と、クロスエントロピー損失算出部134とを備える。
ここで再び図2に加えて図3を参照し、学習実行部13について説明する。
類似画像学習部130は、類似物体抽出部11が生成した類似画像PRに基づいて第1の学習を実行する。ここで第1の学習とは、一例として、類似画像PRを入力に用いる畳み込みオートエンコーダ(CAE: Convolutional Auto Encoder)による学習である。類似画像学習部130は、類似画像PRを入力として用いてCAEを用いることによって、類似画像PRにおける類似物体の特徴を抽出する。以下では、類似画像学習部130が類似画像PRを入力に用いて学習させたCAEを、CAEfという。なお、CAEfは、ニューラルネットワークNNとは別のニューラルネットワークである。
形状損失算出部131は、対象画像学習部132によって算出される予測画像PPと、類似画像学習部130が学習させたCAEfとに基づいて、形状損失L3を算出する。予測画像PPとは、対象画像PAを入力とした場合のニューラルネットワークNNの出力である。
対象画像学習部132は、対象画像PAと、正解画像PTとの組である教師データLDと、類似画像学習部130による第1の学習の結果とに基づいて第2の学習を実行する。ここで、対象画像PAは、対象画像取得部140によって取得され、正解画像PTは、正解画像取得部141によって取得される。第2の学習とは、対象画像PAと、正解画像PTとの組である教師データLDを用いて、損失関数Lを最小にするようなニューラルネットワークNNの重みを算出し、算出した重みによってニューラルネットワークNNの重みを更新する処理である。
この損失関数Lは、クロスエントロピー損失L1に、VAT損失L2と、形状損失L3とがそれぞれに所定の重みを乗じて加算された量である。上述したように、形状損失L3は、類似画像学習部130が第1の学習によって生成したCAEfに基づいて算出されており、損失関数Lにはこの形状損失L3が加算されている。したがって、損失関数Lは、類似画像学習部130による第1の学習の結果に基づいている。
VAT損失算出部133は、対象画像取得部140が取得した対象画像PAに基づいてVAT損失L2を算出する。
クロスエントロピー損失算出部134は、対象画像PAを入力とした場合のニューラルネットワークNNの出力である予測画像PPと、正解画像取得部141が取得した正解画像PTとに基づいてクロスエントロピー損失L1を算出する。
図2に戻って学習部1の構成の説明を続ける。
教師データ取得部14は、教師データデータベース4から教師データLDを取得する。教師データ取得部14は、対象画像取得部140と、正解画像取得部141とを備える。
対象画像取得部140は、教師データデータベース4から対象画像PAを取得する。教師データデータベース4は、本実施形態では一例として、図1の電子顕微鏡画像データベースDB2である。対象画像PAは、電子顕微鏡画像データベースDB2に記憶される対象画像PA1の一部である。
正解画像取得部141は、教師データデータベース4から正解画像PTを取得する。正解画像PTは、対象画像PAに基づいて予め人間によって作成され電子顕微鏡画像データベースDB2に記憶される。正解画像PTは、例えば、図1の核正解画像PT2である。
学習結果出力部15は、学習実行部13の学習結果を判定部2に出力する。学習実行部13の学習結果とは、学習処理によって重みが更新されたニューラルネットワークNNである。
次に、判定部2の構成について説明する。判定部2は、判定画像取得部20と、判定実行部21と、判定結果出力部22とを備える。
判定画像取得部20は、判定画像データベース5から判定画像PEを取得する。判定画像データベース5は、本実施形態では一例として、図1の電子顕微鏡画像データベースDB2である。判定画像PEは、一例として、電子顕微鏡画像データベースDB2に記憶される対象画像PA1の一部である。
判定実行部21は、判定画像取得部20が取得した判定画像PEと、学習実行部13によって学習処理によって重みが更新されたニューラルネットワークNNとに基づいて、対象画像PAにおいて対象物体の画像の領域を判定する。つまり、判定実行部21は、対象画像PAに対してセグメンテーションを行う。
判定結果出力部22は、判定実行部21が判定した結果であるセグメンテーション結果を、表示装置(不図示)に表示させる。
図4から図8を参照し、画像処理システムSTの処理について説明する。
図4は、本実施形態に係る画像処理装置T1の機械学習の処理の一例を示す図である。図4に示す一例では、対象物体とは第2部位の細胞核である。また、第1部位の細胞核が、対象物体である第2部位の細胞核の類似物体として用いられる。一例として、第1部位の細胞核とはiPS細胞核A1であり、第2部位の細胞核とは脳組織細胞核A2である。また図4では、第1顕微鏡とは光学顕微鏡M1であり、第2顕微鏡とは電子顕微鏡M2である。
ステップS10:第1顕微鏡において第1観察条件が設定される。第1観察条件とは、第1顕微鏡によって第1部位の細胞核を観察するための観察条件である。観察条件は、一例として、蛍光観察、明視野観察などの顕微鏡の観察方法、及び撮像画像のピクセル解像度などが含まれる。本実施形態の第1観察条件における観察条件とは、例えば、蛍光観察である。
ステップS20:第1顕微鏡で第1部位の細胞核が撮像される。この一例では、光学顕微鏡M1で、DAPIによって染色されたiPS細胞核A1が蛍光観察によって観察される。第1顕微鏡は、第1部位の細胞核を撮像した結果に基づいて、類似画像元画像PMを生成する。
ステップS30:核正解画像PT1が生成される。本実施形態では、核正解画像PT1は画像処理装置T1の学習部1によって類似画像元画像PMから生成される。学習部1は、画像認識によって類似画像元画像PMにおいてiPS細胞核A1の画像の領域を選択し、選択した領域が示された核正解画像PT1を生成する。
ステップS40:画像処理装置T1は、核正解画像PT1のピクセル解像度を第2観察条件が示すピクセル解像度に一致させるように変更する。このピクセル解像度の変更の処理とは、例えば、アップサンプリングまたはダウンサンプリングである。
ステップS50:画像処理装置T1は、核正解画像PT1を用いて類似物体の特徴を学習する。ここで類似物体の特徴の学習においては、例えばCAEが用いられる。
ステップS60:第2顕微鏡において第2観察条件が設定される。第2観察条件とは、第2顕微鏡によって第2部位の細胞核を観察するための観察条件である。
ステップS70:第2顕微鏡で第2部位の細胞核が撮像される。この一例では、電子顕微鏡M2で、脳組織細胞核A2が観察される。電子顕微鏡M2は、第2部位の細胞核を撮像した結果に基づいて、対象画像PAを生成する。
ステップS80:複数の対象画像PAが学習用の画像と、判定用の画像とに分割される。例えば、複数の対象画像PAのうち、所定の割合に対応する枚数が学習用の画像に用いられ、残りの枚数が判定用の画像に用いられる。
ステップS90:学習用の対象画像PAに対して、核正解画像PT2が作成される。ここで核正解画像PT2は、対象画像PA1において脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。核正解画像PT2を作成する作業は、例えば、画像処理ソフトなどを用いて、タッチパネルやディスプレイに表示される核正解画像PT2の脳組織細胞核A2を示す領域がタッチペンやマウスなどによってなぞられることによって行われる。
学習用の対象画像PAと、核正解画像PT2との組は、画像処理装置T1が行う学習処理の教師データLDとして用いられる。
ステップS100:画像処理装置T1は、学習用の対象画像PAと、核正解画像PT2との組を教師データLDとして用いて第2部位の細胞核の特徴量を、深層学習を用いて学習する。この深層学習においては、損失関数として、クロスエントロピー損失に形状損失、及びVAT損失が追加された関数が用いられる。
ステップS110:画像処理装置T1は、学習結果に基づいて、判定用の画像について第2部位の細胞核の画像を判定する。
なお、本実施形態では、ステップS30において説明したように、核正解画像PT1が類似画像元画像PMから生成される場合の一例について説明したが、これに限らない。核正解画像PT1として類似画像元画像PMが用いられてもよい。例えば、核正解画像PT1としてDAPIによって染色されたiPS細胞核A1が蛍光観察によって観察された画像が、iPS細胞核A1の画像の領域が抽出されることなくそのまま用いられてもよい。
次に図5を参照し、学習部1の学習処理について説明する。図5は、本実施形態に係る学習処理の一例を示す図である。
ステップS200:類似画像元画像取得部10は、類似元画像データベース3から供給される類似画像元画像PMを取得する。類似画像元画像取得部10は、取得した類似画像元画像PMを類似物体抽出部11に供給する。
ステップS210:教師データ取得部14は、教師データデータベース4から教師データLDを取得する。ここで対象画像取得部140は対象画像PAを取得し、一方、正解画像取得部141は正解画像PTを取得する。上述したように正解画像PTは、対象画像PAから作成されており、正解画像PTと対象画像PAとは対応づけられている。
対象画像取得部140は、取得した対象画像PAを、対象画像学習部132及びVAT損失算出部133に供給する。正解画像取得部141は、取得した正解画像PTを、クロスエントロピー損失算出部134、及び類似度算出部12に供給する。
ステップS220:類似物体抽出部11は、類似画像元画像取得部10が取得した類似画像元画像PMから類似物体を抽出する。類似物体抽出部11は、例えば、二値化処理や画像認識のアルゴリズムを用いて類似画像元画像PMから類似物体を抽出する。類似物体抽出部11は、画像認識のアルゴリズムとして、例えば、テンプレートマッチングを用いる。
類似物体抽出部11は、抽出した類似物体に基づいて類似画像元画像PMから類似画像PRを生成する。類似物体抽出部11は、生成した類似画像PRを、類似度算出部12及び類似画像学習部130に供給する。
ステップS230:類似度算出部12は、類似物体抽出部11が生成した類似画像PRと、対象画像取得部140が取得した対象画像PAとに基づいて、類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像との類似度を算出する。
ここで図6を参照し、類似度算出部12が算出する類似度について説明する。図6は、本実施形態に係る類似度の算出方法の一例を示す図である。図6では、類似画像PRの一例である類似画像PR1について類似度を算出する場合を説明する。類似画像PR1には、対象物体の画像である対象物体画像が複数含まれている。複数の対象物体画像のそれぞれを対象物体画像SPi(i=1、2、・・・、N:Nは類似画像PR1に含まれる対象物体の画像の数)などと表す。
類似度算出部12は、類似画像PR1に含まれる複数の対象物体画像のなかから、例えば対象物体画像SP1を選択する。類似度算出部12は、選択した対象物体画像SP1について画像モーメントを算出する。画像モーメントは、例えば式(1)によって定義される。
Figure 0007477269000001
ここで座標x、及び座標yは、対象物体画像SP1に対して2直交座標系(xy座標系)を設定した場合の対象物体画像SP1に含まれるある点のx座標、及びy座標を示す。画素値I(x,y)は、対象物体画像SP1の画素値を示す。本実施形態では、類似画像PR1は二値化画像であるため、画素値I(x,y)は0または1である。数i、及び数jは、式(1)の右辺において座標x、及び座標yそれぞれのべき乗を示し、式(1)の左辺において画像モーメントの次数を示す自然数である。
類似度算出部12は、2直交座標系(xy座標系)で表された式(1)の画像モーメントを算出する。類似度算出部12は、対象物体画像SP1について画像モーメントを、所定の次数について算出する。所定の次数は、Huモーメントを算出するのに必要な次数である。
類似度算出部12は、算出した画像モーメントからHuモーメントを算出する。Huモーメントは、画像の並進、スケーリング、及び回転などに対する7種類の不変量であり、画像モーメントの多項式で表される。ここで画像のスケーリングは、画像における類似物体の空間密度によって表される。画像における類似物体の空間密度とは、例えば、画像に占める類似物体の画像の領域の面積の、画像全体の面積に対する割合として算出される。
上述したように、類似度算出部12は、所定の次数の画像モーメントによって定量化する。
類似度算出部12は、対象物体画像SP1と対象物体との類似度を、対象物体画像SP1のHuモーメントと対象物体のHuモーメントとのL1距離として算出する。
類似度算出部12は、対象物体との類似度を、対象物体画像SPi(i=1、2、・・・、N:Nは類似画像PR1に含まれる対象物体の画像の数)について算出する。類似度算出部12は、一例として、算出した類似度を類似画像PR1に含まれる対象物体の画像についての平均値を、類似画像PR1の類似度として算出する。なお、類似度の算出方法は、上述のHuモーメントを用いた態様に限られない。例えば、領域の外形を、重心をOとしたrΘ座標系で表してヒストグラムを作成し、当該ヒストグラムの差分(L1距離等)に基づいて類似度を算出してもよい。
図5に戻って学習処理の説明を続ける。以下では、図5に加えて図7を参照しながら学習処理の説明をする。図7は、本実施形態に係る各画像と学習処理との関係の一例を示す図である。
ステップS240:類似画像学習部130は、類似物体抽出部11が生成した類似画像PRを用いてCAEによる学習を実行する。図7では、類似画像PRを入力とするエンコーダfによって類似画像PRから特徴が抽出され、エンコーダfの出力を入力とするデコーダgの出力が類似画像PRに一致するように学習が行われている。類似画像学習部130は、CAEに類似画像PRを入力に用いて学習させた結果としてCAEfを生成する。
上述したように、類似画像PRを入力に用いたCAEによる学習とは、第1の学習である。したがって、類似画像学習部130は、類似物体抽出部11が生成した類似画像PRを用いて第1の学習を実行する。つまり、類似画像学習部130は、類似画像PRとして、類似物体抽出部11によって抽出された類似物体が示された画像を用いて第1の学習を実行する。
なお、類似度算出部12は、類似度が所定の値以下である類似画像PRを、CAEによる学習において用いる類似画像から除外してもよい。上述したように、類似度は値が小さいほど類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像とは類似している。
類似度が所定の値以下である類似画像PRを、CAEによる学習において用いる類似画像から除外される場合、類似物体は、対象物体に対する類似度が所定の値以下である。ここの場合、対象物体に対する外観の類似の程度を示す値を、例えば、類似度の逆数などとすると、類似物体は、対象物体に対する外観の類似の程度を示す値が所定の値以上である。
ステップS250:VAT損失算出部133は、対象画像取得部140が取得した対象画像PAに基づいてVAT損失L2を算出する。VAT損失算出部133は、算出したVAT損失L2を対象画像学習部132に供給する。
VAT損失L2は、図7において項Ladvとして記載されている。この項Ladvは、式(2)によって表される。
Figure 0007477269000002
式(2)においてrvadvは、式(3)によって表される。
Figure 0007477269000003
式(2)、及び式(3)において、値xは対象画像PAの画素値を示し、値yは正解画像PTの画素値を示す。
この項Ladvは、いわゆる局所分布平滑化(Local Distributional Smoothing)に相当し、対象画像PAに摂動を加えることによって、セグメンテーションのロバスト性を向上させる。
ステップS260:対象画像学習部132は、対象画像取得部140が取得した対象画像PAと、ニューラルネットワークNNとに基づいて予測画像PPを算出する。ここで対象画像学習部132は、対象画像取得部140が取得した対象画像PAの画素値をニューラルネットワークNNの入力として用いて、ニューラルネットワークNNの出力を算出する。対象画像学習部132は、算出した出力を予測画像PPの画素値とすることによって、予測画像PPを算出する。
図7では、対象画像PAがニューラルネットワークNNの入力に用いられた場合のニューラルネットワークNNの出力が値φθとして示されている。パラメータθは、ニューラルネットワークNNに含まれる各ノード間の重み全体の組を示す。値φθは予測画像PPの画素値に対応し、セグメンテーション予測結果である。
ステップS270:クロスエントロピー損失算出部134は、対象画像PAを入力とした場合のニューラルネットワークNNの出力である予測画像PPと、正解画像取得部141が取得した正解画像PTとに基づいてクロスエントロピー損失L1を算出する。クロスエントロピー損失算出部134は、算出したクロスエントロピー損失L1を対象画像学習部132に供給する。
クロスエントロピー損失L1は、図7において項Lcross entropyとして記載されている。項Lcross entropyは、セグメンテーション予測結果である値φθ(x)と、正解画像PTの画素値である値yとのクロスエントロピーである。項Lcross entropyは、2クラス分類のための損失関数である。本実施形態において2クラスとは、対象物体の画像の領域に対応するクラスと、対象物体の画像以外の領域に対応するクラスとの2つのクラスである。
ステップS280:形状損失算出部131は、対象画像学習部132によって算出される予測画像PPと、正解画像取得部141が取得する正解画像PTと、類似画像学習部130が学習させたCAEfとに基づいて、形状損失L3を算出する。形状損失算出部131は、算出した形状損失L3を対象画像学習部132に供給する。
形状損失L3は、図7において項Lshapeとして記載されている。この項Lshapeは、セグメンテーション予測結果である値φθ(x)を入力とするCAEfの出力の値と、正解画像PTの画素値である値yを入力とするCAEfの出力の値との距離である。項Lshapeは、式(4)によって表される。
Figure 0007477269000004
項Lshapeは、類似画像PRを用いた形状正則化項に相当する。項Lshapeは、セグメンテーション予測結果である値φθ(x)と、正解画像PTの画素値である値yとの距離を、類似画像PRの類似物体の特徴を抽出するフィルタをかけて比較することによって、パラメータθの探索範囲を制限する。類似画像PRの類似物体の特徴を抽出するフィルタとは、類似画像学習部130が学習させたCAEfである。
ステップS290:対象画像学習部132は、クロスエントロピー損失算出部134が算出したクロスエントロピー損失L1と、VAT損失算出部133が算出したVAT損失L2と、形状損失算出部131が算出した形状損失L3とに基づいて損失関数Lを算出する。
図7において、損失関数Lは、クロスエントロピー損失L1と、パラメータλを乗じたVAT損失L2と、パラメータλを乗じた形状損失L3との和である。パラメータλは、クロスエントロピー損失L1に対するVAT損失L2の重みであり、パラメータλは、クロスエントロピー損失L1に対する形状損失L3の重みである。
ステップS2100:対象画像学習部132は、算出した損失関数Lを最小にするようなニューラルネットワークNNの重み(パラメータθ)を更新する。ここで対象画像学習部132は、例えば、勾配降下法に基づいてニューラルネットワークNNの重みを更新する。
つまり、対象画像学習部132は、対象物体が撮像された画像である対象画像PAと、対象画像PAにおいて対象物体が示された画像である正解画像PTとの組である教師データLDと、類似画像学習部130による第1の学習の結果とに基づいて第2の学習を実行する。ここで、対象画像学習部132は、形状損失L3が加算された損失関数Lを第2の学習に用いる。形状損失L3は、類似画像学習部130による第1の学習の結果であるCAEfに基づいている。つまり、対象画像学習部132は、類似画像学習部130による第1の学習の結果に基づく損失関数Lと、教師データLDとに基づいて第2の学習を実行する。
図7では、対象画像PAを入力とした場合のニューラルネットワークNNの出力である値φθ(x)が、類似画像PRが用いられたパラメータθの更新によって正解画像PTの画素値に近づく様子が示されている。
ステップS2110:対象画像学習部132は、学習終了条件が満たされたか否かを判定する。学習終了条件とは、一例として、損失関数Lの値が収束することである。対象画像学習部132は、学習終了条件が満たされたと判定する場合(ステップS2110;YES)、ステップS2120の処理を実行する。一方、対象画像学習部132が、学習終了条件が満たされていないと判定する場合(ステップS2110;NO)、学習実行部13はステップS260の処理を再び実行する。
ステップS2120:対象画像学習部132は、学習処理によって重みが更新されたニューラルネットワークNNを学習結果出力部15に出力する。学習処理によって重みが更新されたニューラルネットワークNNは、学習部1によって学習されたモデルである。ニューラルネットワークNNは、学習装置によって学習された学習済みモデルの一例である。
以上で、学習実行部13は学習処理を終了する。
なお、図5に示した学習処理において、ステップS200における類似画像PRを取得する処理と、ステップS210における教師データLDを取得する処理とは、順番が入れ替えられて実行されてもよい。また、ステップS270におけるクロスエントロピー損失L1を算出する処理と、ステップS280における形状損失L3を算出する処理とは、順番が入れ替えられて実行されてもよい。
次に図8を参照し、判定部2の判定処理について説明する。図8は、本実施形態に係る判定処理の一例を示す図である。
ステップS300:判定画像取得部20は、判定画像データベース5から判定画像PEを取得する。判定画像取得部20は、取得した判定画像PEを判定実行部21に供給する。
ステップS310:判定実行部21は、対象画像PAに対してセグメンテーションを行う。ここで判定実行部21は、判定画像取得部20が取得した判定画像PEと、学習実行部13によって学習処理によって重みが更新されたニューラルネットワークNNとに基づいて、対象画像PAにおいて対象物体の画像の領域を判定する。判定実行部21は、セグメンテーション結果を判定結果出力部22に供給する。
ステップS320:判定結果出力部22は、判定実行部21によるセグメンテーション結果を、表示装置に表示させる。なお、判定結果出力部22は、判定実行部21によるセグメンテーション結果を、画像処理装置T1の外部のデータベースなどに記憶させてもよい。
以上で、判定部2は判定処理を終了する。
次に図9から図11を参照し、セグメンテーション結果について説明する。
図9は、本実施形態に係るセグメンテーション結果の一例を示す図である。図9に示す例では、判定画像PE1に対してセグメンテーションが行われたセグメンテーション結果として、セグメンテーション結果画像PS1~PS4が示されている。
判定画像PE1は、一例として、マウスの小脳の顆粒細胞核が撮像されたZスタック画像である。判定画像PE1では、異なる3つの方向について顆粒細胞核の断面が撮像された3つの断面画像を含む。判定画像PE1が3つの断面画像を含むことに応じて、セグメンテーション結果画像PS1~PS4においてもそれぞれ3つの断面画像についてのセグメンテーション結果が示されている。
画像処理装置T1によるセグメンテーション結果は、セグメンテーション結果画像PS4である。セグメンテーション結果画像PS1~PS3は、画像処理装置T1によるセグメンテーション結果との比較のために示されている。
セグメンテーション結果画像PS1は、クロスエントロピー損失が損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション結果である。セグメンテーション結果画像PS2は、クロスエントロピー損失にVAT損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション結果である。セグメンテーション結果画像PS3は、クロスエントロピー損失に形状損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション結果である。
対象画像PAにおける対象物体の画像の領域の判定精度は、セグメンテーション結果画像PS4、セグメンテーション結果画像PS3、セグメンテーション結果画像PS2、セグメンテーション結果画像PS1の順に高い。つまり、画像処理装置T1によるセグメンテーション結果が、他のセグメンテーション結果に比べて最も高い。
セグメンテーション結果画像PS2はセグメンテーション結果画像PS1に比べて判定精度が向上しており、セグメンテーション結果画像PS4はセグメンテーション結果画像PS3に比べて判定精度が向上していることから、損失関数にはVAT損失が加えられた方が加えられない場合に比べて判定精度は向上することがわかる。
なお、損失関数にVAT損失を加えた場合、学習処理においてVAT損失を加えない場合に比べて多くのメモリが必要とされる。
一方、セグメンテーション結果画像PS3はセグメンテーション結果画像PS1に比べて判定精度が向上しており、セグメンテーション結果画像PS4はセグメンテーション結果画像PS2に比べて判定精度が向上していることから、損失関数には形状損失が加えられた方が加えられない場合に比べて判定精度は向上することがわかる。
損失関数にVAT損失を加えない場合であっても形状損失を加えることによって、判定精度は向上する。セグメンテーションの判定精度を向上させるためには、損失関数には形状損失及びVAT損失が加えられることが好ましいが、学習処理において利用可能なメモリの容量が十分でない場合にはメモリの容量に応じて、損失関数にはVAT損失は加えられなくてもよい。
図10は、本実施形態に係る類似画像PRの類似度と判定精度との関係の一例を示す図である。グラフG1は、対象画像PAと類似画像PRとの類似度に対するDice係数の値を示す。類似度は、上述しように対象画像PA、及び類似画像PRそれぞれのHuモーメントの間のL1距離であり、対象画像PAに含まれる対象物体の画像の形状と類似画像PRに含まれる類似物体の画像の形状とは、値が小さいほどより類似している。図10においてDice係数は、セグメンテーション結果画像と正解画像との類似の程度を示し、高いほどセグメンテーションの精度が高いことを示す。
グラフG1において、点P1aは類似画像PR2aに対応し、点P1bは類似画像PR2bに対応し、点P1cは類似画像PR2cに対応する。類似画像PR2a、類似画像PR2b、類似画像PR2cは、この順に対象画像PAとの類似度が高い。類似画像PR2bでは、類似物体は1つだけ含まれておりこの類似物体の形状は、類似画像PR2aに含まれる類似物体の形状に比べて、対象物体である顆粒細胞核の形状に類似していない。類似画像PR2cでは、類似物体の形状が多角形であり、類似画像PR2aや類似画像PR2bに含まれる類似物体の形状に比べて顆粒細胞核の形状に類似していない。
グラフG1から、類似度が増加するにつれてセグメンテーションの精度が低下することがわかる。
次に図11を参照し、類似物体の空間密度と判定精度との関係について説明する。
図11は、本実施形態に係る類似画像PRにおける類似物体の空間密度と判定精度との関係の一例を示す図である。図11において、類似画像PR2bは、類似画像PR2aの物体領域を抽出し、そのうちの1つの領域を表示したものである。また、類似画像PR2cは、類似画像PR2aから抽出された複数の物体領域に対してDouglas-Peukerアルゴリズム適用し、物体領域を、物体領域の輪郭上に頂点を有する多角形として表したものである。上記のようにして類似物体の空間密度を変更した。
グラフG2は、類似画像PRにおける類似物体の空間密度に対するDice係数の値を示す。Dice係数は、図10と同様である。
グラフG2において、点P2aは類似画像PR2aに対応し、点P2bは類似画像PR2bに対応し、点P2cは類似画像PR2cに対応する。類似画像PR2a、類似画像PR2b、類似画像PR2cは、この順に類似物体の空間密度が高い。
グラフG2から、類似物体の空間密度は、セグメンテーションの精度に影響しないことがわかる。
なお、本実施形態においては、類似物体抽出部11が、類似画像元画像取得部10が取得した類似画像元画像PMから類似物体を抽出し、抽出した類似物体に基づいて類似画像PRを生成する場合の一例について説明したが、これに限らない。類似画像元画像PMがそのまま類似画像PRとして用いられてもよい。類似画像元画像PMがそのまま類似画像PRとして用いられる場合、例えば、類似物体抽出部11は類似画像元画像取得部10が取得した類似画像元画像PMをそのまま類似画像PRとして類似度算出部12及び類似画像学習部130に供給する。あるいは、類似画像元画像PMがそのまま類似画像PRとして用いられる場合、学習部1の構成から類似物体抽出部11が省略されてもよい。
また、本実施形態においては、類似度算出部12によって類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像との類似度が算出される場合の一例について説明したが、これに限らない。学習部1の構成から類似度算出部12が省略されてもよい。
以上に説明したように、本実施形態に係る学習装置(この一例において、学習部1)は、類似画像学習部130と、対象画像学習部132とを備える。
類似画像学習部130は、判定の対象である対象物体(この一例において、脳組織細胞核A2)と外観が類似した物体である類似物体(この一例において、iPS細胞核A1)についての画像である類似画像PRに基づいて第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)を実行する。
対象画像学習部132は、対象物体(この一例において、脳組織細胞核A2)が撮像された画像である対象画像PAと、対象画像PAにおいて対象物体(この一例において、脳組織細胞核A2)が示された画像である正解画像PTとの組である教師データLDと、類似画像学習部130による第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の結果とに基づいて第2の学習(この一例において、対象画像PAと、正解画像PTとの組である教師データLDを用いて、損失関数Lを最小にするようなニューラルネットワークNNの重みを算出し、算出した重みによってニューラルネットワークNNの重みを更新する処理)を実行する。
この構成により、本実施形態に係る学習装置(この一例において、学習部1)では、教師データLDが十分な数がなく判定の精度が低い場合であっても、第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の結果に基づいて第2の学習(この一例において、対象画像PAと、正解画像PTとの組である教師データLDを用いて、損失関数Lを最小にするようなニューラルネットワークNNの重みを算出し、算出した重みによってニューラルネットワークNNの重みを更新する処理)を実行できるため、教師データLDが十分な数だけない場合であっても、第1の学習の結果(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)に基づかない場合に比べて判定の精度を高めることができる。
ここで類似画像PRは、公共のデータベースなどの画像処理システムSTの外部のデータベースから取得されてもよいし、上述したように公共のデータベースなどの画像処理システムSTの外部のデータベースから取得される類似画像元画像PMから生成されてもよい。類似画像PRが公共のデータベースなどの画像処理システムSTの外部のデータベースから取得される場合、類似物体が含まれる予め用意された画像群を用いることができ、類似画像PRを準備する手間を省くことができる。
本実施形態に係る学習装置(この一例において、学習部1)では、教師データLDの数が十分でない場合であっても、外部のデータベースに予め用意された画像群を用いて第1の学習を実行することによって、教師データLDの数が十分でないことによる判定の精度の低下を抑制できる。
また、本実施形態に係る学習装置(この一例において、学習部1)は、類似物体抽出部11をさらに備える。類似物体抽出部11は、類似画像PRから類似物体(この一例において、iPS細胞核A1)を抽出する。また、類似画像学習部130は、類似画像PRとして、類似物体抽出部11によって抽出された類似物体(この一例において、iPS細胞核A1)が示された画像を用いて第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)を実行する。
この構成により、本実施形態に係る学習装置(この一例において、学習部1)では、ユーザが類似画像PRから類似物体を塗るなどすることなく、類似物体抽出部11が類似画像PRから類似物体(この一例において、iPS細胞核A1)を抽出できるため、類似物体を抽出する手間が省ける。
また、本実施形態に係る学習装置(この一例において、学習部1)では、類似画像PRとして類似物体(この一例において、iPS細胞核A1)が示された画像を用いて第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)を実行できるため、類似画像PRとして抽出された類似物体(この一例において、iPS細胞核A1)が示された画像を用いない場合(例えば、類似画像元画像PMを用いる場合)に比べて、第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の効率を高めることができる。第1の学習の効率を高めるとは、例えば、同程度の第2の学習の精度(この一例において、セグメンテーションの精度)を得るために必要な類似画像PRの枚数を少なくすることである。
また、本実施形態に係る学習装置(この一例において、学習部1)では、類似物体(この一例において、iPS細胞核A1)は、対象物体(この一例において、脳組織細胞核A2)に対する外観の類似の程度を示す値(この一例において、類似度の逆数)が所定の値以上である。
この構成により、本実施形態に係る学習装置(この一例において、学習部1)では、対象物体(この一例において、脳組織細胞核A2)に対する外観の類似の程度を示す値(この一例において、類似度の逆数)が所定の値以上である類似物体(この一例において、iPS細胞核A1)の類似画像PRを用いて第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)を実行できるため、第2の学習(この一例において、対象画像PAと、正解画像PTとの組である教師データLDを用いて、損失関数Lを最小にするようなニューラルネットワークNNの重みを算出し、算出した重みによってニューラルネットワークNNの重みを更新する処理)の精度を、対象物体(この一例において、脳組織細胞核A2)に対する外観の類似の程度を示す値(この一例において、類似度の逆数)が所定の値未満である類似物体の類似画像を用いる場合に比べて高めることができる。
また、本実施形態に係る学習装置(この一例において、学習部1)では、対象画像学習部132は、類似画像学習部130による第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の結果に基づく損失関数Lと、教師データLDとに基づいて第2の学習(この一例において、対象画像PAと、正解画像PTとの組である教師データLDを用いて、損失関数Lを最小にするようなニューラルネットワークNNの重みを算出し、算出した重みによってニューラルネットワークNNの重みを更新する処理)を実行する。
この構成により、本実施形態に係る学習装置(この一例において、学習部1)では、第2の学習に用いる損失関数Lに、第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の結果を反映できるため、損失関数Lが第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の結果に基づかない場合に比べて判定の精度を高めることができる。
また、本実施形態に係る判定装置(この一例において、判定部2)は、判定部2を備える。判定部2は、学習装置(この一例において、学習部1)による学習結果(この一例において、学習部1の学習処理によって重みが更新されたニューラルネットワークNN)に基づいて対象画像PAにおいて対象物体(この一例において、脳組織細胞核A2)を判定する。
この構成により、本実施形態に係る判定装置(この一例において、判定部2)では、学習装置(この一例において、学習部1)による学習結果(この一例において、学習部1の学習処理によって重みが更新されたニューラルネットワークNN)に基づいて判定ができるため、学習装置(この一例において、学習部1)による学習結果(この一例において、学習部1の学習処理によって重みが更新されたニューラルネットワークNN)に基づかない場合に比べて判定精度を高めることができる。
(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
上記第1の実施形態では、画像処理システムが、脳組織細胞核が電子顕微鏡によって撮像された画像を対象画像とし、iPS細胞核が光学顕微鏡によって撮像された画像を類似画像として処理を行う場合について説明をした。本実施形態では、画像処理システムが、iPS細胞核が光学顕微鏡によって撮像された画像を対象画像とし、脳組織細胞核が電子顕微鏡によって撮像された画像を類似画像として処理を行う場合について説明をする。
本実施形態に係る画像処理システムを画像処理システムSTaといい、画像処理装置を画像処理装置T1aという。
図12は、本実施形態に係る画像処理システムSTaの一例を示す図である。画像処理システムSTaは、一例として、電子顕微鏡M2と、光学顕微鏡M1aと、電子顕微鏡画像データベースDB2と、DAPI画像データベースDB1と、明視野画像データベースDB3aと、画像処理装置T1aとを備える。
本実施形態に係る画像処理システムSTa(図12)と第1の実施形態に係る画像処理システムST(図1)とを比較すると、光学顕微鏡M1a、明視野画像データベースDB3a、及び画像処理装置T1aが異なる。ここで、他の構成要素(電子顕微鏡M2、電子顕微鏡画像データベースDB2、及びDAPI画像データベースDB1)が持つ機能は第1の実施形態と同じである。第1の実施形態と同じ機能の説明は省略し、第2の実施形態では、第1の実施形態と異なる部分を中心に説明する。
画像処理システムSTaでは、光学顕微鏡M1aは、iPS細胞核A1を、明視野観察によって観察し、また、DAPIによって染色されたiPS細胞核A1を蛍光観察によって観察する。明視野観察によって観察されるiPS細胞核A1は、光学顕微鏡M1aによって撮像され、対象画像PAaとして明視野画像データベースDB3aに蓄積される。明視野画像データベースDB3aに蓄積される対象画像PAaの一部が画像処理装置T1aの学習部1aに供給され学習処理に用いられ、残りの一部が画像処理装置T1aの判定部2に供給され判定処理に用いられる。
一方、蛍光観察によって観察されるiPS細胞核A1は、光学顕微鏡M1aによって撮像され、正解画像元画像PNaとしてDAPI画像データベースDB1に蓄積される。
学習部1aは、画像認識によって正解画像元画像PNaにおいてiPS細胞核A1の画像の領域を選択し、選択した領域が示された核正解画像PT1aを生成する。学習部1aは、対象画像PAaと、核正解画像PT1aとの組である教師データLDaに基づいて学習を実行する。
画像処理システムSTaでは、電子顕微鏡M2によって脳組織細胞核A2が撮像される。電子顕微鏡M2によって撮像された脳組織細胞核A2の画像は、類似画像元画像PMaとして電子顕微鏡画像データベースDB2に蓄積される。
核正解画像PT2aは、電子顕微鏡画像データベースDB2に蓄積される脳組織細胞核A2の画像に基づいて作成される。ここで核正解画像PT2aは、脳組織細胞核A2の画像において脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。作成された核正解画像PT2aは、電子顕微鏡画像データベースDB2に蓄積され、類似画像PR1aとして画像処理装置T1aに供給される。
学習部1aは、類似画像PR1aを用いてiPS細胞核A1の特徴量を学習する。画像処理システムSTaでは、iPS細胞核A1と形状が類似した類似物体の一例として、脳組織細胞核A2が採用される。
学習部1aの学習処理と、図4や図5において説明した学習部1の学習処理とでは、第1部位の細胞核、第2部位の細胞核、第1顕微鏡、第2顕微鏡、第1観察条件、及び第2観察条件が異なる。学習部1aの学習処理では、第1部位の細胞核とは脳組織細胞核A2であり、第2部位の細胞核とはiPS細胞核A1である。また、学習部1aの学習処理では、第1顕微鏡とは電子顕微鏡M2であり、第2顕微鏡とは光学顕微鏡M1aである。
また、学習部1aの学習処理と学習部1の学習処理とでは、図4のステップS30、及びステップS90の核正解画像の生成方法が、以下のステップS30a、及びステップS90aに置き換えられる点が異なる。
ステップS30a:核正解画像PT2aが作成される。ここで核正解画像PT2aは、類似画像元画像PMaにおいて脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。
ステップS90a:学習用の対象画像PAaに対して、核正解画像PT1aが生成される。本実施形態では、核正解画像PT1aは画像処理装置T1aの学習部1aによって対象画像PAaから生成される。学習部1aは、画像認識によって対象画像PAaにおいてiPS細胞核A1の画像の領域を選択し、選択した領域が示された核正解画像PT1aを生成する。学習用の対象画像PAaと、核正解画像PT1aとの組は、画像処理装置T1aが行う学習処理の教師データLDaとして用いられる。
次に図13を参照し、iPS細胞核A1の画像や脳組織細胞核A2の画像が学習処理においてどのように用いられるかについての具体例を説明する。図13は、本実施形態に係る画像と学習処理との関係の一例を示す図である。
図13では、iPS細胞核A1の画像である対象画像PAaがニューラルネットワークNNの入力に用いられた場合のニューラルネットワークNNの出力が値φθとして示されている。対象画像PAaを入力とした場合のニューラルネットワークNNの出力である値φθ(x)が、類似画像PRaが用いられたパラメータθの更新によって正解画像PTaの画素値に近づく様子が示されている。正解画像PTaは、iPS細胞核A1の画像の領域が示された核正解画像PT1aである。
図13では、類似画像PRaとして脳組織細胞核A2の画像の領域が示された核正解画像PT2aが用いられ、CAEfによって脳組織細胞核A2の形状の特徴が学習される。
図13では、対象画像PAaと、正解画像PTaと、類似画像PRaに撮像された脳組織細胞核A2の形状の特徴が学習されたCAEfとに基づいて、損失関数Lが算出される。
次に図14及び図15を参照し、画像処理装置T1aのセグメンテーション結果について説明する。
図14は、本実施形態に係る判定画像PE1aの一例を示す図である。判定画像PE1aは、一例として、光学顕微鏡M1aによって明視野観察に基づいてiPS細胞核A1が撮像されたZスタック画像である。判定画像PE1aでは、異なる3つの方向についてiPS細胞核A1の断面が撮像された3つの断面画像を含む。判定画像PE1aでは、Zスタック画像において撮像されるiPS細胞核A1の深さのうちの中間の深さに相当する深さ以外は、デフォーカスしている。
図15は、本実施形態に係る判定精度の一例を示す図である。グラフG31、グラフG32、グラフG33、及びグラフG34は、セグメンテーションの精度としてDice係数の値をZスタック画像の深さ毎にそれぞれ示す。
グラフG34は、画像処理装置T1aによるセグメンテーション精度を示す。グラフG34が示すセグメンテーション精度は、クロスエントロピー損失にVAT損失及び形状損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション精度である。
グラフG31、グラフG32、グラフG33は、画像処理装置T1aによるセグメンテーション精度との比較のために示されている。グラフG31が示すセグメンテーション精度は、クロスエントロピー損失が損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション精度である。グラフG32が示すセグメンテーション精度は、クロスエントロピー損失に形状損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション精度である。グラフG33示すセグメンテーション精度は、クロスエントロピー損失にVAT損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション精度である。
グラフG32とグラフG31との比較、及びグラフG34とグラフG33との比較から、損失関数に形状損失が加えられて学習が行われる場合の方が、損失関数に形状損失が加えられずに学習が行われる場合に比べて、セグメンテーション精度は向上していることがわかる。つまり、脳組織細胞核A2の形状を先見情報として用いることによってセグメンテーション精度は向上する。
また、グラフG33とグラフG31との比較、及びグラフG34とグラフG32との比較から、損失関数にVAT損失が加えられ学習が行われる場合の方が、損失関数にVAT損失が加えられずに学習が行われる場合に比べてセグメンテーション精度は向上していることがわかる。
グラフG31、グラフG32、グラフG33、及びグラフG34から、画像処理装置T1aによるセグメンテーション精度が、他のセグメンテーション精度に比べて高いことがわかる。つまり、クロスエントロピー損失に形状損失及びVAT損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション精度が他のセグメンテーション精度に比べて最も高い。
(第3の実施形態)
以下、図面を参照しながら本発明の第3の実施形態について詳しく説明する。
上記第1の実施形態や第2の実施形態では、画像処理システムが、脳組織細胞核が電子顕微鏡によって撮像された画像と、iPS細胞核が光学顕微鏡によって撮像された画像とのうち一方が対象画像とされ、他方が類似画像とされる場合について説明をした。本実施形態では、脳組織細胞核が異なる撮像方法によって撮像された画像のうち、一方が対象画像として用いられ、他方が類似画像として用いられる場合について説明する。第3の実施形態では、光学顕微鏡によって撮像された脳組織細胞核の画像が類似画像として用いられ、電子顕微鏡によって撮像された脳組織細胞核の画像が対象画像として用いられる。
本実施形態に係る画像処理システムを画像処理システムSTbといい、画像処理装置を画像処理装置T1bという。
図16は、本実施形態に係る画像処理システムSTbの一例を示す図である。画像処理システムSTbは、一例として、電子顕微鏡M2と、光学顕微鏡M1aと、電子顕微鏡画像データベースDB2と、DAPI画像データベースDB1bと、明視野画像データベースDB3bと、画像処理装置T1bとを備える。
本実施形態に係る画像処理システムSTb(図16)と第2の実施形態に係る画像処理システムSTa(図12)とを比較すると、DAPI画像データベースDB1b、明視野画像データベースDB3b、及び画像処理装置T1bが異なる。ここで、他の構成要素(光学顕微鏡M1a、電子顕微鏡M2、及び電子顕微鏡画像データベースDB2)が持つ機能は第2の実施形態と同じである。第2の実施形態と同じ機能の説明は省略し、第3の実施形態では、第2の実施形態と異なる部分を中心に説明する。
画像処理システムSTbでは、光学顕微鏡M1aは、脳組織細胞核A2を、明視野観察によって観察し、また、DAPIによって染色された脳組織細胞核A2を蛍光観察によって観察する。明視野観察によって観察される脳組織細胞核A2は、光学顕微鏡M1aによって撮像され、撮像された画像は明視野画像データベースDB3bに蓄積される。一方、蛍光観察によって観察される脳組織細胞核A2は、光学顕微鏡M1aによって撮像され、類似画像元画像PMbとしてDAPI画像データベースDB1bに蓄積される。
学習部1bは、画像認識によって類似画像元画像PMbにおいて脳組織細胞核A2の画像の領域を選択し、選択した領域が示された核正解画像PT1bを生成する。作成された核正解画像PT1bは、DAPI画像データベースDB1bに蓄積され、類似画像PR1bとして画像処理装置T1bに供給される。
画像処理システムSTbでは、電子顕微鏡M2によって脳組織細胞核A2が撮像される。電子顕微鏡M2によって撮像された脳組織細胞核A2の画像は、対象画像PA1bとして電子顕微鏡画像データベースDB2に蓄積される。電子顕微鏡画像データベースDB2に蓄積される対象画像PA1bの一部が画像処理装置T1bの学習部1bに供給され学習処理に用いられ、残りの一部が画像処理装置T1bの判定部2に供給され判定処理に用いられる。
核正解画像PT2bは、電子顕微鏡画像データベースDB2に蓄積される脳組織細胞核A2の画像に基づいて作成される。ここで核正解画像PT2bは、脳組織細胞核A2の画像において脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。作成された核正解画像PT2bは、電子顕微鏡画像データベースDB2に蓄積され、核正解画像PT1bとして画像処理装置T1bに供給される。
学習部1bは、類似画像PR1bを用いて脳組織細胞核A2の特徴量を学習する。画像処理システムSTbでは、電子顕微鏡M2によって撮像された脳組織細胞核A2と形状が類似した類似物体の一例として、DAPIによって染色され光学顕微鏡M1aに蛍光観察によって撮像された脳組織細胞核A2が採用される。
学習部1bの学習処理と、図4や図5において説明した学習部1の学習処理とでは、第1部位の細胞核が異なる。学習部1bの学習処理では、第1部位の細胞核とは脳組織細胞核A2である。
また、学習部1bの学習処理と学習部1の学習処理とでは、図4のステップS30の核正解画像の生成方法が、以下のステップS30bに置き換えられる点が異なる。
ステップS30b:核正解画像PT1bが作成される。ここで核正解画像PT1bは、類似画像元画像PMbにおいて脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。
本実施形態では、類似画像PRbは、第1顕微鏡である光学顕微鏡M1aによって第1観察条件において撮像されて生成され、対象画像PAbは、第2顕微鏡である電子顕微鏡M2によって第2観察条件において撮像されて生成される。つまり、本実施形態では、類似画像PRbと対象画像PAbとでは、撮像方法が互いに異なる。
電子顕微鏡は、光学顕微鏡に比べ分解能が高い。一方、電子顕微鏡では、電子線照射に高電圧が必要とされ、また顕微鏡内を真空に保つ必要があるなど、光学顕微鏡による観察に比べ観察が簡便ではない。観察が簡便であるという点において、光学顕微鏡による観察の方が、電子顕微鏡による観察よりも効率がよい。
DAPIによって染色された脳組織細胞核A2が光学顕微鏡M1aによる蛍光観察によって撮像されて画像が生成される場合の方が、脳組織細胞核A2の電子顕微鏡M2によって撮像されて画像が生成される場合に比べて類似画像PRbを効率よく生成できる。
また、画像認識によって類似画像元画像PMbから核正解画像PT1bが生成される場合の方が、電子顕微鏡M2によって撮像された脳組織細胞核A2の画像から人間によって核正解画像PT2bが作成される場合に比べて、類似画像PRbを効率よく生成できる。
なお、類似画像PRbと対象画像PAbとにおいて、撮像方法は共通であってもよい。例えば、類似画像PRbと対象画像PAbとが、ともに第1顕微鏡によって第1観察条件において撮像されてもよい。あるいは、類似画像PRbと対象画像PAbとが、ともに第2顕微鏡によって第2観察条件において撮像されてもよい。
以上に説明したように、本実施形態に係る学習装置(この一例において、学習部1b)では、類似画像PRbと対象画像PAbとでは、撮像方法(この一例において、第1顕微鏡である光学顕微鏡M1aによる第1観察条件における撮像、または第2顕微鏡である電子顕微鏡M2による第2観察条件による撮像)が互いに異なる。
この構成により、本実施形態に係る学習装置(この一例において、学習部1b)では、類似画像PRbの撮像方法として対象画像PAbの撮像方法に比べて効率的な撮像方法を用いることができるため、類似画像PRbと対象画像PAbとで撮像方法が共通である場合に比べて効率よく類似画像PRを得ることができる。
類似画像PRbとして、例えば、対象画像が撮像された撮像方法とは異なる撮像方法によって撮像された画像を用いる場合、例えば、第1の撮像方法によって撮像された画像のセグメンテーションに第2の撮像方法によって撮像された画像を用い、第2の撮像方法によって撮像された画像のセグメンテーションに第1の撮像方法によって撮像された画像を用いてもよいため、セグメンテーションの効率化が可能となる。
(第4の実施形態)
以下、図面を参照しながら本発明の第4の実施形態について詳しく説明する。
上記第3の実施形態では、画像処理システムが、脳組織細胞核が異なる撮像方法によって撮像された画像のうち、一方が対象画像として用いられ、他方が類似画像として用いられる場合の別の一例について説明する。第4の実施形態では、光学顕微鏡によって撮像された脳組織細胞核の画像が対象画像として用いられ、電子顕微鏡によって撮像された脳組織細胞核の画像が類似画像として用いられる。
本実施形態に係る画像処理システムを画像処理システムSTcといい、画像処理装置を画像処理装置T1cという。
図17は、本実施形態に係る画像処理システムSTcの一例を示す図である。画像処理システムSTcは、一例として、電子顕微鏡M2と、光学顕微鏡M1aと、電子顕微鏡画像データベースDB2cと、DAPI画像データベースDB1cと、明視野画像データベースDB3cと、画像処理装置T1cとを備える。
本実施形態に係る画像処理システムSTc(図17)と第3の実施形態に係る画像処理システムSTb(図16)とを比較すると、DAPI画像データベースDB1c、明視野画像データベースDB3c、電子顕微鏡画像データベースDB2c、及び画像処理装置T1cが異なる。ここで、他の構成要素(光学顕微鏡M1a、電子顕微鏡M2)が持つ機能は第3の実施形態と同じである。第3の実施形態と同じ機能の説明は省略し、第4の実施形態では、第3の実施形態と異なる部分を中心に説明する。
画像処理システムSTcでは、光学顕微鏡M1aは、脳組織細胞核A2を、明視野観察によって観察し、また、DAPIによって染色された脳組織細胞核A2を蛍光観察によって観察する。明視野観察によって観察される脳組織細胞核A2は、光学顕微鏡M1aによって撮像され、対象画像PAcとして明視野画像データベースDB3bに蓄積される。一方、蛍光観察によって観察される脳組織細胞核A2は、光学顕微鏡M1aによって撮像され、核正解画像PT1cとしてDAPI画像データベースDB1bに蓄積される。
画像処理システムSTbでは、電子顕微鏡M2によって脳組織細胞核A2が撮像される。電子顕微鏡M2によって撮像された脳組織細胞核A2の画像は、類似画像元画像PMcとして電子顕微鏡画像データベースDB2cに蓄積される。
核正解画像PT2cは、電子顕微鏡画像データベースDB2cに蓄積される脳組織細胞核A2の画像に基づいて作成される。ここで核正解画像PT2cは、脳組織細胞核A2の画像において脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。作成された核正解画像PT2cは、電子顕微鏡画像データベースDB2cに蓄積され、類似画像PRcとして画像処理装置T1cに供給される。
学習部1cは、類似画像PR1cを用いて脳組織細胞核A2の特徴量を学習する。画像処理システムSTcでは、光学顕微鏡M1aによって撮像された脳組織細胞核A2と形状が類似した類似物体の一例として、電子顕微鏡M2によって撮像された脳組織細胞核A2が採用される。
学習部1cの学習処理と、第2の実施形態の学習部1aの学習処理とでは、第2部位の細胞核が異なる。学習部1cの学習処理では、第2部位の細胞核とは脳組織細胞核A2である。その他において学習部1cの学習処理と、第2の実施形態の学習部1aの学習処理とは同様である。
本実施形態では、類似画像PRcは、第2顕微鏡である電子顕微鏡M2によって第2観察条件において撮像されて生成され、対象画像PAcは、第1顕微鏡である光学顕微鏡M1aによって第1観察条件において撮像されて生成される。つまり、本実施形態では、類似画像PRcと対象画像PAcとでは、撮像方法が互いに異なる。
なお、上述した第3の実施形態、及び第4の実施形態では、蛍光観察が光学顕微鏡によって行われる場合の一例について説明したが、これに限らない。第3の実施形態、及び第4の実施形態において、蛍光観察は、共焦点顕微鏡や超解像顕微鏡などによって行われてもよい。
(変形例)
なお、上述した各実施形態においては、対象物体が粒状の形状をもつ細胞核であり、類似度がHuモーメントの間のL1距離として算出される場合の一例について説明したが、これに限らない。図18を参照し、対象物体や類似度の他の例について説明する。
図18は、実施形態の変形例に係る対象物体と類似度との対応の一例を示す図である。対象物体が細胞核、ミトコンドリア、ニューロベクシルなどである場合、対象物体の形状は粒状である。対象物体の形状が粒状である物体である場合、類似度は、上述した各実施形態のように、対象物体の画像、及び対象物体の画像それぞれのHuモーメントの間のL1距離として算出される。
一方、対象物体が神経突起、血管、細胞膜(または細胞質)、フィラメントなどである場合、対象物体の形状は細長い形状である。対象物体の形状は細長い形状である場合、類似度は、例えば、血管様画像の画像セット間距離として算出される。
ここで図19及び図20を参照し、血管様画像の画像セット間距離について説明する。図19は、実施形態の変形例に係る血管様画像の画像セット間距離の算出処理の一例を示す図である。図20は、実施形態の変形例に係る血管画像及び血管様画像の一例を示す図である。
図19に示す算出処理は、例えば、画像処理装置T1、T1a、T1b、T1cの類似度算出部12によって実行される。図19に示す算出処理の例では、画像セットAと、画像セットBとについて画像セット間距離が算出される。画像セットAは、例えば、複数の対象画像であり、画像セットBは、例えば、複数の類似画像である。複数の対象画像である画像セットAにおいて対象物体とは、例えば、血管であり、複数の類似画像である画像セットBにおいて類似物体とは、例えば、神経突起である。
ステップS400:類似度算出部12は、画像セットAを取得する。図20の血管画像PV1は、画像セットAに含まれる画像の一例であり、血管が撮像されている。
ステップS410:類似度算出部12は、取得した画像セットAに血管抽出フィルタを適用する。血管抽出フィルタとは、血管の形状の特徴を抽出するためのフィルタである。血管の形状の特徴には、細長いという特徴が含まれる。
ステップS420:類似度算出部12は、画像セットAに血管抽出フィルタを適用した結果として、血管様画像VAを生成する。図20の血管様画像PV2は、血管画像PV1に血管抽出フィルタが適用されて生成された、血管様画像VAの一例である。
ステップS430:類似度算出部12は、血管様画像VAに対してヒストグラム抽出の処理を実行する。
ステップS440:類似度算出部12は、画像セットBを取得する。
ステップS450:類似度算出部12は、取得した画像セットBに血管抽出フィルタを適用する。
ステップS460:類似度算出部12は、画像セットBに血管抽出フィルタを適用した結果として、血管様画像VBを生成する。
ステップS470:類似度算出部12は、血管様画像VBに対してヒストグラム抽出の処理を実行する。
ステップS480:類似度算出部12は、血管様画像VAと血管様画像VBとのヒストグラム間距離を類似度として算出する。ここでヒストグラム間距離は、一例として、L1距離である。
なお、上述した各実施形態においては、学習部1、1a、1b、1c、及び判定部2がそれぞれ画像処理装置T1、T1a、T1b、T1cに備えられる場合の一例について説明したが、これに限らない。学習部1、1a、1b、1c、及び判定部2は、それぞれ学習装置、及び判定装置として、画像処理システムST、STa、STb、STcのそれぞれにおいて別体の装置として備えられてもよい。
上述した各実施形態においては、画像処理システムST、STa、STb、STcのそれぞれにおいて、画像処理装置T1、T1a、T1b、T1cが、光学顕微鏡M1、M1aや電子顕微鏡M2などの顕微鏡とは別体として備えられる場合の一例について説明した。つまり、各実施形態においては、学習装置や判定装置が顕微鏡とは別体として備えられる場合の一例について説明したが、これに限らない。学習装置や判定装置は、顕微鏡と一体となって備えられてもよい。つまり、画像処理システムSTにおいて、顕微鏡は、上述した学習装置を備えてもよい。また、画像処理システムSTにおいて、顕微鏡は、上述した判定装置を備えてもよい。また、画像処理システムSTにおいて、顕微鏡は、上述した学習装置と、上述した判定装置とを備えてもよい。
なお、上述した実施形態における画像処理装置T1、T1a、T1b、T1cの一部、例えば、学習部1、1a、1b、1c、及び判定部2をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、画像処理装置T1、T1a、T1b、T1cに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における画像処理装置T1、T1a、T1b、T1cの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。画像処理装置T1、T1a、T1b、T1cの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
T1、T1a、T1b、T1c…画像処理装置、1、1a、1b、1c…学習部、2…判定部、130…類似画像学習部、132…対象画像学習部、PR…類似画像、PA…対象画像、PT…正解画像、LD…教師データ

Claims (12)

  1. 対象物体が撮像された対象画像において、前記対象物体の領域を判定するために用いられるニューラルネットワークの学習装置であって、
    前記対象物体と外観が類似した物体である類似物体についての画像である類似画像に基づいて、畳み込みオートエンコーダに対する第1の学習を実行する類似画像学習部と、
    前記対象画像と、前記対象画像において前記対象物体が示された画像である正解画像との組である教師データと、前記類似画像学習部による前記第1の学習の結果とに基づいて前記ニューラルネットワークに対する第2の学習を実行する対象画像学習部と、
    を備え、
    前記対象画像学習部は、前記対象画像を入力とした場合の前記ニューラルネットワークの出力である予測画像を、前記第1の学習の結果に基づく第1の損失算出部に入力することで算出される第1の損失に基づく損失と、前記教師データと、に基づいて前記第2の学習を実行する
    学習装置。
  2. 前記対象画像学習部は、前記第1の損失と、前記予測画像と前記正解画像とにより算出した第2の損失と、に基づいて前記第2の学習を実行する
    請求項1に記載の学習装置。
  3. 前記対象画像学習部は、前記第1の損失と、前記第2の損失と、前記対象画像を用いて算出された第3の損失と、に基づいて前記第2の学習を実行する
    請求項2に記載の学習装置。
  4. 前記類似画像から前記類似物体を抽出する類似物体抽出部をさらに備え、
    前記類似画像学習部は、前記類似画像として、前記類似物体抽出部によって抽出された前記類似物体が示された画像を用いて前記第1の学習を実行する
    請求項1から請求項3のいずれか一項に記載の学習装置。
  5. 前記類似物体は、前記対象物体に対する外観の類似の程度を示す値が所定の値以上である
    請求項1から請求項4のいずれか一項に記載の学習装置。
  6. 前記類似画像と前記対象画像とでは、撮像方法が互いに異なる
    請求項1から請求項5のいずれか一項に記載の学習装置。
  7. 請求項1から請求項6のいずれか一項に記載の学習装置による学習結果に基づいて前記対象画像において前記対象物体を判定する判定部を備える
    判定装置。
  8. 請求項1から請求項6のいずれか一項に記載の学習装置を備える顕微鏡。
  9. 請求項7に記載の判定装置を備える顕微鏡。
  10. 請求項1から請求項6のいずれか一項に記載の学習装置と、
    前記学習装置による学習結果に基づいて前記対象画像において前記対象物体を判定する判定部を備える判定装置と
    を備える顕微鏡。
  11. 対象物体が撮像された対象画像において、前記対象物体の領域を判定するために用いられるニューラルネットワークの学習のためのプログラムであって、
    コンピュータに、
    前記対象物体と外観が類似した物体である類似物体についての画像である類似画像に基づいて、畳み込みオートエンコーダに対する第1の学習を実行する類似画像学習ステップと、
    前記対象画像と、前記対象画像において前記対象物体が示された画像である正解画像との組である教師データと、前記類似画像学習ステップによる前記第1の学習の結果とに基づいて前記ニューラルネットワークに対する第2の学習を実行する対象画像学習ステップと
    を実行させ、
    前記対象画像学習ステップにおいて、前記対象画像を入力とした場合の前記ニューラルネットワークの出力である予測画像を、前記第1の学習の結果に基づく第1の損失算出部に入力することで算出される第1の損失に基づく損失と、前記教師データと、に基づいて前記第2の学習を実行させるためのプログラム。
  12. コンピュータに、
    請求項11に記載のプログラムによる学習結果に基づいて前記対象画像において前記対象物体を判定する判定ステップ
    を実行させるためのプログラム。
JP2019133641A 2019-07-19 2019-07-19 学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラム Active JP7477269B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019133641A JP7477269B2 (ja) 2019-07-19 2019-07-19 学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019133641A JP7477269B2 (ja) 2019-07-19 2019-07-19 学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021018582A JP2021018582A (ja) 2021-02-15
JP7477269B2 true JP7477269B2 (ja) 2024-05-01

Family

ID=74566152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019133641A Active JP7477269B2 (ja) 2019-07-19 2019-07-19 学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラム

Country Status (1)

Country Link
JP (1) JP7477269B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145791A (ja) 2010-01-13 2011-07-28 Hitachi Ltd 識別器学習画像生成プログラム、方法、及びシステム
US20160035093A1 (en) 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition
WO2017221412A1 (ja) 2016-06-24 2017-12-28 オリンパス株式会社 画像処理装置、学習装置、画像処理方法、識別基準の作成方法、学習方法およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10740651B2 (en) * 2016-10-27 2020-08-11 General Electric Company Methods of systems of generating virtual multi-dimensional models using image analysis
US11270433B2 (en) * 2017-06-09 2022-03-08 Ai Medical Service Inc. Disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145791A (ja) 2010-01-13 2011-07-28 Hitachi Ltd 識別器学習画像生成プログラム、方法、及びシステム
US20160035093A1 (en) 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition
WO2017221412A1 (ja) 2016-06-24 2017-12-28 オリンパス株式会社 画像処理装置、学習装置、画像処理方法、識別基準の作成方法、学習方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
野里 博和、他6名,胃内視鏡診断の知識を転移させた深層畳み込みニューラルネットワークによる膀胱内視鏡診断支援,電子情報通信学会技術研究報告 ,日本,一般社団法人電子情報通信学会,2018年10月30日,第118巻, 第286号,第83-88頁,ISSN 2432-6380

Also Published As

Publication number Publication date
JP2021018582A (ja) 2021-02-15

Similar Documents

Publication Publication Date Title
Lösel et al. Introducing Biomedisa as an open-source online platform for biomedical image segmentation
Johnson Adapting mask-rcnn for automatic nucleus segmentation
Yasrab et al. RootNav 2.0: Deep learning for automatic navigation of complex plant root architectures
Wickramasinghe et al. Voxel2mesh: 3d mesh model generation from volumetric data
Peng et al. Automatic reconstruction of 3D neuron structures using a graph-augmented deformable model
CN109409416A (zh) 特征向量降维方法和医学图像识别方法、装置及存储介质
CN110097130A (zh) 分类任务模型的训练方法、装置、设备及存储介质
Kromp et al. Evaluation of deep learning architectures for complex immunofluorescence nuclear image segmentation
Wen et al. A novel statistical cerebrovascular segmentation algorithm with particle swarm optimization
CN107169974A (zh) 一种基于多监督全卷积神经网络的图像分割方法
Dalca et al. Patch-based discrete registration of clinical brain images
WO2014172527A1 (en) Systems and methods for multiplexed biomarker quantitation using single cell segmentation on sequentially stained tissue
Wang Segmentation of multiple structures in chest radiographs using multi-task fully convolutional networks
CN104680558B (zh) 使用GPU硬件加速的Struck目标跟踪方法
Triki et al. Deep leaf: Mask R-CNN based leaf detection and segmentation from digitized herbarium specimen images
WO2021032062A1 (zh) 图像处理模型生成方法、图像处理方法、装置及电子设备
CN113096137B (zh) 一种oct视网膜图像领域适应分割方法及系统
Wyburd et al. TEDS-Net: enforcing diffeomorphisms in spatial transformers to guarantee topology preservation in segmentations
CN110570394A (zh) 医学图像分割方法、装置、设备及存储介质
Van Molle et al. Quantifying uncertainty of deep neural networks in skin lesion classification
CN115294086A (zh) 医学影像分割方法、分割模型训练方法、介质及电子设备
CN113158970B (zh) 一种基于快慢双流图卷积神经网络的动作识别方法与系统
Wesemeyer et al. Annotation quality vs. quantity for deep-learned medical image segmentation
Wang et al. Fast anatomy segmentation by combining coarse scale multi-atlas label fusion with fine scale corrective learning
Rama et al. Image pre-processing: enhance the performance of medical image classification using various data augmentation technique

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190815

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240418

R150 Certificate of patent or registration of utility model

Ref document number: 7477269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150