JP7446570B2 - プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置 - Google Patents

プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置 Download PDF

Info

Publication number
JP7446570B2
JP7446570B2 JP2019121528A JP2019121528A JP7446570B2 JP 7446570 B2 JP7446570 B2 JP 7446570B2 JP 2019121528 A JP2019121528 A JP 2019121528A JP 2019121528 A JP2019121528 A JP 2019121528A JP 7446570 B2 JP7446570 B2 JP 7446570B2
Authority
JP
Japan
Prior art keywords
scintigram
scintigrams
neural network
subject
anatomical structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019121528A
Other languages
English (en)
Other versions
JP2021009026A (ja
Inventor
昭伸 清水
篤 斎藤
巧 金森
和宏 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon Medi Physics Co Ltd
Tokyo University of Agriculture and Technology NUC
Original Assignee
Nihon Medi Physics Co Ltd
Tokyo University of Agriculture and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon Medi Physics Co Ltd, Tokyo University of Agriculture and Technology NUC filed Critical Nihon Medi Physics Co Ltd
Priority to JP2019121528A priority Critical patent/JP7446570B2/ja
Publication of JP2021009026A publication Critical patent/JP2021009026A/ja
Application granted granted Critical
Publication of JP7446570B2 publication Critical patent/JP7446570B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Nuclear Medicine (AREA)
  • Image Analysis (AREA)

Description

本発明は、被験者の骨シンチグラムの画像において解剖構造を認識する技術に関する。
がんの造骨性転移の診断には、骨シンチグラムが良く用いられる。がんの転移は画像上では高集積として現れるが、関節炎など、がん以外の生理集積との区別が必要であったり、部位によってがんの発生頻度が異なるため、事前に解剖構造を把握することが重要である。
特開2014-9945号公報
骨シンチグラム上の解剖構造認識処理の方法については、先行する研究が発表されているが、さらなる改良が求められていた。本発明は、上記背景に鑑み、新しい画像処理装置を提供することを目的とする。
本発明のプログラムは、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する骨格セグメンテーションを行うためのプログラムであって、コンピュータに、被験者のシンチグラムを入力するステップと、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして予め学習によって生成されたニューラルネットワークの学習済みモデルを記憶した記憶部から、前記学習済みモデルを読み出し、前記学習済みモデルに前記被験者のシンチグラムを入力し、前記被験者のシンチグラムの中で前記解剖構造ラベルに対応する領域を推論するステップと、前記被験者のシンチグラムの前記解剖構造ラベルを示すデータを出力するステップとを実行させる。
本発明によれば、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして予め学習によって生成されたニューラルネットワークの学習済みモデルを用いて、被験者のシンチグラムの解剖構造ラベルを求めることができる。
実施の形態の学習装置の構成を示す図である。 前方画像と反転を行った後方画像の例を示す図である。 本実施の形態で用いるButterfly-Netの例を示す図である。 実施の形態の骨格セグメンテーション装置の構成を示す図である。 実施の形態の学習装置の動作を示す図である。 実施の形態の骨格セグメンテーション装置の動作を示す図である。 実施の形態の学習装置、骨格セグメンテーション装置のハードウェアを示す図である。 骨格セグメンテーションの結果を示す図である。 骨格の各部位のDiceスコアを並べて記載した表である。 すべてのテストケースのDiceスコアを示す図である。
本実施の形態のプログラムは、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する骨格セグメンテーションを行うためのプログラムであって、コンピュータに、被験者のシンチグラムを入力するステップと、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして予め学習によって生成されたニューラルネットワークの学習済みモデルを記憶した記憶部から、学習済みモデルを読み出し、学習済みモデルに被験者のシンチグラムを入力し、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するステップと、被験者のシンチグラムの解剖構造ラベルを示すデータを出力するステップとを実行させる。
この構成により、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして予め学習によって生成されたニューラルネットワークの学習済みモデルを用いて、被験者のシンチグラムの解剖構造ラベルを求めることができる。ここで、「参照シンチグラム」とは、学習済みモデルを生成するために用いられるシンチグラムである。参照シンチグラムも被験者を撮影することによって得られるシンチグラムであるが、解剖構造ラベルを求める対象である被験者のシンチグラムと区別するために、便宜上、「参照」の文言を付したものである。
本実施の形態のプログラムは、被験者のシンチグラムを入力する前記ステップにおいて、被験者を前方および後方から撮影した一組のシンチグラムを入力し、前記解剖構造ラベルに対応する領域を推論する前記ステップにおいて、前記学習済みモデルの入力層に前記一組のシンチグラムを入力し、前記一組のシンチグラムの中で前記解剖構造ラベルに対応する領域を推論してもよい。
本実施の形態のプログラムは、前記一組のシンチグラムのうち、前方から撮影した前記シンチグラムと、後方から撮影した前記シンチグラムのうちの一方を水平方向に反転するステップを更に含み、その後に、前記解剖構造ラベルに対応する領域を推論する前記ステップを実行してもよい。
この構成により、前後から撮影した2枚のシンチグラムを学習済みモデルの入力層に入力して推論を行うことにより、シンチグラムの解剖構造ラベルを適切に付与することができる。この際に、2枚のシンチグラムのうちの一方を反転させて同じ向きとしたうえで推論を行うことにより、2枚のシンチグラムの左右の向きが合うので、精度の高い推論を行える。
本実施の形態の学習装置は、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを生成する学習装置であって、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力する入力部と、前記参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、ニューラルネットワークモデルの学習を行う学習部とを備える。
この構成により、被験者のシンチグラムとその解剖構造ラベルの正解データとを教師データとして、被験者のシンチグラムの解剖構造ラベルを求めるためのニューラルネットワークのモデルを生成することができる。
本実施の形態の学習装置において、ニューラルネットワークは、Encoder-Decoder構造を有し、Encoder構造で得た特徴マップをDecoder構造に入力する構造の第1のネットワーク部分と、第1のネットワーク部分と同じ構造を有する第2のネットワーク部分とが結合された構造を有し、入力部は、各被験者を前後から撮影した参照シンチグラム及びその解剖構造ラベルの正解データを入力し、学習部は、第1のネットワーク部分の入力層に被験者を前方から撮影した参照シンチグラムを入力すると共に、第2のネットワーク部分の入力層に被験者を後方から撮影した参照シンチグラムを入力して学習を行ってもよい。
前方から撮影したシンチグラムと後方から撮影したシンチグラムを独立して処理するのではなく、Encoder-Decoder構造を有する2つのネットワーク部分を結合した構造のニューラルネットワークで同時に処理することにより、被験者のシンチグラムの解剖構造ラベルを精度良く求めるためのニューラルネットワークのモデルを生成することができる。
本実施の形態の学習装置において、学習部は、Decoder構造を構成する層から出力される特徴マップと正解データとの誤差にも基づいて、ニューラルネットワークモデルの学習を行ってもよい。この構成により、学習時の勾配消失の問題を軽減し、生成されるニューラルネットワークのモデルの解剖構造ラベル付与の性能を高めることができる。
本実施の形態の学習装置は、入力部にて入力されたシンチグラムの濃度Iinを次式(1)
Figure 0007446570000001
によって正規化した濃度Inormalizedに変換する濃度正規化部を備えてもよい。
本実施の形態のプログラムは、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを生成するためのプログラムであって、コンピュータに、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力するステップと、参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、ニューラルネットワークモデルの学習を行うステップとを実行させる。
本実施の形態の学習方法は、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを学習によって生成する学習方法であって、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを学習によって生成する学習方法であって、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力するステップと、参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、ニューラルネットワークモデルの学習を行うステップとを備える。
本実施の形態の学習済みモデルは、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与するためのニューラルネットワークモデルを生成するために、コンピュータを機能させるための学習済みモデルであって、複数の参照シンチグラムと、各参照シンチグラムに付与した解剖構造ラベルの正解データとを教師データとして学習されたものであり、前記ニューラルネットワークモデルに入力された被験者のシンチグラムに解剖構造ラベルを付与するよう、コンピュータを機能させる。
また、本実施の形態の学習済みモデルは、Encoder-Decoder構造を有し、Encoder構造で得た特徴マップをDecoder構造に入力する構造の第1のネットワーク部分と、第1のネットワーク部分と同じ構造を有する第2のネットワーク部分とが結合された構造を有するニューラルネットワークモデルで構成され、複数の被験者を前方および後方から撮影した参照シンチグラムと、各参照シンチグラムに付与した解剖構造ラベルの正解データとを教師データとし、前方から撮影したシンチグラムまたは後方から撮影したシンチグラムのいずれかを水平方向に反転させた後に、前方および後方から撮影した参照シンチグラムのそれぞれを、ニューラルネットワークモデルの第1のネットワーク部分および第2のネットワーク部分のそれぞれにある入力層に入力して学習されたものであってもよい。
本実施の形態の骨格セグメンテーション装置は、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する骨格セグメンテーションを行うための装置であって、被験者のシンチグラムを入力する入力部と、上記した学習装置にて生成されたニューラルネットワークの学習済みモデルを記憶した記憶部と、記憶部から学習済みモデルを読み出し、学習済みモデルに被験者のシンチグラムを入力し、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論する推論部と、被験者のシンチグラムの解剖構造ラベルを示すデータを出力する出力部とを備える。
以下、本実施の形態の学習装置および骨格セグメンテーション装置について図面を参照して説明する。
図1は、実施の形態の学習装置の構成を示す図である。実施の形態の学習装置1は、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与するためのニューラルネットワークモデルを学習によって生成する装置である。本実施の形態の学習装置1が生成するニューラルネットワークモデルは、被験者を前方および後方から撮影したシンチグラムに映る骨格の部位に解剖構造ラベルを付与する。本明細書において、被験者を前方から撮影した参照シンチグラムを「前方画像」、後方から撮影した参照シンチグラムを「後方画像」という。
ここで、本実施の形態の学習装置1によって生成されるニューラルネットワークモデルが付与する解剖構造ラベルについて述べる。前方画像については、骨格の12の部位(頭蓋骨、頸椎、胸椎、腰椎、仙骨、骨盤、肋骨、肩甲骨、上腕骨、大腿骨、胸骨および鎖骨)と背景からなる13層に分類し、それぞれに解剖構造ラベルを付与する。後方画像については、骨格の10の部位(頭蓋骨、頸椎、胸椎、腰椎、仙骨、骨盤、肋骨、肩甲骨、上腕骨、および大腿骨)と背景からなる12層に分類し、それぞれに解剖構造ラベルを付与する。なお、後方画像に関して、1つの層は肋骨と肩甲骨がオーバーラップしているので、10の骨格の部位と背景とで12層になっている。
学習装置1は、教師データを入力する入力部10と、教師データに基づいてニューラルネットワークモデルの学習を行う制御部11と、学習により生成されたモデルを記憶する記憶部17と、記憶部17に記憶されたモデルを外部に出力する出力部18とを有している。入力部10には、一組の前方画像および後方画像と、前方画像および後方画像に付与した解剖構造ラベルの正解データとを、教師データとして入力する。
次に、制御部11について説明する。制御部11は、画像反転部12と、前後画像位置合せ部13と、空間的標準化部14、濃度正規化処理部15と、学習部16とを有している。画像反転部12は、後方画像を水平方向に反転する。図2は、前方画像と反転を行った後方画像の例を示す図である。前後画像位置合せ部13は、前方画像と反転された後方画像の位置合せを行う。
空間的標準化部14は、被験者の体軸がシンチグラムの垂直軸と平行になるように画像の並進・回転を行う。また、空間的標準化部14は、被験者の頭頂部からつま先までの長さが2000mmとなるように画像の拡大・縮小を行う。これにより、画像の傾きや身長等のバラツキの影響を低減することができる。また、図2に示すように、前方画像および後方画像において、被験者の膝下をカットする空間的補正を行ってもよい。
濃度正規化処理部15は、被験者ごとに異なる正常骨領域の濃度値のばらつきを抑えるために、濃度値の正規化を行う機能を有する。濃度正規化処理部15は、濃度レンジ調整、正常骨レベルの同定、グレースケール正規化の処理により濃度値の正規化を行う。濃度正規化処理部15は、入力されたシンチグラムの濃度Iinを次式(1)によって正規化した濃度Inormalizedに変換する。
Figure 0007446570000002
学習部16は、前方画像と反転された後方画像とを用いて、被験者のシンチグラムに骨格の解剖構造ラベルを付与するためのニューラルネットワークモデルの学習を行う機能を有する。本実施の形態では、ニューラルネットワークモデルとして、Butterfly-Netを用いる。
図3は、本実施の形態で用いるButterfly-Netの例を示す図である。Butterfly-Netの基本的な構造は、Encoder-Decoder構造である。Encoder-Decoder構造では、入力層に入力された画像に対して、Encoder構造で畳み込みとプーリングが繰り返し行われ、画像の大局的な特徴を抽出する。続いて、Decoder構造によって、大局的な構造を元のサイズの画像に戻していくが、その過程において、Encodeの過程で得られた特徴を結合することにより、局所的な特徴も学習する。
Butterfly-Netは、2つの入力層と2つの出力層を有している。Butterfly-Netは、2つの入力層In1,In2から入力される画像をEncoder-Decoder構造に通して2つの出力層Out1,Out2から出力する。ここで、説明の便宜上、図3の上側にある第1の入力層In1と第1の出力層Out1とを持つEncoder-Decoder構造を第1のネットワーク部分、図3の下側にある第2の入力層In2と第2の出力層Out2とを持つEncoder-Decoder構造を第2のネットワーク部分と呼ぶ。Butterfly-Netは、第1のネットワーク部分と第2のネットワーク部分とが結合された構成を有している。本実施の形態においては、32×72の128個ずつの特徴マップのところで結合されている。
本例において、入力画像はグレースケールであり、入力の次元は256×576×1である。Butterfly-Netでは、入力層に入力された画像に畳込み処理を行った後にMAXプーリング処理を行う。ここで行われる畳込み処理は、図3の下の枠内に示すように、3×3の畳込み、バッチノーマライゼーション、ReLU関数への適用の処理からなる。畳込み処理とMAXプーリング処理を、第1の入力層In1、第2の入力層In2に入力された画像のそれぞれについて繰り返し行い、32×72×128のサイズの特徴マップを得る。第1のネットワーク部分と第2のネットワーク部分とを結合し、さらに、畳込み処理とMAXプーリング処理を2回行って、Encoder構造では、最終的に2×2×512のサイズの特徴マップを得る。
続いて、畳込みを行った後に逆畳込みを行って、特徴マップのサイズを倍にする。そして、逆畳込みの出力とEncoderの特徴マップを連結(concat)し、畳込みを行う。さらに、畳込み、逆畳込み、Encoderの特徴マップとの連結の処理を行った後、その結果を複製し、上下のEncoderのそれぞれの特徴マップを連結し、畳込み、逆畳込みを行う処理を繰り返す。最後に、1×1の畳込み層で、前方画像については出力クラス数である13チャンネルにし、後方画像については出力クラス数である12チャンネルにする。
なお、本実施の形態では、学習済みモデルとして、Butterfly-Netを用いる例を挙げたが、解剖構造ラベルの推論を行うための学習済みモデルとしては、Butterfly-Net以外のニューラルネットワークモデルを用いることもできる。前方画像と後方画像と同時に処理する場合には、Butterfly-Netのように2つの入力層を有し、畳み込みの結果を結合するネットワーク構造が有効である。前方画像または後方画像の一方を用いる場合には、例えば、U-Netを用いることも可能である。
学習部16は、対になる前方画像および後方画像とその解剖構造ラベルの正解データを用いて、上記したButterfly-Netのニューラルネットワークモデルの学習を行う。対になる前方画像および後方画像をニューラルネットワークモデルに入力したときの出力をソフトマックス関数で変換した確率pと正解ラベルとの誤差(損失関数)を評価することで学習を行う。
本実施の形態の学習装置1は、ニューラルネットワークモデルのDecoder構造において、出力層に至る過程(図3において●で示す箇所)で得られる特徴マップと正解ラベルとの誤差も評価して学習を行う。これは、DSVと呼ばれる手法であり、Dou Q, Yu L, Chen Hら「3D Deeply Supervised Network for Automated Segmentation of Volumetric Medical Images」Medical Image Analysis, 41(10):40-54に記載されている。なお、出力層に至る過程で得られる特徴マップのサイズは正解ラベルのサイズとは異なるので、特徴マップに逆畳み込みを行うことで、正解ラベルとサイズを合わせて評価を行う。
学習部16が学習に用いる損失関数を次に示す。
Figure 0007446570000003
ここで、nとcは画素とクラス(骨転移領域、非悪性病変領域、その他)の値であり、NとCは画素とクラスの総数である。さらに、pcnは、ネットワークの出力ycnのソフトマックスであり、tcnは、対象組織の画素値を1、そうでないときに0を示す真のラベルを示す。最後に、εは0で除算することを防止する微小値である。
図4は、実施の形態の骨格セグメンテーション装置2の構成を示す図である。骨格セグメンテーション装置2は、被験者のシンチグラムを入力する入力部20と、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する制御部21と、上述した学習装置1によって学習した学習済みモデルを記憶した記憶部27と、解剖構造ラベルのデータを出力する出力部28とを有している。
制御部21は、画像反転部22と、前後画像位置合せ部23と、空間的標準化部24と、濃度正規化処理部25と、推論部26とを有している。画像反転部22、前後画像位置合せ部23、空間的標準化部24及び濃度正規化処理部25は、学習装置1が備える画像反転部12、前後画像位置合せ部13、空間的標準化部14及び濃度正規化処理部15と同じである。
推論部26は、学習済みモデル記憶部27から学習済みモデルを読み出し、学習済みモデルの入力層に一組の前方画像および後方画像を入力し、前方画像および後方画像のそれぞれの領域の解剖構造ラベルを推論する。
図5は、学習装置1の動作を示す図である。学習装置1は、教師データとして、複数の被験者の参照シンチグラム(前方画像および後方画像)とそれに対応する解剖構造ラベルの正解データを入力する(S10)。学習装置1は、後方画像を反転させ(S11)、前方画像と反転された後方画像との位置合わせを行う(S12)。次に、学習装置1は、入力された前方画像および後方画像の空間的標準化(S13)と濃度正規化(S14)とを行う。
続いて、学習装置1は、一組の前方画像および後方画像とそれに対応する解剖構造ラベルの正解データを用いて、ニューラルネットワークモデルの学習を行う(S15)。上述したとおり、ここでの学習では、一組の前方画像および後方画像をButterfly-Netの入力層に入力し、出力層からの出力と正解データとに基づいて学習を行う。学習装置1は、学習によって得られたニューラルネットワークモデルを記憶部17に記憶する(S16)。なお、学習済みのモデルを骨格セグメンテーション装置2で用いる場合には、記憶部17に記憶された学習モデルを読み出して、他の装置等に出力する。
図6は、骨格セグメンテーション装置2の動作を示す図である。骨格セグメンテーション装置2は、被験者を前後から撮影したシンチグラム(前方画像及び後方画像)を入力する(S20)。骨格セグメンテーション装置2は、後方画像を反転させ(S21)、前方画像と反転された後方画像との位置合わせを行う(S22)。次に、骨格セグメンテーション装置2は、入力された前方画像および後方画像の空間的標準化(S23)と濃度正規化(S24)とを行う。
続いて、骨格セグメンテーション装置2は、学習済みモデルの2つの入力層に、被験者の前方画像および後方画像を入力し、前方画像および後方画像の解剖構造ラベルを推論し(S25)、推論によって得られた解剖構造ラベルのデータを出力する(S26)。
実施の形態の学習装置1は、学習モデルとしてButterfly-Netのニューラルネットワークモデルを用い、その入力層に一組の前方画像および後方画像を入力して学習を行う構成としたので、相関の高いシンチグラムを同時に処理することにより、精度良く骨格セグメンテーションを行えるニューラルネットワークのモデルを生成することができる。
図7は、本実施の形態の学習装置1および骨格セグメンテーション装置2のハードウェアの構成を示す図である。学習装置1、骨格セグメンテーション装置2は、CPU30、RAM31、ROM32、ハードディスク33、ディスプレイ34、キーボード35、マウス36、通信インターフェース37等を備えたコンピュータ3によって実現される。学習装置1と骨格セグメンテーション装置2は同じコンピュータで実現してもよいし、別個のコンピュータでもよい。学習済みモデル41を例えばハードディスク33に格納する。また、上記した各機能および各ステップを実現するモジュールを有するモデル学習用または骨格セグメンテーション用のプログラム40をROM32に格納し、CPU30によって当該プログラム40を実行することによって、上記した学習装置1および骨格セグメンテーション装置2が実現される。このようなモデル学習用または骨格セグメンテーション用のプログラム40も本発明の範囲に含まれる。
次に、本実施の形態の学習装置1を用いて生成した学習済みモデルを用いて、骨格セグメンテーションを行った実施例について説明する。学習済みモデルの生成方法には、DSVを導入したButterfly-Netと、DSVを導入しないButterfly-Netを用いた。また、比較例として、マルチアトラスを用いて骨格セグメンテーションを行った。マルチアトラスを用いた骨格セグメンテーションでは、訓練用データから、164個のアトラスのBスプラインベースの非剛性レジストレーションを採用した。この方法は、計算コストが高いので、前方画像のみ計算を行った。
(実験に用いた画像)
・骨シンチグラム濃度値正規化画像:246症例
訓練用データ:164症例
検証用データ:41症例
テストデータ:41症例
・画像サイズ:256×576[pixels]
(ネットワークの初期化と最適化)
・初期化:He K, Zhang X, Ren Sら「Deep Residual Learning for Image Recognition」 CVPR2016, 770-778にしたがって行った。
・最適化:適応モーメント推定(ADAM)を用いて損失関数の最小化を行った。(Kingma DP, Ba JL「ADAM: A method for stochastic optimization」 ICLR2015, arXiv:1412.6980v9)
・ADAMのパラメータ
α=0.001、β=0.9、γ=0.999、ε=10-8
ただし、αは1350回目の繰り返しで1/10に減少された。繰り返しの最大回数は1620に設定され、繰り返しの最適回数は、次式(4)のDiceスコアの平均が最大値に達したことによって決定した。なお、Diceスコアは、真の骨格の部位と骨格セグメンテーションの結果との類似度を評価するスコアであり、値が大きいほど類似度が高いことを示す。
Figure 0007446570000004
(実験結果)
図8は、骨格セグメンテーションの結果を示す図である。網掛けをした領域はセグメンテーションされた骨格を示し、白いラインは真の骨格の部位との境界を示している。図8の下部に示した数字は、骨格の各部位についてのDiceスコアである。図9は、図8の下部に示したDiceスコアを並べて記載した表であり、3つの手法のうち最も高いDiceスコアを太字で示している。図8及び図9に示すように、Butterfly-NetまたはDSVを導入したButterfly-Netを使って生成された学習済みモデルでセグメンテーションされた解剖構造ラベルはDiceスコアが高く、適切にセグメンテーションを行なえた。
図10は、すべてのテストケースのDiceスコアを示す図である。上段は、前方画像において、骨格の各部位についてのDiceスコアの分布を示し、左から順に、マルチアトラス(比較例)、Butterfly-Net、Butterfly-Net with DSVで求めた結果を示している。下段は、後方画像において、各骨格についてのDiceスコアの分布を示し、左から順に、Butterfly-Net、Butterfly-Net with DSVで求めた結果を示している。上段、下段のいずれについても、表内に記載した数字は、Diceスコアの中央値を示している。統計的検定は、「2つの方法の間のパフォーマンスに差がない」という帰無仮説を用いて、ウィルコクソンの符号順位検定を用いて行った。図10の上段に示すように、Butterfly-NetまたはButterfly-Net with DSVのモデルを用いた推論によって、マルチアトラスよりも精度の良い骨格セグメンテーションができた。
本発明は、被験者の骨シンチグラムの画像処理を行う装置として有用である。
1 学習装置
2 骨格セグメンテーション装置
3 コンピュータ
10 入力部
11 制御部
12 画像反転部
13 前後画像位置合せ部
14 空間的標準化部
15 濃度正規化部
16 学習部
17 記憶部
18 出力部
20 入力部
21 制御部
22 画像反転部
23 前後画像位置合せ部
24 空間的標準化部
25 濃度正規化部
26 推論部
27 学習済みモデル記憶部
28 出力部
30 CPU
31 RAM
32 ROM
33 ハードディスク
34 ディスプレイ
35 キーボード
36 マウス
37 通信インターフェース

Claims (9)

  1. 被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する骨格セグメンテーションを行うためのプログラムであって、コンピュータに、
    被験者を前方および後方から撮影した一組のシンチグラムを入力するステップと、
    前記一組のシンチグラムのうち、前方から撮影した前記シンチグラムと、後方から撮影した前記シンチグラムのうちの一方を体軸に対して反転するステップを更に含み、
    反転するステップの後に、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして予め学習によって生成されたニューラルネットワークの学習済みモデルを記憶した記憶部から、前記学習済みモデルを読み出し、前記学習済みモデルに前記一組のシンチグラムを入力し、前記一組のシンチグラムの中で前記解剖構造ラベルに対応する領域を推論するステップと、
    前記被験者のシンチグラムの前記解剖構造ラベルを示すデータを出力するステップと、
    を実行させるプログラム。
  2. 被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを生成する学習装置であって、
    被験者を前方および後方から撮影した一組のシンチグラムである複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力する入力部と、
    前記複数の参照シンチグラムについて、前記一組のシンチグラムのうち、前方から撮影した前記シンチグラムと、後方から撮影した前記シンチグラムのうちの一方を体軸に対して反転し、反転処理を行った前記参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、前記ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、前記ニューラルネットワークモデルの学習を行う学習部と、
    を備える学習装置。
  3. 前記ニューラルネットワークは、Encoder-Decoder構造を有し、Encoder構造で得た特徴マップをDecoder構造に入力する構造の第1のネットワーク部分と、前記第1のネットワーク部分と同じ構造を有する第2のネットワーク部分とが結合された構造を有する請求項2に記載の学習装置。
  4. 前記学習部は、Decoder構造を構成する層から出力される特徴マップと前記正解データとの誤差にも基づいて、前記ニューラルネットワークモデルの学習を行う請求項3に記載の学習装置。
  5. 被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを生成するためのプログラムであって、コンピュータに、
    被験者を前方および後方から撮影した一組のシンチグラムである複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力するステップと、
    前記複数の参照シンチグラムについて、前記一組のシンチグラムのうち、前方から撮影した前記シンチグラムと、後方から撮影した前記シンチグラムのうちの一方を体軸に対して反転するステップと、
    反転処理が行われた前記参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、前記ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、前記ニューラルネットワークモデルの学習を行うステップと、
    を実行させるプログラム。
  6. 被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを学習によって生成する学習方法であって、
    被験者を前方および後方から撮影した一組のシンチグラムである複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力するステップと、
    前記複数の参照シンチグラムについて、前記一組のシンチグラムのうち、前方から撮影した前記シンチグラムと、後方から撮影した前記シンチグラムのうちの一方を体軸に対して反転するステップと、
    反転処理が行われた前記参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、前記ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、前記ニューラルネットワークモデルの学習を行うステップと、
    を備える学習方法。
  7. 被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与するためのニューラルネットワークモデルを生成するために、コンピュータを機能させるための学習済みモデルであって、
    被験者を前方および後方から撮影した一組のシンチグラムである複数の参照シンチグラムと、各参照シンチグラムに付与した解剖構造ラベルの正解データとを教師データとし、前方から撮影した参照シンチグラムまたは後方から撮影した参照シンチグラムのいずれかを体軸に対して反転させた後に、前方および後方から撮影した参照シンチグラムのそれぞれを、前記ニューラルネットワークモデルの入力層に入力して学習されたものであり、
    前記ニューラルネットワークモデルの入力された被験者のシンチグラムに解剖構造ラベルを付与するよう、コンピュータを機能させる学習済みモデル。
  8. 前記学習済みモデルは、Encoder-Decoder構造を有し、Encoder構造で得た特徴マップをDecoder構造に入力する構造の第1のネットワーク部分と、前記第1のネットワーク部分と同じ構造を有する第2のネットワーク部分とが結合された構造を有するニューラルネットワークモデルで構成される請求項7に記載の学習済みモデル。
  9. 被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する骨格セグメンテーションを行うための装置であって、
    被験者のシンチグラムを入力する入力部と、
    請求項2ないし4のいずれか一項に記載の学習装置にて生成されたニューラルネットワークの学習済みモデルを記憶した記憶部と、
    前記記憶部から前記学習済みモデルを読み出し、前記学習済みモデルに前記被験者のシンチグラムを入力し、前記被験者のシンチグラムの中で前記解剖構造ラベルに対応する領域を推論する推論部と、
    前記被験者のシンチグラムの前記解剖構造ラベルを示すデータを出力する出力部と、
    を備える骨格セグメンテーション装置。
JP2019121528A 2019-06-28 2019-06-28 プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置 Active JP7446570B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019121528A JP7446570B2 (ja) 2019-06-28 2019-06-28 プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019121528A JP7446570B2 (ja) 2019-06-28 2019-06-28 プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置

Publications (2)

Publication Number Publication Date
JP2021009026A JP2021009026A (ja) 2021-01-28
JP7446570B2 true JP7446570B2 (ja) 2024-03-11

Family

ID=74199813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019121528A Active JP7446570B2 (ja) 2019-06-28 2019-06-28 プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置

Country Status (1)

Country Link
JP (1) JP7446570B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017198697A (ja) 2017-06-30 2017-11-02 富士フイルムRiファーマ株式会社 画像処理プログラム、記録媒体、画像処理装置、及び画像処理方法
JP2018181124A (ja) 2017-04-18 2018-11-15 Kddi株式会社 エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム
JP2019506208A (ja) 2016-01-21 2019-03-07 エレクタ、インク.Elekta, Inc. 内視鏡的医療画像のセグメンテーションのためのシステムおよび方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019506208A (ja) 2016-01-21 2019-03-07 エレクタ、インク.Elekta, Inc. 内視鏡的医療画像のセグメンテーションのためのシステムおよび方法
JP2018181124A (ja) 2017-04-18 2018-11-15 Kddi株式会社 エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム
JP2017198697A (ja) 2017-06-30 2017-11-02 富士フイルムRiファーマ株式会社 画像処理プログラム、記録媒体、画像処理装置、及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Anjany Sekuboyina et al.,"Btrfly Net: Vertebrae Labelling with Energy-based Adversarial Learning of Local Spine Prior",[online],arXiv:1804.01307v1,2018年04月04日,[2023/03/13 検索],インターネット<URL:https://arxiv.org/pdf/1804.01307.pdf>

Also Published As

Publication number Publication date
JP2021009026A (ja) 2021-01-28

Similar Documents

Publication Publication Date Title
JP7325954B2 (ja) 医用画像処理装置、医用画像処理プログラム、学習装置及び学習プログラム
Han et al. Spine-GAN: Semantic segmentation of multiple spinal structures
CN107492099B (zh) 医学图像分析方法、医学图像分析系统以及存储介质
US20200327721A1 (en) Autonomous level identification of anatomical bony structures on 3d medical imagery
US11669729B2 (en) Model training method and apparatus
JP2002529825A (ja) 4D再構築(reconstruction)及び可視化(visualization)のためのシステム及び方法
US8170303B2 (en) Automatic cardiac view classification of echocardiography
CN112215858A (zh) 用于图像分割和识别的方法和系统
Pluim et al. The truth is hard to make: Validation of medical image registration
JP2022517769A (ja) 三次元ターゲット検出及びモデルの訓練方法、装置、機器、記憶媒体及びコンピュータプログラム
CN112804943A (zh) 学习完成模型的制作方法、亮度调整方法以及图像处理装置
Kadoury et al. 3-D morphology prediction of progressive spinal deformities from probabilistic modeling of discriminant manifolds
Amer et al. ResDUnet: A deep learning-based left ventricle segmentation method for echocardiography
CN108876770B (zh) 一种眼底多光谱图像联合配准方法及系统
Boutillon et al. Combining shape priors with conditional adversarial networks for improved scapula segmentation in MR images
Sokooti et al. Hierarchical prediction of registration misalignment using a convolutional LSTM: Application to chest CT scans
Fard et al. Sagittal cervical spine landmark point detection in x-ray using deep convolutional neural networks
US11704796B2 (en) Estimating bone mineral density from plain radiograph by assessing bone texture with deep learning
JP7446570B2 (ja) プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置
JP2023505374A (ja) 医療画像セグメント化及びアトラス画像選択
KR102545906B1 (ko) 학습 모델을 이용한 데이터 처리 방법
EP4012650A1 (en) Segmentation of anatomical structure in image
Zhou Introduction to medical image recognition, segmentation, and parsing
Pilgram et al. Knowledge-based femur detection in conventional radiographs of the pelvis
JP7325310B2 (ja) 医用画像処理装置、医用画像解析装置、及び、標準画像作成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240216

R150 Certificate of patent or registration of utility model

Ref document number: 7446570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150