JP2021009026A - プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置 - Google Patents

プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置 Download PDF

Info

Publication number
JP2021009026A
JP2021009026A JP2019121528A JP2019121528A JP2021009026A JP 2021009026 A JP2021009026 A JP 2021009026A JP 2019121528 A JP2019121528 A JP 2019121528A JP 2019121528 A JP2019121528 A JP 2019121528A JP 2021009026 A JP2021009026 A JP 2021009026A
Authority
JP
Japan
Prior art keywords
scintigram
subject
anatomical structure
neural network
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019121528A
Other languages
English (en)
Other versions
JP7446570B2 (ja
Inventor
清水 昭伸
Akinobu Shimizu
昭伸 清水
斎藤 篤
Atsushi Saito
篤 斎藤
巧 金森
Takumi Kanamori
巧 金森
西川 和宏
Kazuhiro Nishikawa
和宏 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon Medi Physics Co Ltd
Tokyo University of Agriculture and Technology NUC
Original Assignee
Nihon Medi Physics Co Ltd
Tokyo University of Agriculture and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon Medi Physics Co Ltd, Tokyo University of Agriculture and Technology NUC filed Critical Nihon Medi Physics Co Ltd
Priority to JP2019121528A priority Critical patent/JP7446570B2/ja
Publication of JP2021009026A publication Critical patent/JP2021009026A/ja
Application granted granted Critical
Publication of JP7446570B2 publication Critical patent/JP7446570B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Nuclear Medicine (AREA)
  • Image Analysis (AREA)

Abstract

【課題】骨シンチグラムの新しい画像処理装置を提供することを目的とする。【解決手段】プログラムは、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する骨格セグメンテーションを行うためのプログラムであって、コンピュータに、被験者のシンチグラムを入力するステップS20と、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして予め学習によって生成されたニューラルネットワークの学習済みモデルを記憶した記憶部から、学習済みモデルを読み出し、学習済みモデルに被験者のシンチグラムを入力し、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するステップS25と、被験者のシンチグラムの解剖構造ラベルを示すデータを出力するステップS26とを実行させる。【選択図】図6

Description

本発明は、被験者の骨シンチグラムの画像において解剖構造を認識する技術に関する。
がんの造骨性転移の診断には、骨シンチグラムが良く用いられる。がんの転移は画像上では高集積として現れるが、関節炎など、がん以外の生理集積との区別が必要であったり、部位によってがんの発生頻度が異なるため、事前に解剖構造を把握することが重要である。
特開2014−9945号公報
骨シンチグラム上の解剖構造認識処理の方法については、先行する研究が発表されているが、さらなる改良が求められていた。本発明は、上記背景に鑑み、新しい画像処理装置を提供することを目的とする。
本発明のプログラムは、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する骨格セグメンテーションを行うためのプログラムであって、コンピュータに、被験者のシンチグラムを入力するステップと、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして予め学習によって生成されたニューラルネットワークの学習済みモデルを記憶した記憶部から、前記学習済みモデルを読み出し、前記学習済みモデルに前記被験者のシンチグラムを入力し、前記被験者のシンチグラムの中で前記解剖構造ラベルに対応する領域を推論するステップと、前記被験者のシンチグラムの前記解剖構造ラベルを示すデータを出力するステップとを実行させる。
本発明によれば、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして予め学習によって生成されたニューラルネットワークの学習済みモデルを用いて、被験者のシンチグラムの解剖構造ラベルを求めることができる。
実施の形態の学習装置の構成を示す図である。 前方画像と反転を行った後方画像の例を示す図である。 本実施の形態で用いるButterfly−Netの例を示す図である。 実施の形態の骨格セグメンテーション装置の構成を示す図である。 実施の形態の学習装置の動作を示す図である。 実施の形態の骨格セグメンテーション装置の動作を示す図である。 実施の形態の学習装置、骨格セグメンテーション装置のハードウェアを示す図である。 骨格セグメンテーションの結果を示す図である。 骨格の各部位のDiceスコアを並べて記載した表である。 すべてのテストケースのDiceスコアを示す図である。
本実施の形態のプログラムは、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する骨格セグメンテーションを行うためのプログラムであって、コンピュータに、被験者のシンチグラムを入力するステップと、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして予め学習によって生成されたニューラルネットワークの学習済みモデルを記憶した記憶部から、学習済みモデルを読み出し、学習済みモデルに被験者のシンチグラムを入力し、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するステップと、被験者のシンチグラムの解剖構造ラベルを示すデータを出力するステップとを実行させる。
この構成により、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして予め学習によって生成されたニューラルネットワークの学習済みモデルを用いて、被験者のシンチグラムの解剖構造ラベルを求めることができる。ここで、「参照シンチグラム」とは、学習済みモデルを生成するために用いられるシンチグラムである。参照シンチグラムも被験者を撮影することによって得られるシンチグラムであるが、解剖構造ラベルを求める対象である被験者のシンチグラムと区別するために、便宜上、「参照」の文言を付したものである。
本実施の形態のプログラムは、被験者のシンチグラムを入力する前記ステップにおいて、被験者を前方および後方から撮影した一組のシンチグラムを入力し、前記解剖構造ラベルに対応する領域を推論する前記ステップにおいて、前記学習済みモデルの入力層に前記一組のシンチグラムを入力し、前記一組のシンチグラムの中で前記解剖構造ラベルに対応する領域を推論してもよい。
本実施の形態のプログラムは、前記一組のシンチグラムのうち、前方から撮影した前記シンチグラムと、後方から撮影した前記シンチグラムのうちの一方を水平方向に反転するステップを更に含み、その後に、前記解剖構造ラベルに対応する領域を推論する前記ステップを実行してもよい。
この構成により、前後から撮影した2枚のシンチグラムを学習済みモデルの入力層に入力して推論を行うことにより、シンチグラムの解剖構造ラベルを適切に付与することができる。この際に、2枚のシンチグラムのうちの一方を反転させて同じ向きとしたうえで推論を行うことにより、2枚のシンチグラムの左右の向きが合うので、精度の高い推論を行える。
本実施の形態の学習装置は、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを生成する学習装置であって、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力する入力部と、前記参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、ニューラルネットワークモデルの学習を行う学習部とを備える。
この構成により、被験者のシンチグラムとその解剖構造ラベルの正解データとを教師データとして、被験者のシンチグラムの解剖構造ラベルを求めるためのニューラルネットワークのモデルを生成することができる。
本実施の形態の学習装置において、ニューラルネットワークは、Encoder−Decoder構造を有し、Encoder構造で得た特徴マップをDecoder構造に入力する構造の第1のネットワーク部分と、第1のネットワーク部分と同じ構造を有する第2のネットワーク部分とが結合された構造を有し、入力部は、各被験者を前後から撮影した参照シンチグラム及びその解剖構造ラベルの正解データを入力し、学習部は、第1のネットワーク部分の入力層に被験者を前方から撮影した参照シンチグラムを入力すると共に、第2のネットワーク部分の入力層に被験者を後方から撮影した参照シンチグラムを入力して学習を行ってもよい。
前方から撮影したシンチグラムと後方から撮影したシンチグラムを独立して処理するのではなく、Encoder−Decoder構造を有する2つのネットワーク部分を結合した構造のニューラルネットワークで同時に処理することにより、被験者のシンチグラムの解剖構造ラベルを精度良く求めるためのニューラルネットワークのモデルを生成することができる。
本実施の形態の学習装置において、学習部は、Decoder構造を構成する層から出力される特徴マップと正解データとの誤差にも基づいて、ニューラルネットワークモデルの学習を行ってもよい。この構成により、学習時の勾配消失の問題を軽減し、生成されるニューラルネットワークのモデルの解剖構造ラベル付与の性能を高めることができる。
本実施の形態の学習装置は、入力部にて入力されたシンチグラムの濃度Iinを次式(1)
によって正規化した濃度Inormalizedに変換する濃度正規化部を備えてもよい。
本実施の形態のプログラムは、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを生成するためのプログラムであって、コンピュータに、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力するステップと、参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、ニューラルネットワークモデルの学習を行うステップとを実行させる。
本実施の形態の学習方法は、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを学習によって生成する学習方法であって、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを学習によって生成する学習方法であって、複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力するステップと、参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、ニューラルネットワークモデルの学習を行うステップとを備える。
本実施の形態の学習済みモデルは、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与するためのニューラルネットワークモデルを生成するために、コンピュータを機能させるための学習済みモデルであって、複数の参照シンチグラムと、各参照シンチグラムに付与した解剖構造ラベルの正解データとを教師データとして学習されたものであり、前記ニューラルネットワークモデルに入力された被験者のシンチグラムに解剖構造ラベルを付与するよう、コンピュータを機能させる。
また、本実施の形態の学習済みモデルは、Encoder−Decoder構造を有し、Encoder構造で得た特徴マップをDecoder構造に入力する構造の第1のネットワーク部分と、第1のネットワーク部分と同じ構造を有する第2のネットワーク部分とが結合された構造を有するニューラルネットワークモデルで構成され、複数の被験者を前方および後方から撮影した参照シンチグラムと、各参照シンチグラムに付与した解剖構造ラベルの正解データとを教師データとし、前方から撮影したシンチグラムまたは後方から撮影したシンチグラムのいずれかを水平方向に反転させた後に、前方および後方から撮影した参照シンチグラムのそれぞれを、ニューラルネットワークモデルの第1のネットワーク部分および第2のネットワーク部分のそれぞれにある入力層に入力して学習されたものであってもよい。
本実施の形態の骨格セグメンテーション装置は、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する骨格セグメンテーションを行うための装置であって、被験者のシンチグラムを入力する入力部と、上記した学習装置にて生成されたニューラルネットワークの学習済みモデルを記憶した記憶部と、記憶部から学習済みモデルを読み出し、学習済みモデルに被験者のシンチグラムを入力し、被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論する推論部と、被験者のシンチグラムの解剖構造ラベルを示すデータを出力する出力部とを備える。
以下、本実施の形態の学習装置および骨格セグメンテーション装置について図面を参照して説明する。
図1は、実施の形態の学習装置の構成を示す図である。実施の形態の学習装置1は、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与するためのニューラルネットワークモデルを学習によって生成する装置である。本実施の形態の学習装置1が生成するニューラルネットワークモデルは、被験者を前方および後方から撮影したシンチグラムに映る骨格の部位に解剖構造ラベルを付与する。本明細書において、被験者を前方から撮影した参照シンチグラムを「前方画像」、後方から撮影した参照シンチグラムを「後方画像」という。
ここで、本実施の形態の学習装置1によって生成されるニューラルネットワークモデルが付与する解剖構造ラベルについて述べる。前方画像については、骨格の12の部位(頭蓋骨、頸椎、胸椎、腰椎、仙骨、骨盤、肋骨、肩甲骨、上腕骨、大腿骨、胸骨および鎖骨)と背景からなる13層に分類し、それぞれに解剖構造ラベルを付与する。後方画像については、骨格の10の部位(頭蓋骨、頸椎、胸椎、腰椎、仙骨、骨盤、肋骨、肩甲骨、上腕骨、および大腿骨)と背景からなる12層に分類し、それぞれに解剖構造ラベルを付与する。なお、後方画像に関して、1つの層は肋骨と肩甲骨がオーバーラップしているので、10の骨格の部位と背景とで12層になっている。
学習装置1は、教師データを入力する入力部10と、教師データに基づいてニューラルネットワークモデルの学習を行う制御部11と、学習により生成されたモデルを記憶する記憶部17と、記憶部17に記憶されたモデルを外部に出力する出力部18とを有している。入力部10には、一組の前方画像および後方画像と、前方画像および後方画像に付与した解剖構造ラベルの正解データとを、教師データとして入力する。
次に、制御部11について説明する。制御部11は、画像反転部12と、前後画像位置合せ部13と、空間的標準化部14、濃度正規化処理部15と、学習部16とを有している。画像反転部12は、後方画像を水平方向に反転する。図2は、前方画像と反転を行った後方画像の例を示す図である。前後画像位置合せ部13は、前方画像と反転された後方画像の位置合せを行う。
空間的標準化部14は、被験者の体軸がシンチグラムの垂直軸と平行になるように画像の並進・回転を行う。また、空間的標準化部14は、被験者の頭頂部からつま先までの長さが2000mmとなるように画像の拡大・縮小を行う。これにより、画像の傾きや身長等のバラツキの影響を低減することができる。また、図2に示すように、前方画像および後方画像において、被験者の膝下をカットする空間的補正を行ってもよい。
濃度正規化処理部15は、被験者ごとに異なる正常骨領域の濃度値のばらつきを抑えるために、濃度値の正規化を行う機能を有する。濃度正規化処理部15は、濃度レンジ調整、正常骨レベルの同定、グレースケール正規化の処理により濃度値の正規化を行う。濃度正規化処理部15は、入力されたシンチグラムの濃度Iinを次式(1)によって正規化した濃度Inormalizedに変換する。
学習部16は、前方画像と反転された後方画像とを用いて、被験者のシンチグラムに骨格の解剖構造ラベルを付与するためのニューラルネットワークモデルの学習を行う機能を有する。本実施の形態では、ニューラルネットワークモデルとして、Butterfly−Netを用いる。
図3は、本実施の形態で用いるButterfly−Netの例を示す図である。Butterfly−Netの基本的な構造は、Encoder−Decoder構造である。Encoder−Decoder構造では、入力層に入力された画像に対して、Encoder構造で畳み込みとプーリングが繰り返し行われ、画像の大局的な特徴を抽出する。続いて、Decoder構造によって、大局的な構造を元のサイズの画像に戻していくが、その過程において、Encodeの過程で得られた特徴を結合することにより、局所的な特徴も学習する。
Butterfly−Netは、2つの入力層と2つの出力層を有している。Butterfly−Netは、2つの入力層In1,In2から入力される画像をEncoder−Decoder構造に通して2つの出力層Out1,Out2から出力する。ここで、説明の便宜上、図3の上側にある第1の入力層In1と第1の出力層Out1とを持つEncoder−Decoder構造を第1のネットワーク部分、図3の下側にある第2の入力層In2と第2の出力層Out2とを持つEncoder−Decoder構造を第2のネットワーク部分と呼ぶ。Butterfly−Netは、第1のネットワーク部分と第2のネットワーク部分とが結合された構成を有している。本実施の形態においては、32×72の128個ずつの特徴マップのところで結合されている。
本例において、入力画像はグレースケールであり、入力の次元は256×576×1である。Butterfly−Netでは、入力層に入力された画像に畳込み処理を行った後にMAXプーリング処理を行う。ここで行われる畳込み処理は、図3の下の枠内に示すように、3×3の畳込み、バッチノーマライゼーション、ReLU関数への適用の処理からなる。畳込み処理とMAXプーリング処理を、第1の入力層In1、第2の入力層In2に入力された画像のそれぞれについて繰り返し行い、32×72×128のサイズの特徴マップを得る。第1のネットワーク部分と第2のネットワーク部分とを結合し、さらに、畳込み処理とMAXプーリング処理を2回行って、Encoder構造では、最終的に2×2×512のサイズの特徴マップを得る。
続いて、畳込みを行った後に逆畳込みを行って、特徴マップのサイズを倍にする。そして、逆畳込みの出力とEncoderの特徴マップを連結(concat)し、畳込みを行う。さらに、畳込み、逆畳込み、Encoderの特徴マップとの連結の処理を行った後、その結果を複製し、上下のEncoderのそれぞれの特徴マップを連結し、畳込み、逆畳込みを行う処理を繰り返す。最後に、1×1の畳込み層で、前方画像については出力クラス数である13チャンネルにし、後方画像については出力クラス数である12チャンネルにする。
なお、本実施の形態では、学習済みモデルとして、Butterfly−Netを用いる例を挙げたが、解剖構造ラベルの推論を行うための学習済みモデルとしては、Butterfly−Net以外のニューラルネットワークモデルを用いることもできる。前方画像と後方画像と同時に処理する場合には、Butterfly−Netのように2つの入力層を有し、畳み込みの結果を結合するネットワーク構造が有効である。前方画像または後方画像の一方を用いる場合には、例えば、U−Netを用いることも可能である。
学習部16は、対になる前方画像および後方画像とその解剖構造ラベルの正解データを用いて、上記したButterfly−Netのニューラルネットワークモデルの学習を行う。対になる前方画像および後方画像をニューラルネットワークモデルに入力したときの出力をソフトマックス関数で変換した確率pと正解ラベルとの誤差(損失関数)を評価することで学習を行う。
本実施の形態の学習装置1は、ニューラルネットワークモデルのDecoder構造において、出力層に至る過程(図3において●で示す箇所)で得られる特徴マップと正解ラベルとの誤差も評価して学習を行う。これは、DSVと呼ばれる手法であり、Dou Q, Yu L, Chen Hら「3D Deeply Supervised Network for Automated Segmentation of Volumetric Medical Images」Medical Image Analysis, 41(10):40-54に記載されている。なお、出力層に至る過程で得られる特徴マップのサイズは正解ラベルのサイズとは異なるので、特徴マップに逆畳み込みを行うことで、正解ラベルとサイズを合わせて評価を行う。
学習部16が学習に用いる損失関数を次に示す。
ここで、nとcは画素とクラス(骨転移領域、非悪性病変領域、その他)の値であり、NとCは画素とクラスの総数である。さらに、pcnは、ネットワークの出力ycnのソフトマックスであり、tcnは、対象組織の画素値を1、そうでないときに0を示す真のラベルを示す。最後に、εは0で除算することを防止する微小値である。
図4は、実施の形態の骨格セグメンテーション装置2の構成を示す図である。骨格セグメンテーション装置2は、被験者のシンチグラムを入力する入力部20と、被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する制御部21と、上述した学習装置1によって学習した学習済みモデルを記憶した記憶部27と、解剖構造ラベルのデータを出力する出力部28とを有している。
制御部21は、画像反転部22と、前後画像位置合せ部23と、空間的標準化部24と、濃度正規化処理部25と、推論部26とを有している。画像反転部22、前後画像位置合せ部23、空間的標準化部24及び濃度正規化処理部25は、学習装置1が備える画像反転部12、前後画像位置合せ部13、空間的標準化部14及び濃度正規化処理部15と同じである。
推論部26は、学習済みモデル記憶部27から学習済みモデルを読み出し、学習済みモデルの入力層に一組の前方画像および後方画像を入力し、前方画像および後方画像のそれぞれの領域の解剖構造ラベルを推論する。
図5は、学習装置1の動作を示す図である。学習装置1は、教師データとして、複数の被験者の参照シンチグラム(前方画像および後方画像)とそれに対応する解剖構造ラベルの正解データを入力する(S10)。学習装置1は、後方画像を反転させ(S11)、前方画像と反転された後方画像との位置合わせを行う(S12)。次に、学習装置1は、入力された前方画像および後方画像の空間的標準化(S13)と濃度正規化(S14)とを行う。
続いて、学習装置1は、一組の前方画像および後方画像とそれに対応する解剖構造ラベルの正解データを用いて、ニューラルネットワークモデルの学習を行う(S15)。上述したとおり、ここでの学習では、一組の前方画像および後方画像をButterfly−Netの入力層に入力し、出力層からの出力と正解データとに基づいて学習を行う。学習装置1は、学習によって得られたニューラルネットワークモデルを記憶部17に記憶する(S16)。なお、学習済みのモデルを骨格セグメンテーション装置2で用いる場合には、記憶部17に記憶された学習モデルを読み出して、他の装置等に出力する。
図6は、骨格セグメンテーション装置2の動作を示す図である。骨格セグメンテーション装置2は、被験者を前後から撮影したシンチグラム(前方画像及び後方画像)を入力する(S20)。骨格セグメンテーション装置2は、後方画像を反転させ(S21)、前方画像と反転された後方画像との位置合わせを行う(S22)。次に、骨格セグメンテーション装置2は、入力された前方画像および後方画像の空間的標準化(S23)と濃度正規化(S24)とを行う。
続いて、骨格セグメンテーション装置2は、学習済みモデルの2つの入力層に、被験者の前方画像および後方画像を入力し、前方画像および後方画像の解剖構造ラベルを推論し(S25)、推論によって得られた解剖構造ラベルのデータを出力する(S26)。
実施の形態の学習装置1は、学習モデルとしてButterfly−Netのニューラルネットワークモデルを用い、その入力層に一組の前方画像および後方画像を入力して学習を行う構成としたので、相関の高いシンチグラムを同時に処理することにより、精度良く骨格セグメンテーションを行えるニューラルネットワークのモデルを生成することができる。
図7は、本実施の形態の学習装置1および骨格セグメンテーション装置2のハードウェアの構成を示す図である。学習装置1、骨格セグメンテーション装置2は、CPU30、RAM31、ROM32、ハードディスク33、ディスプレイ34、キーボード35、マウス36、通信インターフェース37等を備えたコンピュータ3によって実現される。学習装置1と骨格セグメンテーション装置2は同じコンピュータで実現してもよいし、別個のコンピュータでもよい。学習済みモデル41を例えばハードディスク33に格納する。また、上記した各機能および各ステップを実現するモジュールを有するモデル学習用または骨格セグメンテーション用のプログラム40をROM32に格納し、CPU30によって当該プログラム40を実行することによって、上記した学習装置1および骨格セグメンテーション装置2が実現される。このようなモデル学習用または骨格セグメンテーション用のプログラム40も本発明の範囲に含まれる。
次に、本実施の形態の学習装置1を用いて生成した学習済みモデルを用いて、骨格セグメンテーションを行った実施例について説明する。学習済みモデルの生成方法には、DSVを導入したButterfly−Netと、DSVを導入しないButterfly−Netを用いた。また、比較例として、マルチアトラスを用いて骨格セグメンテーションを行った。マルチアトラスを用いた骨格セグメンテーションでは、訓練用データから、164個のアトラスのBスプラインベースの非剛性レジストレーションを採用した。この方法は、計算コストが高いので、前方画像のみ計算を行った。
(実験に用いた画像)
・骨シンチグラム濃度値正規化画像:246症例
訓練用データ:164症例
検証用データ:41症例
テストデータ:41症例
・画像サイズ:256×576[pixels]
(ネットワークの初期化と最適化)
・初期化:He K, Zhang X, Ren Sら「Deep Residual Learning for Image Recognition」 CVPR2016, 770-778にしたがって行った。
・最適化:適応モーメント推定(ADAM)を用いて損失関数の最小化を行った。(Kingma DP, Ba JL「ADAM: A method for stochastic optimization」 ICLR2015, arXiv:1412.6980v9)
・ADAMのパラメータ
α=0.001、β=0.9、γ=0.999、ε=10−8
ただし、αは1350回目の繰り返しで1/10に減少された。繰り返しの最大回数は1620に設定され、繰り返しの最適回数は、次式(4)のDiceスコアの平均が最大値に達したことによって決定した。なお、Diceスコアは、真の骨格の部位と骨格セグメンテーションの結果との類似度を評価するスコアであり、値が大きいほど類似度が高いことを示す。
(実験結果)
図8は、骨格セグメンテーションの結果を示す図である。網掛けをした領域はセグメンテーションされた骨格を示し、白いラインは真の骨格の部位との境界を示している。図8の下部に示した数字は、骨格の各部位についてのDiceスコアである。図9は、図8の下部に示したDiceスコアを並べて記載した表であり、3つの手法のうち最も高いDiceスコアを太字で示している。図8及び図9に示すように、Butterfly−NetまたはDSVを導入したButterfly−Netを使って生成された学習済みモデルでセグメンテーションされた解剖構造ラベルはDiceスコアが高く、適切にセグメンテーションを行なえた。
図10は、すべてのテストケースのDiceスコアを示す図である。上段は、前方画像において、骨格の各部位についてのDiceスコアの分布を示し、左から順に、マルチアトラス(比較例)、Butterfly−Net、Butterfly−Net with DSVで求めた結果を示している。下段は、後方画像において、各骨格についてのDiceスコアの分布を示し、左から順に、Butterfly−Net、Butterfly−Net with DSVで求めた結果を示している。上段、下段のいずれについても、表内に記載した数字は、Diceスコアの中央値を示している。統計的検定は、「2つの方法の間のパフォーマンスに差がない」という帰無仮説を用いて、ウィルコクソンの符号順位検定を用いて行った。図10の上段に示すように、Butterfly−NetまたはButterfly−Net with DSVのモデルを用いた推論によって、マルチアトラスよりも精度の良い骨格セグメンテーションができた。
本発明は、被験者の骨シンチグラムの画像処理を行う装置として有用である。
1 学習装置
2 骨格セグメンテーション装置
3 コンピュータ
10 入力部
11 制御部
12 画像反転部
13 前後画像位置合せ部
14 空間的標準化部
15 濃度正規化部
16 学習部
17 記憶部
18 出力部
20 入力部
21 制御部
22 画像反転部
23 前後画像位置合せ部
24 空間的標準化部
25 濃度正規化部
26 推論部
27 学習済みモデル記憶部
28 出力部
30 CPU
31 RAM
32 ROM
33 ハードディスク
34 ディスプレイ
35 キーボード
36 マウス
37 通信インターフェース

Claims (11)

  1. 被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する骨格セグメンテーションを行うためのプログラムであって、コンピュータに、
    被験者のシンチグラムを入力するステップと、
    複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして予め学習によって生成されたニューラルネットワークの学習済みモデルを記憶した記憶部から、前記学習済みモデルを読み出し、前記学習済みモデルに前記被験者のシンチグラムを入力し、前記被験者のシンチグラムの中で前記解剖構造ラベルに対応する領域を推論するステップと、
    前記被験者のシンチグラムの前記解剖構造ラベルを示すデータを出力するステップと、
    を実行させるプログラム。
  2. 被験者のシンチグラムを入力する前記ステップにおいて、被験者を前方および後方から撮影した一組のシンチグラムを入力し、
    前記解剖構造ラベルに対応する領域を推論する前記ステップにおいて、前記学習済みモデルの入力層に前記一組のシンチグラムを入力し、前記一組のシンチグラムの中で前記解剖構造ラベルに対応する領域を推論する、請求項1に記載のプログラム。
  3. 前記一組のシンチグラムのうち、前方から撮影した前記シンチグラムと、後方から撮影した前記シンチグラムのうちの一方を水平方向に反転するステップを更に含み、
    その後に、前記解剖構造ラベルに対応する領域を推論する前記ステップを実行する、請求項2に記載のプログラム。
  4. 被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを生成する学習装置であって、
    複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力する入力部と、
    前記参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、前記ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、前記ニューラルネットワークモデルの学習を行う学習部と、
    を備える学習装置。
  5. 前記ニューラルネットワークは、Encoder−Decoder構造を有し、Encoder構造で得た特徴マップをDecoder構造に入力する構造の第1のネットワーク部分と、前記第1のネットワーク部分と同じ構造を有する第2のネットワーク部分とが結合された構造を有し、
    前記入力部は、各被験者を前後から撮影した参照シンチグラム及びその解剖構造ラベルの正解データを入力し、
    前記第1のネットワーク部分の入力層に被験者を前方から撮影した参照シンチグラムを入力すると共に、前記第2のネットワーク部分の入力層に前記被験者を後方から撮影した参照シンチグラムを入力して学習を行う、
    請求項4に記載の学習装置。
  6. 前記学習部は、Decoder構造を構成する層から出力される特徴マップと前記正解データとの誤差にも基づいて、前記ニューラルネットワークモデルの学習を行う請求項5に記載の学習装置。
  7. 被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを生成するためのプログラムであって、コンピュータに、
    複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力するステップと、
    前記参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、前記ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、前記ニューラルネットワークモデルの学習を行うステップと、
    を実行させるプログラム。
  8. 被験者のシンチグラムの中で解剖構造ラベルに対応する領域を推論するためのニューラルネットワークモデルを学習によって生成する学習方法であって、
    複数の参照シンチグラムとその解剖構造ラベルの正解データとを教師データとして入力するステップと、
    前記参照シンチグラムを、ニューラルネットワークモデルの入力層に入力し、前記ニューラルネットワークモデルによる推論結果と正解の解剖構造ラベルとの誤差に基づいて、前記ニューラルネットワークモデルの学習を行うステップと、
    を備える学習方法。
  9. 被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与するためのニューラルネットワークモデルを生成するために、コンピュータを機能させるための学習済みモデルであって、
    複数の参照シンチグラムと、各参照シンチグラムに付与した解剖構造ラベルの正解データとを教師データとして学習されたものであり、
    前記ニューラルネットワークモデルの入力された被験者のシンチグラムに解剖構造ラベルを付与するよう、コンピュータを機能させる学習済みモデル。
  10. 前記学習済みモデルは、
    Encoder−Decoder構造を有し、Encoder構造で得た特徴マップをDecoder構造に入力する構造の第1のネットワーク部分と、前記第1のネットワーク部分と同じ構造を有する第2のネットワーク部分とが結合された構造を有するニューラルネットワークモデルで構成され、
    複数の被験者を前方および後方から撮影した参照シンチグラムと、各参照シンチグラムに付与した解剖構造ラベルの正解データとを教師データとし、前方から撮影した参照シンチグラムまたは後方から撮影した参照シンチグラムのいずれかを水平方向に反転させた後に、前方および後方から撮影した参照シンチグラムのそれぞれを、前記ニューラルネットワークモデルの前記第1のネットワーク部分および前記第2のネットワーク部分のそれぞれにある入力層に入力して学習されたものである請求項9に記載の学習済みモデル。
  11. 被験者のシンチグラムに映る骨格の部位に解剖構造ラベルを付与する骨格セグメンテーションを行うための装置であって、
    被験者のシンチグラムを入力する入力部と、
    請求項4ないし6のいずれか一項に記載の学習装置にて生成されたニューラルネットワークの学習済みモデルを記憶した記憶部と、
    前記記憶部から前記学習済みモデルを読み出し、前記学習済みモデルに前記被験者のシンチグラムを入力し、前記被験者のシンチグラムの中で前記解剖構造ラベルに対応する領域を推論する推論部と、
    前記被験者のシンチグラムの前記解剖構造ラベルを示すデータを出力する出力部と、
    を備える骨格セグメンテーション装置。
JP2019121528A 2019-06-28 2019-06-28 プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置 Active JP7446570B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019121528A JP7446570B2 (ja) 2019-06-28 2019-06-28 プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019121528A JP7446570B2 (ja) 2019-06-28 2019-06-28 プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置

Publications (2)

Publication Number Publication Date
JP2021009026A true JP2021009026A (ja) 2021-01-28
JP7446570B2 JP7446570B2 (ja) 2024-03-11

Family

ID=74199813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019121528A Active JP7446570B2 (ja) 2019-06-28 2019-06-28 プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置

Country Status (1)

Country Link
JP (1) JP7446570B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017198697A (ja) * 2017-06-30 2017-11-02 富士フイルムRiファーマ株式会社 画像処理プログラム、記録媒体、画像処理装置、及び画像処理方法
JP2018181124A (ja) * 2017-04-18 2018-11-15 Kddi株式会社 エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム
JP2019506208A (ja) * 2016-01-21 2019-03-07 エレクタ、インク.Elekta, Inc. 内視鏡的医療画像のセグメンテーションのためのシステムおよび方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019506208A (ja) * 2016-01-21 2019-03-07 エレクタ、インク.Elekta, Inc. 内視鏡的医療画像のセグメンテーションのためのシステムおよび方法
JP2018181124A (ja) * 2017-04-18 2018-11-15 Kddi株式会社 エンコーダデコーダ畳み込みニューラルネットワークにおける解像感を改善するプログラム
JP2017198697A (ja) * 2017-06-30 2017-11-02 富士フイルムRiファーマ株式会社 画像処理プログラム、記録媒体、画像処理装置、及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANJANY SEKUBOYINA ET AL.: ""Btrfly Net: Vertebrae Labelling with Energy-based Adversarial Learning of Local Spine Prior"", [ONLINE], vol. arXiv:1804.01307v1, JPN6023012650, 4 April 2018 (2018-04-04), pages 2023 - 03, ISSN: 0005026820 *

Also Published As

Publication number Publication date
JP7446570B2 (ja) 2024-03-11

Similar Documents

Publication Publication Date Title
US11282205B2 (en) Structure correcting adversarial network for chest x-rays organ segmentation
US11494871B2 (en) Registration method and apparatus
CN109859233A (zh) 图像处理、图像处理模型的训练方法及系统
Tiulpin et al. KNEEL: Knee anatomical landmark localization using hourglass networks
CA3084097A1 (en) Three-dimensional medical image analysis method and system for identification of vertebral fractures
US11669729B2 (en) Model training method and apparatus
Ikhsan et al. An analysis of x-ray image enhancement methods for vertebral bone segmentation
Pluim et al. The truth is hard to make: Validation of medical image registration
CN112529863B (zh) 测量骨密度的方法及装置
CN112804943A (zh) 学习完成模型的制作方法、亮度调整方法以及图像处理装置
US11704796B2 (en) Estimating bone mineral density from plain radiograph by assessing bone texture with deep learning
WO2022271838A1 (en) Detecting and segmenting regions of interest in biomedical images using neural networks
Goutham et al. Automatic localization of landmarks in cephalometric images via modified U-Net
Kolarik et al. Upsampling algorithms for autoencoder segmentation neural networks: A comparison study
JP2023505374A (ja) 医療画像セグメント化及びアトラス画像選択
JP7446570B2 (ja) プログラム、学習装置、学習方法、学習済みプログラムおよび骨格セグメンテーション装置
JP7352261B2 (ja) 学習装置、学習方法、プログラム、学習済みモデルおよび骨転移検出装置
Zhou Introduction to medical image recognition, segmentation, and parsing
JP7019104B2 (ja) 閾値の学習方法
Pandey et al. Recognition of X-rays bones: challenges in the past, present and future
CN109697713B (zh) 基于深度学习和空间关系推理的椎间盘定位标注方法
Bardosi et al. Metacarpal bones localization in x-ray imagery using particle filter segmentation
Starosolski et al. CNN-based radiographic acute tibial fracture detection in the setting of open growth plates
CN115996670A (zh) 医学成像转换方法和相关联的医学成像3d模型个性化方法
Sukesh et al. Training deep learning models for 2d spine x-rays using synthetic images and annotations created from 3d ct volumes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240216

R150 Certificate of patent or registration of utility model

Ref document number: 7446570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150