JP7352261B2 - Learning device, learning method, program, trained model, and bone metastasis detection device - Google Patents

Learning device, learning method, program, trained model, and bone metastasis detection device Download PDF

Info

Publication number
JP7352261B2
JP7352261B2 JP2020519910A JP2020519910A JP7352261B2 JP 7352261 B2 JP7352261 B2 JP 7352261B2 JP 2020519910 A JP2020519910 A JP 2020519910A JP 2020519910 A JP2020519910 A JP 2020519910A JP 7352261 B2 JP7352261 B2 JP 7352261B2
Authority
JP
Japan
Prior art keywords
bone metastasis
learning
scintigram
patch image
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020519910A
Other languages
Japanese (ja)
Other versions
JPWO2019221222A1 (en
Inventor
昭伸 清水
篤 斎藤
駿土 若林
和宏 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon Medi Physics Co Ltd
Tokyo University of Agriculture and Technology NUC
Original Assignee
Nihon Medi Physics Co Ltd
Tokyo University of Agriculture and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon Medi Physics Co Ltd, Tokyo University of Agriculture and Technology NUC filed Critical Nihon Medi Physics Co Ltd
Publication of JPWO2019221222A1 publication Critical patent/JPWO2019221222A1/en
Application granted granted Critical
Publication of JP7352261B2 publication Critical patent/JP7352261B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • G01T1/16Measuring radiation intensity
    • G01T1/161Applications in the field of nuclear medicine, e.g. in vivo counting
    • G01T1/164Scintigraphy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Medical Informatics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Nuclear Medicine (AREA)

Description

本発明は、被験者のシンチグラムから骨転移領域を検出する技術に関する。 The present invention relates to a technique for detecting a bone metastasis region from a scintigram of a subject.

骨シンチグラム上の骨転移検出の関連研究として河上一公らの研究が挙げられる(非特許文献1)。非特許文献1では、セグメンテーション(全身の骨格分類)を行った後、各骨格領域(8領域)において、平均や標準偏差などの情報を利用し高集積部位を検出する。また、非特許文献2では、CADシステム”BONENAVI version 2.1.7” (FUJIFILM RI Pharma Co., Ltd., Tokyo, Japan)を用いて、全身画像の骨シンチグラムを解析した225人の前立腺がん患者(骨転移症例:124例、正常例:101例)を人工ニューラルネットワーク(ANN : Artificial Neural Networks)で解析を行い、それらの解析結果が示されている。このBONENAVIシステムでは、ANNとBSI(Bone Scan Index)という2つのイメージングマーカーを出力する。ANN値は、骨転移の可能性を示し、ANNの範囲は0-1の連続した値であり、”0”は骨転移の可能性がないことを意味し、”1”は骨転移の疑いが高いことを意味する。BSIは、転移性腫瘍量(全身骨格に対する骨転移領域の構成比)を示す。検出結果は、Sensitivityは82%(102/124)、Specificityは83%(84/101)である。 Related research on bone metastasis detection on bone scintigrams includes research by Kazuki Kawakami et al. (Non-Patent Document 1). In Non-Patent Document 1, after performing segmentation (classification of the whole body skeleton), high-accumulation sites are detected in each skeletal region (8 regions) using information such as the average and standard deviation. In addition, in Non-Patent Document 2, bone scintigrams of whole body images were analyzed using the CAD system “BONENAVI version 2.1.7” (FUJIFILM RI Pharma Co., Ltd., Tokyo, Japan) to examine 225 patients with prostate cancer. Patients (bone metastasis cases: 124 cases, normal cases: 101 cases) were analyzed using artificial neural networks (ANN), and the analysis results are shown. This BONENAVI system outputs two imaging markers: ANN and BSI (Bone Scan Index). The ANN value indicates the possibility of bone metastasis, and the range of ANN is a continuous value of 0-1, where "0" means no possibility of bone metastasis, and "1" means suspected bone metastasis. means high. BSI indicates the amount of metastatic tumor (composition ratio of bone metastatic area to the whole body skeleton). The detection results are 82% (102/124) for Sensitivity and 83% (84/101) for Specificity.

河上 一公ら「骨シンチグラフィ診断支援ソフト「BONENAVI」の紹介」核医学分科会誌,63(0):41-51,2011Kazuki Kawakami et al. “Introduction of bone scintigraphy diagnostic support software “BONENAVI”” Journal of Nuclear Medicine, 63(0):41-51, 2011 M. Koizumi, K. Motegi, M. Koyama, T. Terauchi, T. Yuasa, and J. Yonese, 「Diagnostic performance of a computer-assisted diagnosis system for bone scintigraphy of newly developed skeletal metastasis in prostate cancer patients: search for low-sensitivity subgroups」Annals of Nuclear Medicine, 31(7):521-528, 2017M. Koizumi, K. Motegi, M. Koyama, T. Terauchi, T. Yuasa, and J. Yonese, “Diagnostic performance of a computer-assisted diagnosis system for bone scintigraphy of newly developed skeletal metastasis in prostate cancer patients: search for “Low-sensitivity subgroups” Annals of Nuclear Medicine, 31(7):521-528, 2017

骨シンチグラム上の骨転移の検出支援システムは、主に、解剖構造の認識処理と、異常部位の強調(特徴抽出)や検出処理からなる。最終的に、これらの処理を一つにまとめて骨転移と疑われる部位を判定して、その結果を医師に提示する。 The detection support system for bone metastases on bone scintigrams mainly consists of anatomical structure recognition processing, abnormal region emphasis (feature extraction), and detection processing. Ultimately, these processes are combined to determine the site suspected of bone metastasis, and the results are presented to the doctor.

上記した従来技術では、被験者のシンチグラム上に骨転移領域を表示するが、骨転移領域と類似した濃度値を持つ非骨転移領域(骨折、炎症等の非悪性病変領域)を骨転移領域と誤検出し(いわゆる「拾いすぎ」)、検出精度の低下が見られた。そこで、本発明は、骨転移領域の検出率を維持しつつ、拾いすぎを低減する技術を提供する。 In the above-mentioned conventional technology, bone metastasis areas are displayed on the subject's scintigram, but non-bone metastasis areas (non-malignant lesion areas such as fractures and inflammation) that have density values similar to bone metastasis areas are classified as bone metastasis areas. There were false positives (so-called "too much detection") and a decrease in detection accuracy. Therefore, the present invention provides a technique for reducing excessive detection while maintaining the detection rate of bone metastatic regions.

本発明の一態様は、被験者のシンチグラムから骨転移を検出するためのニューラルネットワークのモデルを生成する学習装置であって、複数の被験者のシンチグラムと各シンチグラムにおける骨転移領域及び非骨転移領域の正解ラベルを教師データとして入力する入力部と、前記教師データを用いて骨シンチグラムの骨転移領域の検出に用いるニューラルネットワークのモデルの学習を行う学習部とを備える。 One aspect of the present invention is a learning device that generates a neural network model for detecting bone metastasis from scintigrams of a subject, the learning device including scintigrams of a plurality of subjects, bone metastasis areas in each scintigram, and non-bone metastasis. The apparatus includes an input section that inputs a correct label of a region as training data, and a learning section that uses the training data to train a neural network model used for detecting a bone metastasis region in a bone scintigram.

また、本発明の他の態様は、被験者のシンチグラムから骨転移領域を検出するためのニューラルネットワークのモデルを生成する学習方法であって、複数の被験者のシンチグラムと各シンチグラムにおける骨転移領域及び非骨転移領域の正解ラベルを教師データとして入力するステップと、教師データを用いて骨シンチグラムの骨転移領域の検出に用いるニューラルネットワークのモデルの学習を行うステップと、を備える学習方法である。 Another aspect of the present invention is a learning method for generating a neural network model for detecting a bone metastasis region from scintigrams of a subject, the method comprising: and a step of inputting a correct label of a non-bone metastatic region as training data, and a step of using the training data to learn a neural network model used for detecting a bone metastatic region in a bone scintigram. .

また、本発明の他の態様は、被験者のシンチグラムから骨転移領域を検出するためのニューラルネットワークのモデルを生成するためのプログラムであって、複数の被験者のシンチグラムと各シンチグラムにおける骨転移領域及び非骨転移領域の正解ラベルを教師データとして入力するステップと、教師データを用いて骨シンチグラムの骨転移領域の検出に用いるニューラルネットワークのモデルの学習を行うステップと、を実行させるプログラムである。 Another aspect of the present invention is a program for generating a neural network model for detecting a bone metastasis region from scintigrams of a subject, the program comprising: a plurality of scintigrams of subjects and bone metastasis in each scintigram; A program that executes the steps of inputting correct labels of regions and non-bone metastasis regions as training data, and learning a neural network model used for detecting bone metastasis regions in bone scintigrams using the training data. be.

また、本発明の他の態様は、被験者のシンチグラムから骨転移領域を検出するよう、コンピュータを機能させるための学習済みモデルであって、畳み込み層と、逆畳み込み層とを有し、畳み込み層で得られた特徴マップを逆畳み込み層に入力する構造を含むニューラルネットワークで構成され、複数の被験者のシンチグラムと各シンチグラムにおける骨転移領域及び非骨転移領域の正解ラベルを教師データとして学習されたものであり、前記ニューラルネットワークに入力された被験者のシンチグラムから骨転移領域を検出するよう、コンピュータを機能させる学習済みモデルである。 Another aspect of the present invention is a trained model for operating a computer to detect a bone metastasis region from a scintigram of a subject, the model having a convolutional layer and a deconvolutional layer. It is composed of a neural network that inputs the feature map obtained in 1 to the deconvolution layer, and is trained using scintigrams of multiple subjects and the correct labels of bone metastasis areas and non-bone metastasis areas in each scintigram as training data. This is a trained model that causes a computer to function to detect bone metastasis areas from the subject's scintigrams input to the neural network.

このように骨転移領域及び非骨転移領域の正解ラベルを用いてニューラルネットワークのモデルを学習することにより、このモデルを用いて、被験者のシンチグラムから骨転移領域を適切に検出することができる。 By learning the neural network model using the correct labels of the bone metastasis region and non-bone metastasis region in this way, the bone metastasis region can be appropriately detected from the subject's scintigram using this model.

図1は、第1の実施の形態の学習装置の構成を示す図である。FIG. 1 is a diagram showing the configuration of a learning device according to a first embodiment. 図2Aは、被験者のシンチグラム及び正解ラベルを示す図である。FIG. 2A is a diagram showing the subject's scintigram and correct label. 図2Bは、パッチ画像の例を示す図である。FIG. 2B is a diagram showing an example of a patch image. 図2Cは、パッチ画像の別の例を示す図である。FIG. 2C is a diagram showing another example of a patch image. 図3は、ニューラルネットワークモデルの構成を示す図である。FIG. 3 is a diagram showing the configuration of a neural network model. 図4は、第1の実施の形態の骨転移検出装置の構成を示す図である。FIG. 4 is a diagram showing the configuration of the bone metastasis detection device according to the first embodiment. 図5は、シンチグラムから切り出したパッチ画像の例を示す図である。FIG. 5 is a diagram showing an example of a patch image cut out from a scintigram. 図6は、第1の実施の形態の学習装置の動作を示す図である。FIG. 6 is a diagram showing the operation of the learning device according to the first embodiment. 図7は、第1の実施の形態の骨転移検出装置の動作を示す図である。FIG. 7 is a diagram showing the operation of the bone metastasis detection device according to the first embodiment. 図8は、第2の実施の形態の学習装置の構成を示す図である。FIG. 8 is a diagram showing the configuration of a learning device according to the second embodiment. 図9は、変形例に係る学習装置の構成を示す図である。FIG. 9 is a diagram showing the configuration of a learning device according to a modified example. 図10は、実験によって得られたSensitivityとFP(P)との関係を示すFROC曲線である。FIG. 10 is a FROC curve showing the relationship between sensitivity and FP (P) obtained through experiments. 図11は、第3の実施の形態の学習装置の構成を示す図である。FIG. 11 is a diagram showing the configuration of a learning device according to the third embodiment. 図12は、第3の実施の形態の学習装置に入力される被験者のシンチグラムを示す図である。FIG. 12 is a diagram showing a scintigram of a subject input into the learning device of the third embodiment. 図13は、第3の実施の形態の学習装置で用いられるニューラルネットワークモデルの構成を示す図である。FIG. 13 is a diagram showing the configuration of a neural network model used in the learning device of the third embodiment. 図14は、第3の実施の形態の骨転移検出装置の構成を示す図である。FIG. 14 is a diagram showing the configuration of a bone metastasis detection device according to the third embodiment. 図15は、第3の実施の形態の学習装置の動作を示す図である。FIG. 15 is a diagram showing the operation of the learning device according to the third embodiment.

以下、本発明の実施の形態の学習装置および骨転移検出装置について、図面を参照しながら説明する。なお、下記の説明において、サイズ等の条件として記載されている数値は、あくまでも好ましい態様における例示であり、本発明を限定する意図ではない。 Hereinafter, a learning device and a bone metastasis detection device according to embodiments of the present invention will be described with reference to the drawings. In the following description, the numerical values described as conditions such as size are merely examples of preferred embodiments, and are not intended to limit the present invention.

実施の形態の学習装置は、被験者のシンチグラムから骨転移を検出するためのニューラルネットワークのモデルを生成する学習装置であって、複数の被験者のシンチグラムと各シンチグラムにおける骨転移領域及び非骨転移領域の正解ラベルを教師データとして入力する入力部と、教師データを用いて骨シンチグラムの骨転移領域の検出に用いるニューラルネットワークのモデルの学習を行う学習部とを備える。ここで、非骨転移領域は、骨転移領域と類似した濃度値を持つ領域であるが、骨転移を起こしていない領域である。非骨転移領域には、非悪性病変領域(骨折、炎症等)が含まれる。なお、骨転移領域は、「異常集積」ともいう。 A learning device according to an embodiment is a learning device that generates a neural network model for detecting bone metastasis from scintigrams of a subject, and is a learning device that generates a neural network model for detecting bone metastasis from scintigrams of a plurality of subjects. The apparatus includes an input section that inputs correct labels of metastatic regions as teaching data, and a learning section that uses the teaching data to train a neural network model used for detecting bone metastatic regions in bone scintigrams. Here, the non-bone metastasis area is an area that has a density value similar to that of the bone metastasis area, but is an area that has not caused bone metastasis. Non-bone metastasis areas include non-malignant disease areas (fractures, inflammation, etc.). Note that the bone metastasis region is also referred to as "abnormal accumulation."

このように骨転移領域及び非骨転移領域の正解ラベルを用いてニューラルネットワークのモデルを学習することにより、このモデルを用いて、被験者のシンチグラムから骨転移領域を適切に検出することができる。 By learning the neural network model using the correct labels of the bone metastasis region and non-bone metastasis region in this way, the bone metastasis region can be appropriately detected from the subject's scintigram using this model.

実施の形態の学習装置は、複数の被験者のシンチグラムから、被験者の骨が写っている領域を切り出してパッチ画像を生成するパッチ画像作成部を備え、学習部は、パッチ画像およびそれに対応する正解ラベルを教師データとして用いて学習を行ってもよい。 The learning device of the embodiment includes a patch image creation unit that generates a patch image by cutting out a region in which bones of a subject are shown from scintigrams of a plurality of subjects, and the learning unit generates a patch image and a correct answer corresponding to the patch image. Learning may be performed using labels as training data.

ニューラルネットワークモデルにおいて学習時に必要となるメモリサイズは、画像サイズが大きくなるに従って増大する。実施の形態の構成によれば、被験者の骨が写っている領域を切り出したパッチ画像を生成し、パッチ画像を用いて学習を行うことにより、学習時に必要になるメモリサイズを低減できる。また、骨転移領域の現れ方は器官の形状にそれほど依存しないので、器官全体が写っていない場合でも学習を行うことができる。したがって、パッチ画像は、骨転移領域を検出するニューラルネットワークモデルの学習の教師データに適している。 The memory size required for learning in a neural network model increases as the image size increases. According to the configuration of the embodiment, the memory size required for learning can be reduced by generating a patch image in which a region in which the subject's bones are shown is cut out and performing learning using the patch image. Furthermore, since the appearance of the bone metastasis region does not depend much on the shape of the organ, learning can be performed even when the entire organ is not photographed. Therefore, patch images are suitable as training data for learning a neural network model for detecting bone metastasis regions.

実施の形態の学習装置において、パッチ画像作成部は、被験者のシンチグラム上で所定の大きさのウィンドウを走査し、当該ウィンドウ内に被験者の骨が写っているときに、ウィンドウの領域をパッチ画像として切り出してもよい。このようにウィンドウを走査してパッチ画像を切り出すことにより、被験者のシンチグラムから万遍なくパッチ画像を切り出せる。 In the learning device of the embodiment, the patch image creation unit scans a window of a predetermined size on the scintigram of the subject, and when bones of the subject are included in the window, converts the area of the window into a patch image. You can also cut it out as By scanning the window and cutting out patch images in this way, patch images can be evenly cut out from the subject's scintigram.

実施の形態の学習装置は、パッチ画像作成部にて作成したパッチ画像において、骨転移領域又は非骨転移領域を含むパッチ画像と骨転移領域及び非骨転移領域のいずれも含まないパッチ画像の構成比を求める教師データ分析部を備えてもよい。 The learning device of the embodiment is configured such that, in the patch images created by the patch image creation unit, a patch image that includes a bone metastasis region or a non-bone metastasis region and a patch image that does not include either a bone metastasis region or a non-bone metastasis region are configured. It may also include a teacher data analysis unit that calculates the ratio.

発明者らは、様々な教師データで学習を行って生成したモデルを使って推論を行い、骨転移領域の検出を適切に行えるニューラルネットワークモデルを生成できる条件について検討した。その結果、教師データを構成するパッチ画像の内容(骨転移領域又は非骨転移領域を含むパッチ画像と、骨転移領域及び非骨転移領域のいずれも含まないパッチ画像の構成比)が、ニューラルネットワークモデルの精度に関係していることを見出した。実施の形態によれば、学習に用いた教師データの分析を行い、教師データの内容を表示することにより、適切な学習を行なえるように教師データを調整することが可能となる。 The inventors performed inference using a model generated by learning with various training data, and investigated conditions under which a neural network model that can appropriately detect bone metastasis areas can be generated. As a result, the content of the patch images that make up the training data (composition ratio of patch images that include bone metastasis areas or non-bone metastasis areas to patch images that do not include either bone metastasis areas or non-bone metastasis areas) is determined by the neural network. We found that this is related to the accuracy of the model. According to the embodiment, by analyzing the teacher data used for learning and displaying the contents of the teacher data, it becomes possible to adjust the teacher data so that appropriate learning can be performed.

実施の形態の学習装置は、教師データ分析部にて求めた構成比が、所定の範囲に含まれるように、パッチ画像作成部にて作成されたパッチ画像から、骨転移領域及び非骨転移領域のいずれも含まないパッチ画像を間引くパッチ画像選択部を備えてもよい。 The learning device of the embodiment calculates bone metastasis areas and non-bone metastasis areas from patch images created by the patch image creation unit so that the composition ratio determined by the teacher data analysis unit falls within a predetermined range. A patch image selection unit may be provided that thins out patch images that do not include any of the above.

骨転移領域を含むパッチ画像の構成比が小さすぎると学習によって得られるモデルの精度が悪くなる可能性があるので、実施の形態の構成により、骨転移領域を含むパッチ画像の構成比を大きくする。 If the composition ratio of patch images containing bone metastasis regions is too small, the accuracy of the model obtained by learning may deteriorate. Therefore, according to the configuration of the embodiment, the composition ratio of patch images containing bone metastasis regions is increased. .

実施の形態の学習装置は、パッチ画像作成部にて作成されたパッチ画像の少なくとも一部のパッチ画像を左右反転または上下反転させるパッチ画像反転部を備えてもよい。 The learning device of the embodiment may include a patch image reversing unit that horizontally or vertically inverts at least part of the patch images created by the patch image creating unit.

このようにパッチ画像を反転することにより、教師データのバリエーションが増加し、学習によって精度の高いモデルを生成することができる。なお、パッチ画像を反転した場合、反転されたパッチ画像を用いてもよいし、反転されたパッチ画像と反転前のパッチ画像の両方を教師データとして用いてもよい。 By inverting the patch images in this way, variations in the training data are increased, and a highly accurate model can be generated through learning. Note that when the patch image is inverted, the inverted patch image may be used, or both the inverted patch image and the patch image before inversion may be used as the teacher data.

実施の形態の学習装置において、ニューラルネットワークは、Encoder-Decoder構造を有し、Encoder構造で得た特徴マップをDecoder構造に入力する構造を含んでもよい。 In the learning device of the embodiment, the neural network has an encoder-decoder structure, and may include a structure for inputting a feature map obtained in the encoder structure to the decoder structure.

この構成により、Encoder構造によって画像の大局的な特徴を捉え、Encodeの過程で得られた特徴マップをDecoder構造に入力することで局所的な特徴も学習する。骨転移領域部位の空間的広がりを捉えることで、骨転移領域部位の位置情報を適切に求めることができる。 With this configuration, global features of an image are captured by the encoder structure, and local features are also learned by inputting the feature map obtained in the encoding process to the decoder structure. By capturing the spatial spread of the bone metastasis region, positional information on the bone metastasis region can be appropriately obtained.

実施の形態の骨転移検出装置において、ニューラルネットワークは、Encoder-Decoder構造を有する第1のネットワーク部分と、Encoder-Decoder構造を有する第2のネットワーク部分とを結合した構造を有し、入力部は、各被験者について、前後から撮影したシンチグラム及びその正解ラベルを入力し、学習部は、第1のネットワーク部分の入力層に被験者を前方から撮影したシンチグラムを入力すると共に、第2のネットワーク部分の入力層に被験者を後方から撮影したシンチグラムを入力して学習を行ってもよい。 In the bone metastasis detection device of the embodiment, the neural network has a structure in which a first network part having an encoder-decoder structure and a second network part having an encoder-decoder structure are combined, and the input part is , for each subject, the scintigram taken from the front and back and its correct label are input, and the learning unit inputs the scintigram taken from the front of the subject into the input layer of the first network part, and inputs the scintigram taken from the front of the subject into the input layer of the first network part. Learning may be performed by inputting a scintigram photographed from the rear of the subject into the input layer.

また、実施の形態の骨転移検出装置において、ニューラルネットワークは、Encoder-Decoder構造を有する第1のネットワーク部分と、Encoder-Decoder構造を有する第2のネットワーク部分とを結合した構造を有し、入力部は、各被験者について、前後から撮影したシンチグラム及びその正解ラベルを入力し、学習部は、第1のネットワーク部分の入力層に被験者を前方から撮影したシンチグラムから切り出した第1のパッチ画像を入力すると共に、第2のネットワーク部分の入力層に被験者を後方から撮影したシンチグラムから切り出した、第1のパッチ画像と対応する第2のパッチ画像を入力して学習を行ってもよい。 Further, in the bone metastasis detection device of the embodiment, the neural network has a structure in which a first network part having an encoder-decoder structure and a second network part having an encoder-decoder structure are combined, and The learning section inputs the scintigrams taken from the front and back of each subject and their correct labels, and the learning section inputs the first patch image cut out from the scintigram taken from the front of the subject into the input layer of the first network section. At the same time, learning may be performed by inputting, into the input layer of the second network part, a second patch image corresponding to the first patch image cut out from a scintigram photographed from the rear of the subject.

前方から撮影したシンチグラムと後方から撮影したシンチグラムを独立して処理するのではなく、Encoder-Decoder構造を有する2つのネットワーク部分を結合した構造のニューラルネットワークで同時に処理することにより、骨転移領域と非骨転移領域の鑑別の精度を高めたニューラルネットワークのモデルを生成することができる。 Instead of processing the scintigrams taken from the front and the scintigrams taken from the back independently, they are processed simultaneously by a neural network that combines two network parts with an encoder-decoder structure, thereby detecting the bone metastasis area. It is possible to generate a neural network model that improves the accuracy of differentiation of non-bone metastatic areas.

実施の形態の骨転移検出装置において、非骨転移領域には非悪性病変領域が含まれ、入力部は、骨転移領域と非悪性病変領域のそれぞれの正解ラベルが付された複数の被験者のシンチグラムを教師データとして受け付け、学習部は、教師データを用いて、骨転移領域と非悪性病変領域のそれぞれを検出するニューラルネットワークのモデルを学習してもよい。 In the bone metastasis detection device according to the embodiment, the non-bone metastasis region includes a non-malignant lesion region, and the input section is configured to perform scintigraphy of a plurality of subjects with respective correct labels for the bone metastasis region and the non-malignant lesion region. gram as training data, and the learning unit may use the training data to learn a neural network model for detecting each of the bone metastasis region and the non-malignant lesion region.

実施の形態の骨転移検出装置は、上記の学習装置で学習されたニューラルネットワークの学習済みモデルを記憶した記憶部と、被験者のシンチグラムを入力する入力部と、シンチグラムからパッチ画像を作成するパッチ画像作成部と、記憶部から読み出した学習済みモデルの入力層にパッチ画像を入力し、パッチ画像に含まれる骨転移領域を求める推論部と、骨転移領域を示すデータを出力する出力部とを備える。この構成により、骨転移領域の検出率を維持しつつ、拾いすぎを低減することができる。 The bone metastasis detection device of the embodiment includes a storage unit that stores a trained model of a neural network trained by the above-described learning device, an input unit that inputs a scintigram of a subject, and a patch image that is created from the scintigram. a patch image creation unit; an inference unit that inputs the patch image to the input layer of the learned model read from the storage unit and calculates the bone metastasis area included in the patch image; and an output unit that outputs data indicating the bone metastasis area. Equipped with With this configuration, it is possible to reduce excessive detection while maintaining the detection rate of bone metastasis regions.

実施の形態のプログラムは、被験者のシンチグラムから骨転移領域を検出するためのプログラムであって、コンピュータに、被験者のシンチグラムを入力するステップと、シンチグラムからパッチ画像を作成するステップと、上記した学習装置で学習されたニューラルネットワークの学習済みモデルを記憶した記憶部から学習済みモデルを読み出し、学習済みモデルの入力層にパッチ画像を入力し、パッチ画像に含まれる骨転移領域を求めるステップと、骨転移領域を示すデータを出力するステップとを実行させてもよい。 The program of the embodiment is a program for detecting a bone metastasis region from a scintigram of a subject, and includes the steps of inputting the scintigram of the subject into a computer, creating a patch image from the scintigram, and the steps described above. reading the trained model from a storage unit that stores the trained model of the neural network trained by the learning device, inputting the patch image to the input layer of the trained model, and calculating the bone metastasis area included in the patch image; , and outputting data indicating the bone metastasis area.

実施の形態のプログラムは、被験者のシンチグラムから骨転移領域を検出するためのプログラムであって、コンピュータに、被験者を前後から撮影した2枚のシンチグラムを入力するステップと、2枚のシンチグラムのうちの一方を水平方向に反転するステップと、教師データを用いた学習によって予め生成された学習済みモデルを記憶した記憶部から、学習済みモデルを読み出し、学習済みモデルの入力層に、2枚のシンチグラムを入力し、シンチグラムに含まれる骨転移領域を求めるステップと、骨転移領域を示すデータを出力するステップとを実行させる。このように前後から撮影した2枚のシンチグラムの一方を反転させて同じ向きとしたうえで、2枚のシンチグラムを学習済みモデルの入力層に入力して推論を行うことにより、骨転移領域を精度良く検出することができる。 The program of the embodiment is a program for detecting a bone metastasis area from a scintigram of a subject, and includes the steps of inputting two scintigrams taken from the front and back of the subject into a computer, and The trained model is read from the storage unit that stores the trained model generated in advance by learning using the teacher data, and the two sheets are added to the input layer of the trained model. inputting a scintigram of the scintigram, calculating the bone metastasis region included in the scintigram, and outputting data indicating the bone metastasis region. In this way, by inverting one of the two scintigrams taken from the front and back so that they are in the same direction, and then inputting the two scintigrams into the input layer of the trained model and performing inference, the bone metastasis area can be determined. can be detected with high accuracy.

以下、図面を参照して、実施の形態の学習装置及び骨転移検出装置について説明する。
(第1の実施の形態)
図1は、第1の実施の形態の学習装置1の構成を示す図である。第1の実施の形態の学習装置1は、被験者のシンチグラムから骨転移領域を検出するためのニューラルネットワークモデルを学習によって生成する装置である。本実施の形態の学習装置1が生成するニューラルネットワークモデルは、被験者のシンチグラムの領域を、骨転移領域、非骨転移領域および背景の3つのクラスに分類するためのモデルである。本実施の形態では、非骨転移領域のクラスには、非悪性病変領域に加え、腎臓や膀胱等の生理的集積領域を含める。
Hereinafter, a learning device and a bone metastasis detection device according to an embodiment will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram showing the configuration of a learning device 1 according to the first embodiment. A learning device 1 according to the first embodiment is a device that generates, through learning, a neural network model for detecting a bone metastasis region from a scintigram of a subject. The neural network model generated by the learning device 1 of this embodiment is a model for classifying regions of a subject's scintigram into three classes: bone metastasis region, non-bone metastasis region, and background. In this embodiment, the class of non-bone metastatic regions includes physiological accumulation regions such as the kidney and bladder in addition to non-malignant lesion regions.

学習装置1は、教師データを入力する入力部10と、教師データに基づいてニューラルネットワークモデルの学習を行う制御部11と、学習により生成されたモデルを記憶する記憶部16と、記憶部16に記憶されたモデルを外部に出力する出力部17とを有している。 The learning device 1 includes an input unit 10 for inputting teacher data, a control unit 11 for learning a neural network model based on the teacher data, a storage unit 16 for storing a model generated by learning, and a storage unit 16 for storing a model generated by learning. It has an output section 17 that outputs the stored model to the outside.

図2Aは、入力部10に入力される教師データの例を示す図である。教師データは、被験者のシンチグラムと、被験者のシンチグラムに与えられた正解ラベルのデータとからなる。本例において、シンチグラムの大きさは、512×1024[pixels]である。正解ラベルは、注目画素が集積に対応する画素であるか、背景(集積以外)画素であるかを画素ごとに指定したものである。集積に対応する画素の場合は、さらに、骨転移領域、注射漏れ又は尿漏れ、非骨転移領域のいずれであるかを指定している。なお、注射漏れ又は尿漏れは、本実施の形態の骨転移検出装置20による検出の対象から除外するものとする。 FIG. 2A is a diagram showing an example of teacher data input to the input unit 10. The training data consists of the subject's scintigram and correct label data given to the subject's scintigram. In this example, the size of the scintigram is 512×1024 [pixels]. The correct label specifies, for each pixel, whether the pixel of interest is a pixel corresponding to an accumulation or a background (other than accumulation) pixel. In the case of a pixel corresponding to an accumulation, it is further specified whether it is a bone metastasis area, an injection leak or urine leak, or a non-bone metastasis area. Note that injection leakage or urine leakage is excluded from detection by the bone metastasis detection apparatus 20 of this embodiment.

次に、制御部11について説明する。制御部11は、濃度正規化処理部12と、パッチ画像作成部13と、パッチ画像反転部14と、学習部15とを有している。 Next, the control section 11 will be explained. The control section 11 includes a density normalization processing section 12 , a patch image creation section 13 , a patch image inversion section 14 , and a learning section 15 .

濃度正規化処理部12は、被験者ごとに異なる正常骨領域の濃度値のばらつきを抑えるために、濃度値の正規化を行う機能を有する。濃度正規化処理部12は、濃度レンジ調整、正常骨レベルの同定、グレースケール正規化の処理により濃度値の正規化を行う。濃度レンジの調整は、例えば、入力画像の濃度値0を除く濃度ヒストグラムの累積上位0.2%のピクセル値が1023に、累積上位98%のピクセル値が0になるように線形変換する。 The density normalization processing unit 12 has a function of normalizing density values in order to suppress variations in density values of normal bone regions that differ from subject to subject. The density normalization processing unit 12 normalizes density values by processing density range adjustment, normal bone level identification, and gray scale normalization. To adjust the density range, for example, linear conversion is performed so that the cumulative top 0.2% pixel values of the density histogram excluding the density value 0 of the input image become 1023, and the cumulative top 98% pixel values become 0.

正常骨レベルの同定は、濃度レンジ調整後の画像の濃度値0を除く濃度ヒストグラムに対して、多重閾値法を利用する。閾値は、ヒストグラムの累積上位1%から25%のピクセル値まで1%刻みとする。それぞれの閾値でレンジ調整後の画像を2値化後、4連結ラベリングを行う。その結果に対して、面積が10[pixels]以上4900[pixels]未満の領域を抽出する。次に、求めた領域内の平均濃度値を降順に並べ、移行点(正常領域と異常領域の境)を求める。2つの連続する平均濃度値がピークピクセルの3%以下となるところを移行点とする。ピークピクセルとは、領域ごとの平均濃度値の最大値のことである。 Identification of the normal bone level uses a multiple threshold method for the density histogram excluding the density value 0 of the image after density range adjustment. The threshold value is set in 1% increments from the cumulative top 1% of the histogram to the 25% pixel value. After binarizing the range-adjusted image using each threshold value, 4-concatenated labeling is performed. From the results, regions having an area of 10 [pixels] or more and less than 4900 [pixels] are extracted. Next, the average density values within the determined regions are arranged in descending order, and a transition point (border between the normal region and the abnormal region) is determined. A transition point is defined as a point where two consecutive average density values are 3% or less of the peak pixel. The peak pixel is the maximum value of the average density value for each region.

続いて、グレースケール正規化では、移行点を含む連続した5点の平均濃度値の平均値Pを求める。最後に正規化係数F=k/Pを濃度レンジ調整後の画像に乗じることで正規化を行う。ここで、定数kは358.4としたが、この値は実験的に決定したものである(伊藤達也「骨シンチグラム上の異常集積検出処理の開発」東京農工大学学士論文、2015)。 Subsequently, in gray scale normalization, the average value P of the average density values of five consecutive points including the transition point is determined. Finally, normalization is performed by multiplying the image after density range adjustment by a normalization coefficient F=k/P. Here, the constant k was set to 358.4, but this value was determined experimentally (Tatsuya Ito, "Development of abnormal accumulation detection processing on bone scintigrams", Tokyo University of Agriculture and Technology Bachelor's thesis, 2015).

パッチ画像作成部13は、被験者のシンチグラムからパッチ画像を切り出して作成する機能を有する。本例において、パッチ画像のサイズは、64×64[pixels]である。被験者のシンチグラム(512×1024[pixels])の上を64×64[pixels]のウィンドウを2[pixels]間隔で走査し、(1)ウィンドウ内に集積ラベル(骨転移領域又は非骨転移領域)が含まれるか、あるいは(2)骨領域が含まれ、集積が含まれない場合に、画像パッチとして切り出す。パッチ画像作成部13は、入力された複数の被験者の骨シンチグラムから画像パッチを切り出す。図2B及び図2Cは、被験者のシンチグラムから切り出された画像パッチ及びそれに対応する正解ラベルの例を示す図である。 The patch image creation unit 13 has a function of cutting out and creating patch images from the subject's scintigram. In this example, the size of the patch image is 64×64 [pixels]. A window of 64 x 64 [pixels] is scanned over the subject's scintigram (512 x 1024 [pixels]) at intervals of 2 [pixels], and (1) the accumulated labels (bone metastasis area or non-bone metastasis area) are displayed in the window. ) is included, or (2) a bone region is included and no accumulation is included, the image is extracted as an image patch. The patch image creation unit 13 cuts out image patches from the input bone scintigrams of a plurality of subjects. FIGS. 2B and 2C are diagrams illustrating examples of image patches cut out from the subject's scintigram and their corresponding correct labels.

パッチ画像反転部14は、作成されたパッチ画像のうち、一部のパッチ画像を左右反転させる機能を有する。 The patch image reversing unit 14 has a function of horizontally reversing some of the created patch images.

学習部15は、パッチ画像を用いて、シンチグラムから骨転移領域を検出するためのニューラルネットワークモデルの学習を行う機能を有する。本実施の形態では、ニューラルネットワークモデルとして、FCN(Fully Convolutional Network)の一つであるU-Netを用いる。 The learning unit 15 has a function of learning a neural network model for detecting bone metastasis regions from scintigrams using patch images. In this embodiment, U-Net, which is one of FCN (Fully Convolutional Network), is used as a neural network model.

図3は、本実施の形態で用いるニューラルネットワークモデルの例を示す図である。図3では、パッチサイズ64×64[pixel]のパッチを入力した際の構造の例を示している。本実施の形態で用いるニューラルネットワークモデルは、Encoder-Decoder構造を有する。Encoder構造では、畳み込みとプーリングを繰り返し行い、画像の大局的な特徴を抽出する。Decoder構造によって、大局的な構造を元のサイズの画像に戻していくが、その過程において、Encodeの過程で得られた特徴を結合することにより、局所的な特徴も学習する。 FIG. 3 is a diagram showing an example of a neural network model used in this embodiment. FIG. 3 shows an example of the structure when a patch with a patch size of 64×64 [pixel] is input. The neural network model used in this embodiment has an encoder-decoder structure. The encoder structure repeatedly performs convolution and pooling to extract global features of the image. The decoder structure restores the global structure to the original size image, but in the process, local features are also learned by combining the features obtained in the encode process.

また、本実施の形態で用いるニューラルネットワークモデルは、より高度な特徴を抽出するために、残差ブロックのひとつであるBottleneck(K. He, X. Zhang, S. Ren, and J. Sun「Deep residual learning for image recognition」arXiv:1512.03385, 2015)を有する。 In addition, in order to extract more advanced features, the neural network model used in this embodiment uses one of the residual blocks, Bottleneck (K. He, X. Zhang, S. Ren, and J. Sun ``Deep residual learning for image recognition”arXiv:1512.03385, 2015).

図3に示すニューラルネットワークモデルの構造について詳細に説明する。本例において、入力画像はグレースケールであり、入力の次元は64×64×1である。まず、畳み込み層でチャンネル数を32にし、Bottleneckに通す。その後、2×2のMAXプーリングを行い、チャンネル数が倍になるようにBottleneckに通す。これらの層を計4回繰り返し、Encoderの最終的な特徴マップのサイズは4×4×512となる。 The structure of the neural network model shown in FIG. 3 will be explained in detail. In this example, the input image is grayscale and the dimensions of the input are 64x64x1. First, the number of channels is set to 32 in the convolutional layer and passed through Bottleneck. After that, 2×2 MAX pooling is performed and the signals are passed through Bottleneck so that the number of channels is doubled. These layers are repeated a total of four times, and the final feature map size of the encoder is 4×4×512.

続いて、逆畳み込み層を用いて、特徴マップのサイズを倍にする。そして、逆畳み込み層の出力とEncoderの特徴マップを連結(concat)し、Bottleneckに通す。Encoderと同様にこれらの層を計4回繰り返し、Decoderの最終的な特徴マップのサイズは64×64×32となる。最後に、1×1の畳み込み層で出力クラス数である3チャンネル(背景、骨転移領域、非骨転移領域)にし、64×64×3にする。また、全ての3×3の畳み込み層ではゼロパディングし、畳み込み層の後ろにはBatch Normalization(S. Ioffe, and C. Szegedy, 「Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift」arXiv:1502.03167, 2015)とReLU関数がある。 Next, we use a deconvolution layer to double the size of the feature map. Then, the output of the deconvolution layer and the feature map of the encoder are concatenated and passed through Bottleneck. Similar to the Encoder, these layers are repeated a total of four times, and the final feature map size of the Decoder is 64×64×32. Finally, the number of output classes is 3 channels (background, bone metastasis region, and non-bone metastasis region) using a 1×1 convolution layer, which is 64×64×3. In addition, all 3×3 convolutional layers are zero-padded, and after the convolutional layers, Batch Normalization (S. Ioffe, and C. Szegedy, “Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift” arXiv:1502.03167 , 2015) and the ReLU function.

学習部15は、パッチ画像(パッチ画像反転部14で左右反転されたものを含む)とその正解ラベルを用いて、ニューラルネットワークモデルの学習を行う。パッチ画像をニューラルネットワークモデルに入力したときの出力をソフトマックス関数で変換した確率pと正解の確率との誤差(損失関数)を評価することで学習を行う。ソフトマックス関数と損失関数を次に示す。

Figure 0007352261000001
The learning unit 15 performs learning of a neural network model using patch images (including those that have been horizontally inverted by the patch image inverting unit 14) and their correct labels. Learning is performed by evaluating the error (loss function) between the probability p i of the correct answer and the probability p i obtained by converting the output when a patch image is input to the neural network model using a softmax function. The softmax function and loss function are shown below.
Figure 0007352261000001

また、学習部15は、検証用データセット(バリデーションセット)を用いて、学習したネットワークの検証を行う。教師データを用いて任意の反復回数だけ学習を行った学習モデルを保存し、全ての学習モデルに対してバリデーションセットで、学習モデルのパラメータの探索を行う。画素単位の拾いすぎFP(P)と画素単位の見落としFN(P)の和であるFP(P)+FN(P)を評価値として学習の反復回数を決定する。学習部15は、学習にて生成されたモデルを記憶部16に記憶する。 The learning unit 15 also verifies the learned network using a verification data set (validation set). A learning model that has been trained an arbitrary number of times using teacher data is saved, and the parameters of the learning model are searched using a validation set for all learning models. The number of repetitions of learning is determined using FP(P)+FN(P), which is the sum of pixel-by-pixel overpicking FP(P) and pixel-by-pixel oversight FN(P), as an evaluation value. The learning unit 15 stores the model generated through learning in the storage unit 16.

以上、本実施の形態の学習装置1の構成について説明したが、上記した学習装置1のハードウェアの例は、CPU、RAM、ROM、ハードディスク、ディスプレイ、キーボード、マウス、通信インターフェース等を備えたコンピュータである。上記した各機能を実現するモジュールを有するプログラムをRAMまたはROMに格納しておき、CPUによって当該プログラムを実行することによって、上記した学習装置1が実現される。このようなプログラムも本発明の範囲に含まれる。 The configuration of the learning device 1 according to the present embodiment has been described above, but an example of the hardware of the learning device 1 described above is a computer equipped with a CPU, RAM, ROM, hard disk, display, keyboard, mouse, communication interface, etc. It is. The learning device 1 described above is realized by storing a program having modules for realizing each of the functions described above in the RAM or ROM, and executing the program by the CPU. Such programs are also included within the scope of the present invention.

図4は、骨転移検出装置20の構成を示す図である。骨転移検出装置20は、被験者のシンチグラムを入力する入力部21と、被験者のシンチグラムから骨転移領域を検出する制御部22と、上述した学習装置1によって学習した学習済みモデルを記憶した記憶部26と、検出した骨転移領域のデータを出力する出力部27とを有している。 FIG. 4 is a diagram showing the configuration of the bone metastasis detection device 20. The bone metastasis detection device 20 includes an input unit 21 that inputs a scintigram of a subject, a control unit 22 that detects a bone metastasis region from the scintigram of a subject, and a memory that stores a trained model learned by the learning device 1 described above. section 26, and an output section 27 that outputs data on the detected bone metastasis region.

制御部22は、濃度正規化処理部23と、パッチ画像作成部24と、推論部25とを有している。濃度正規化処理部23は、学習装置1が備える濃度正規化処理部12と同じである。パッチ画像作成部24は、入力された被験者のシンチグラムから、64×64[pixels]のパッチ画像を切り出す機能を有する。基本的な構成は、学習装置1が備えるパッチ画像作成部13と同じであるが、パッチ画像を切り出す間隔は異なる。すなわち、学習装置1では、2[pixels]間隔で切り出しを行ったが、骨転移検出装置20では、32[pixels]間隔でパッチ画像を切り出す。 The control section 22 includes a density normalization processing section 23, a patch image creation section 24, and an inference section 25. The density normalization processing unit 23 is the same as the density normalization processing unit 12 included in the learning device 1. The patch image creation unit 24 has a function of cutting out a 64×64 [pixels] patch image from the input scintigram of the subject. The basic configuration is the same as that of the patch image creation unit 13 included in the learning device 1, but the intervals at which patch images are cut out are different. That is, in the learning device 1, patch images are cut out at intervals of 2 [pixels], but in the bone metastasis detection device 20, patch images are cut out at intervals of 32 [pixels].

推論部25は、学習済みモデル記憶部26から学習済みモデルを読み出し、学習済みモデルの入力層にパッチ画像を入力し、パッチ画像の各画素が、背景・骨転移領域・非骨転移領域の各クラスに該当する確率を求める。 The inference unit 25 reads out the trained model from the trained model storage unit 26 and inputs the patch image to the input layer of the trained model, so that each pixel of the patch image corresponds to each of the background, bone metastasis area, and non-bone metastasis area. Find the probability of falling into a class.

図5は、シンチグラムから切り出したパッチ画像の例を示す図である。図5に示すように、パッチ画像は、互いに隣り合うパッチ画像が半分ずつ重なるようにして、被験者のシンチグラムから切り出される。したがって、例えば、領域Rは、パッチ画像A~Dが重なりあっており、領域R内の画素の特徴マップは、4つのパッチ画像A~Dのそれぞれで求められている。推論部25は、4つのパッチ画像のそれぞれで求めた特徴マップの平均をとる。そして、推論部25は、再構成された出力をソフトマックス関数で確率に変換し、確率が最も高いクラスを画素ごとに判定し、最終出力とする。 FIG. 5 is a diagram showing an example of a patch image cut out from a scintigram. As shown in FIG. 5, the patch images are cut out from the subject's scintigram in such a way that adjacent patch images overlap each other by half. Therefore, for example, in region R, patch images A to D overlap, and the feature map of pixels in region R is obtained for each of the four patch images A to D. The inference unit 25 averages the feature maps obtained for each of the four patch images. Then, the inference unit 25 converts the reconstructed output into a probability using a softmax function, determines the class with the highest probability for each pixel, and sets it as the final output.

図6は、学習装置1の動作を示す図である。学習装置1は、教師データとして、複数の被験者のシンチグラムとそれに対応する正解ラベル(背景、骨転移領域、非骨転移領域)を入力する(S10)。学習装置1は、入力されたシンチグラムの濃度正規化を行い(S11)、正規化されたシンチグラムからパッチ画像を作成する(S12)。学習装置1は、作成されたパッチ画像のうちの一部のパッチ画像を左右反転する(S13)。続いて、学習装置1は、パッチ画像とそれに対応する正解ラベルを用いて、ニューラルネットワークモデルの学習を行い(S14)、学習によって得られたニューラルネットワークモデルを記憶部16に記憶する(S15)。なお、学習済みのモデルを骨転移検出装置20で用いる場合には、記憶部16に記憶された学習モデルを読み出して、他の装置等に出力する。 FIG. 6 is a diagram showing the operation of the learning device 1. The learning device 1 inputs scintigrams of a plurality of subjects and their corresponding correct labels (background, bone metastasis region, non-bone metastasis region) as training data (S10). The learning device 1 performs density normalization on the input scintigram (S11), and creates a patch image from the normalized scintigram (S12). The learning device 1 horizontally inverts some of the created patch images (S13). Subsequently, the learning device 1 performs learning of the neural network model using the patch images and the correct labels corresponding to the patch images (S14), and stores the neural network model obtained through the learning in the storage unit 16 (S15). Note that when a trained model is used in the bone metastasis detection device 20, the learned model stored in the storage unit 16 is read out and output to another device or the like.

図7は、骨転移検出装置20の動作を示す図である。骨転移検出装置20は、検査対象の被験者のシンチグラムを入力する(S20)。骨転移検出装置20は、入力されたシンチグラムの濃度正規化を行い(S21)、正規化されたシンチグラムからパッチ画像を作成する(S22)。骨転移検出装置20は、記憶部26から学習済みのニューラルネットワークモデルを読み出し、読み出したニューラルネットワークモデルの入力層にパッチ画像を入力して、パッチ画像に含まれる各画素の骨転移領域を検出する(S23)。骨転移検出装置20は、複数のパッチ画像がオーバーラップする領域の画素について、検出結果を統合する(S24)。骨転移検出装置20は、求めた骨転移領域の最終結果を出力する(S25)。 FIG. 7 is a diagram showing the operation of the bone metastasis detection device 20. The bone metastasis detection device 20 inputs a scintigram of a subject to be examined (S20). The bone metastasis detection apparatus 20 performs density normalization of the input scintigram (S21), and creates a patch image from the normalized scintigram (S22). The bone metastasis detection device 20 reads out the learned neural network model from the storage unit 26, inputs the patch image to the input layer of the read neural network model, and detects the bone metastasis region of each pixel included in the patch image. (S23). The bone metastasis detection device 20 integrates detection results for pixels in an area where a plurality of patch images overlap (S24). The bone metastasis detection device 20 outputs the final result of the determined bone metastasis area (S25).

第1の実施の形態の学習装置1は、被験者のシンチグラムとそれに対応する正解ラベルを用いてニューラルネットワークモデルを学習する。この学習済みモデルを用いることにより、いわゆる「拾いすぎ」を低減し、骨転移領域を適切に検出することができる。 The learning device 1 of the first embodiment learns a neural network model using a subject's scintigram and its corresponding correct answer label. By using this trained model, so-called "overpicking" can be reduced and bone metastasis regions can be appropriately detected.

また、第1の実施の形態の学習装置1は、被験者のシンチグラムから切り出したパッチ画像を用いて学習を行うことにより、学習時に必要となるメモリサイズを低減することができる。また、骨転移領域の発生箇所は、器官の形状によらないので、パッチ画像に分割して学習を行っても、適切な学習を行なえる。 Moreover, the learning device 1 of the first embodiment can reduce the memory size required during learning by performing learning using patch images cut out from the subject's scintigram. Further, since the location of the bone metastasis region does not depend on the shape of the organ, appropriate learning can be performed even if learning is performed by dividing into patch images.

また、第1の実施の形態の学習装置1は、多数のパッチ画像のうちの一部のパッチ画像を左右反転することにより、教師データのバリエーションを増やし、ロバストな学習結果が得られる。なお、本実施の形態では、パッチ画像を左右反転する例を挙げたが、パッチ画像を上下反転してもよい。上下反転したパッチ画像を用いる方法は、背景の骨の解剖学的構造が上下対称の場合(例えば、鉛直方向に伸びる四肢の集積を調べる場合等)に、好適である。 In addition, the learning device 1 of the first embodiment increases variations in teacher data by horizontally inverting some of the patch images among a large number of patch images, thereby making it possible to obtain robust learning results. Note that in this embodiment, an example is given in which the patch image is horizontally reversed, but the patch image may be vertically reversed. The method using a vertically inverted patch image is suitable when the anatomical structure of the background bone is vertically symmetrical (for example, when examining an accumulation of limbs extending in the vertical direction).

(第2の実施の形態)
図8は、第2の実施の形態の学習装置2の構成を示す図である。第2の実施の形態の学習装置2が生成するニューラルネットワークモデルは、第1の実施の形態と同様に、被験者のシンチグラムの領域を、骨転移領域、非骨転移領域および背景の3つのクラスに分類するためのモデルである。第2の実施の形態の学習装置2の基本的な構成は、第1の実施の形態の学習装置1と同じであるが、第2の実施の形態の学習装置2は、教師データである多数の画像パッチの内容を分析する教師データ分析部18を備えている。多数の画像パッチには、骨転移領域又は非骨転移領域が含まれるパッチ画像と、骨転移領域及び非骨転移領域の何れも含まないパッチ画像がある。教師データ分析部18は、教師データである多数のパッチ画像に含まれる、骨転移領域又は非骨転移領域が含まれるパッチ画像と、骨転移領域及び非骨転移領域のいずれも含まないパッチ画像の構成比を求める。出力部17は、記憶部16に記憶された学習済みモデルを生成したパッチ画像の構成比のデータを出力する。
(Second embodiment)
FIG. 8 is a diagram showing the configuration of the learning device 2 according to the second embodiment. Similar to the first embodiment, the neural network model generated by the learning device 2 of the second embodiment divides the region of the subject's scintigram into three classes: bone metastasis region, non-bone metastasis region, and background. This is a model for classifying. The basic configuration of the learning device 2 of the second embodiment is the same as the learning device 1 of the first embodiment, but the learning device 2 of the second embodiment has a large number of teaching data. The computer includes a teacher data analysis unit 18 that analyzes the content of the image patch. The large number of image patches include patch images that include bone metastasis areas or non-bone metastasis areas, and patch images that do not include either bone metastasis areas or non-bone metastasis areas. The teacher data analysis unit 18 analyzes patch images that include a bone metastasis area or non-bone metastasis area and patch images that do not include either a bone metastasis area or a non-bone metastasis area, which are included in a large number of patch images that are teacher data. Find the composition ratio. The output unit 17 outputs data on the composition ratio of the patch image that generated the trained model stored in the storage unit 16.

このように学習済みモデルの生成に用いたパッチ画像の構成比を出力することにより、学習済みモデルを用いて行った骨転移領域の検出精度が高くならず、新しい学習済みモデルを生成する際に、教師データをどのように変更して学習を行うべきかのヒントが得られる。本実施の形態では、パッチ画像の構成比を見たユーザが、教師データを変更する例を挙げているが、さらに進めて、パッチ画像の構成比に基づいて、学習装置2が教師データを変更してもよい。 By outputting the composition ratio of the patch images used to generate the trained model in this way, the accuracy of detecting bone metastasis areas using the trained model will not be high, and when generating a new trained model, , you can get hints on how to change the training data to perform learning. In this embodiment, an example is given in which a user who sees the composition ratio of a patch image changes the teacher data. You may.

図9は、第2の実施の形態の変形例である学習装置3を示す図である。変形例に係る学習装置3は、第2の実施の形態の学習装置2の構成に加えて、パッチ画像選択部19を備えている。パッチ画像選択部19は、教師データ分析部18による分析結果に基づいて、学習に使うパッチ画像を選択する機能を有する。本発明者らの研究によれば、骨転移領域及び非骨転移領域の何れも含まないパッチ画像が多すぎると、適切なモデルを生成できないと考えられる。そこで、変形例に係る学習装置3は、骨転移領域又は非骨転移領域が含まれないパッチ画像の構成比が所定の閾値以上である場合には、骨転移領域又は非骨転移領域が含まれないパッチ画像をすべて使用するのではなく、学習に使用するパッチ画像を選択する。これにより、骨転移領域の検出精度の良いモデルを生成することができる可能性が高まる。 FIG. 9 is a diagram showing a learning device 3 that is a modification of the second embodiment. The learning device 3 according to the modified example includes a patch image selection unit 19 in addition to the configuration of the learning device 2 of the second embodiment. The patch image selection unit 19 has a function of selecting patch images to be used for learning based on the analysis result by the teacher data analysis unit 18. According to the research of the present inventors, it is considered that if there are too many patch images that do not include either a bone metastasis region or a non-bone metastasis region, an appropriate model cannot be generated. Therefore, in the learning device 3 according to the modified example, when the composition ratio of patch images that do not include bone metastasis areas or non-bone metastasis areas is equal to or higher than a predetermined threshold, the learning device 3 does not include bone metastasis areas or non-bone metastasis areas. Select which patch images to use for training instead of using all available patch images. This increases the possibility of generating a model with high accuracy in detecting bone metastasis regions.

(第3の実施の形態)
図11は、第3の実施の形態の学習装置4を示す図である。第3の実施の形態の学習装置4は、学習対象のニューラルネットワークのモデルとして、Butterfly-Netを用いる。Butterfly-Netは、Encoder-Decoder構造を有する2つのネットワーク部分を結合した構造を有している。Butterfly-Netについては、「Btrfly Net: Vertebrae Labelling with Energybased Adversarial Learning of Local Spine Prior」Anjany Sekuboyina他、MICCAI 2018に詳しく記載されている。
(Third embodiment)
FIG. 11 is a diagram showing the learning device 4 according to the third embodiment. The learning device 4 of the third embodiment uses Butterfly-Net as a model of a neural network to be learned. Butterfly-Net has a structure in which two network parts having an encoder-decoder structure are connected. Butterfly-Net is described in detail in "Btrfly Net: Vertebrae Labeling with Energybased Adversarial Learning of Local Spine Prior" by Anjany Sekuboyina et al., MICCAI 2018.

学習装置4は、教師データを入力する入力部40と、教師データに基づいてニューラルネットワークモデルの学習を行う制御部41と、学習により生成されたモデルを記憶する記憶部47と、記憶部47に記憶されたモデルを外部に出力する出力部48とを有している。なお、第3の実施の形態の学習装置4は、被験者のシンチグラムの領域を、骨転移領域、非悪性病変領域(骨折、炎症等)、その他領域(腎臓、膀胱等の生理的集積領域、注射漏れ・尿漏れ、背景)の3クラスに分類するためのモデルを生成する。本実施の形態では、生理的集積領域をその他領域のクラスに含め、非悪性病変領域とは別のクラスに分類する。 The learning device 4 includes an input section 40 for inputting teacher data, a control section 41 for learning a neural network model based on the teacher data, a storage section 47 for storing a model generated by learning, and a storage section 47 for storing a model generated by learning. It has an output section 48 that outputs the stored model to the outside. The learning device 4 of the third embodiment divides the subject's scintigram area into bone metastasis areas, non-malignant lesion areas (fractures, inflammation, etc.), other areas (physiological accumulation areas such as kidneys, bladder, etc.) A model is generated for classification into three classes: injection leakage, urine leakage, and background). In this embodiment, physiological accumulation regions are included in the class of other regions and classified into a different class from non-malignant lesion regions.

本実施の形態の学習装置4は、教師データとして、前方から撮影した被験者のシンチグラム(以下、「前方画像」という)と後方から撮影した被験者のシンチグラム(以下、「後方画像」という)と、それぞれのシンチグラムに与えられた正解ラベルを用いる。図12は、前方画像と後方画像の例を示す図である。なお、後方画像は水平方向に反転されている。 The learning device 4 of the present embodiment uses, as training data, a scintigram of the subject taken from the front (hereinafter referred to as "front image") and a scintigram of the subject taken from the rear (hereinafter referred to as "back image"). , using the ground truth label given to each scintigram. FIG. 12 is a diagram showing an example of a front image and a rear image. Note that the rear image is horizontally reversed.

制御部41は、画像反転部42と、前後画像位置合せ部43と、濃度正規化処理部44と、パッチ画像作成部45と、学習部46とを有している。 The control section 41 includes an image inversion section 42 , a front and back image alignment section 43 , a density normalization processing section 44 , a patch image creation section 45 , and a learning section 46 .

画像反転部42は、後方画像を反転する機能を有する。画像反転部42にて反転を行う際には、後方画像に与えられた正解ラベルも反転する。前後画像位置合せ部43は、前方画像と反転された後方画像との位置合わせを行う。なお、ここでは後方画像を反転させて前方画像と位置合わせする例を挙げているが、前方画像を反転させて後方画像と位置合わせすることとしても、もちろんよい。 The image reversing unit 42 has a function of reversing the rear image. When the image reversing unit 42 performs reversal, the correct label given to the backward image is also reversed. The front and rear image alignment unit 43 aligns the front image and the reversed rear image. Although an example is given here in which the rear image is inverted and aligned with the front image, it is of course possible to invert the front image and align it with the rear image.

濃度正規化処理部44は、被験者ごとに異なる正常骨領域の濃度値のばらつきを抑えるために、濃度値の正規化を行う機能を有する。濃度正規化処理部44は、濃度レンジ調整、正常骨レベルの同定、グレースケール正規化の処理により濃度値の正規化を行う。濃度正規化処理部44は、入力されたシンチグラムの濃度Iinを次式(3)によって正規化した濃度Inormalizedに変換する。

Figure 0007352261000002
The density normalization processing unit 44 has a function of normalizing density values in order to suppress variations in density values of normal bone regions that differ from subject to subject. The density normalization processing unit 44 normalizes density values by processing density range adjustment, normal bone level identification, and gray scale normalization. The density normalization processing unit 44 converts the density I in of the input scintigram into a normalized density I normalized using the following equation (3).
Figure 0007352261000002

パッチ画像作成部45は、被験者のシンチグラムからパッチ画像を切り出して作成する機能を有する。本実施の形態においては、パッチ画像作成部45は、前方画像と後方画像から対応する場所のパッチ画像を切り出して、前後一対のパッチ画像を生成する。図12において、前方画像から得られたパッチ画像Aと後方画像から得られたパッチ画像A´は対をなすパッチ画像である。また、パッチ画像Bとパッチ画像B´も対をなすパッチ画像である。 The patch image creation unit 45 has a function of cutting out and creating patch images from the subject's scintigram. In the present embodiment, the patch image creation unit 45 cuts out patch images at corresponding locations from the front image and the rear image to generate a pair of front and rear patch images. In FIG. 12, patch image A obtained from the front image and patch image A' obtained from the rear image are paired patch images. Furthermore, patch image B and patch image B' are also a pair of patch images.

本例において、パッチ画像のサイズは、64×64[pixels]である。被験者のシンチグラム(512×1024[pixels])の上を64×64[pixels]のウィンドウを2[pixels]間隔で走査し、(1)ウィンドウ内に集積ラベル(骨転移領域又は非骨転移領域)が含まれるか、あるいは(2)骨領域が含まれ、集積が含まれない場合に、画像パッチとして切り出す。前方画像または後方画像のいずれか一方で上記(1)(2)の条件に該当し、パッチ画像を切り出した場合には、前方画像または後方画像の他方から対になるパッチ画像を切り出す。 In this example, the size of the patch image is 64×64 [pixels]. A window of 64 x 64 [pixels] is scanned over the subject's scintigram (512 x 1024 [pixels]) at intervals of 2 [pixels], and (1) the accumulated labels (bone metastasis area or non-bone metastasis area) are displayed in the window. ) is included, or (2) a bone region is included and no accumulation is included, the image is extracted as an image patch. If either the front image or the rear image meets the conditions (1) and (2) above and a patch image is cut out, a paired patch image is cut out from the other of the front image or the back image.

学習部46は、パッチ画像を用いて、シンチグラムから骨転移領域を検出するためのニューラルネットワークモデルの学習を行う機能を有する。本実施の形態では、ニューラルネットワークモデルとして、2つのU-Netを結合した構造を有するButterfly-Netを用いる。 The learning unit 46 has a function of learning a neural network model for detecting bone metastasis regions from scintigrams using patch images. In this embodiment, Butterfly-Net, which has a structure in which two U-Nets are connected, is used as a neural network model.

図13は、本実施の形態で用いるButterfly-Netの例を示す図である。Butterfly-Netの上側は下の凸の構成を有しており、図3で示したネットワークとほぼ同じ構造を有している。Butterfly-Netの下側は上に凸の構成を有しており、図3で示したネットワークと同じ構造を有している(上下を反転して描いているだけである)。Butterfly-Netは、2つのU-Netが8×8の128個ずつの特徴マップのところで結合されている。 FIG. 13 is a diagram showing an example of Butterfly-Net used in this embodiment. The upper side of the Butterfly-Net has a downward convex configuration, and has almost the same structure as the network shown in FIG. 3. The lower side of the Butterfly-Net has an upwardly convex configuration, and has the same structure as the network shown in FIG. 3 (it is only drawn upside down). In Butterfly-Net, two U-Nets are combined at 128 8×8 feature maps.

また、本実施の形態で用いるニューラルネットワークモデルは、より高度な特徴を抽出するために、残差ブロックのひとつであるBottleneck(K. He, X. Zhang, S. Ren, and J. Sun「Deep residual learning for image recognition」arXiv:1512.03385, 2015)を用いている。このように改良されたButterfly-Netを、本書では「ResButterfly-Net」という。 In addition, in order to extract more advanced features, the neural network model used in this embodiment uses one of the residual blocks, Bottleneck (K. He, X. Zhang, S. Ren, and J. Sun ``Deep residual learning for image recognition” arXiv:1512.03385, 2015). Butterfly-Net improved in this way is referred to as "ResButterfly-Net" in this book.

本例において、入力画像はグレースケールであり、入力の次元は64×64×1である。まず、畳み込み層でチャンネル数を32にし、Bottleneckに通す。その後、2×2のMAXプーリングを行い、チャンネル数が倍になるようにBottleneckに通す。これらの層を計3回繰り返す処理を上下のU-Netのそれぞれで行う。そして、8×8×128のサイズの特徴マップが得られたところで、上下の2つのU-Netの特徴マップを結合し、さらに、BottleneckとMAXプーリングを2回行って、最終的にEncodeによって2×2×512のサイズの特徴マップを得る。 In this example, the input image is grayscale and the dimensions of the input are 64x64x1. First, the number of channels is set to 32 in the convolutional layer and passed through Bottleneck. After that, 2×2 MAX pooling is performed and the signals are passed through Bottleneck so that the number of channels is doubled. A process of repeating these layers three times in total is performed on each of the upper and lower U-Nets. Then, when a feature map with a size of 8 x 8 x 128 was obtained, the upper and lower two U-Net feature maps were combined, Bottleneck and MAX pooling were performed twice, and finally 2 A feature map of size ×2×512 is obtained.

続いて、Bottleneckに通した後に逆畳込みを行って、特徴マップのサイズを倍にする。そして、逆畳込みの出力とEncoderの特徴マップを連結(concat)し、Bottleneckに通す。Encoderと同様にこれらの層を2回行った後、その結果を複製し、上下のEncoderのそれぞれの特徴マップを連結し、Bottleneckに通して逆畳込みを行う処理を3回繰り返す。最後に、1×1の畳み込み層で出力クラス数である3チャンネル(骨転移領域、非悪性病変領域、その他領域)にし、64×64×3にする。なお、図13では、骨転移領域(Bone metastatic legion)と非悪性病変領域(Non-malignant lesion)を示しているが、骨転移領域および非悪性病変領域以外の部分がその他領域である。 Next, after passing through Bottleneck, deconvolution is performed to double the size of the feature map. Then, the output of the deconvolution and the feature map of the encoder are concatenated and passed through Bottleneck. After performing these layers twice in the same way as the encoder, the results are duplicated, the feature maps of the upper and lower encoders are connected, and the process of deconvolution through Bottleneck is repeated three times. Finally, the number of output classes is set to 3 channels (bone metastasis region, non-malignant lesion region, and other regions) using a 1×1 convolution layer, which is 64×64×3. Note that although FIG. 13 shows a bone metastatic region and a non-malignant lesion region, the portions other than the bone metastatic region and non-malignant lesion region are other regions.

学習部46は、対になる前後のパッチ画像とその正解ラベルを用いて、ニューラルネットワークモデルの学習を行う。一対のパッチ画像をニューラルネットワークモデルに入力したときの出力をソフトマックス関数で変換した確率pと正解の確率との誤差(損失関数)を評価することで学習を行う。損失関数を次に示す。

Figure 0007352261000003
ここで、wは、ピクセル数の違いの影響を低減するためのクラスcの重みである。
Figure 0007352261000004
The learning unit 46 performs learning of the neural network model using the pair of previous and subsequent patch images and their correct labels. Learning is performed by evaluating the error (loss function) between the probability p i obtained by converting the output when a pair of patch images is input into the neural network model using a softmax function and the probability of a correct answer. The loss function is shown below.
Figure 0007352261000003
Here, w c is the weight of class c to reduce the influence of the difference in the number of pixels.
Figure 0007352261000004

図14は、第3の実施の形態の骨転移検出装置50の構成を示す図である。骨転移検出装置50は、被験者のシンチグラムを入力する入力部51と、被験者のシンチグラムから骨転移領域を検出する制御部52と、上述した学習装置4によって学習した学習済みモデルを記憶した記憶部58と、検出した骨転移領域のデータを出力する出力部59とを有している。 FIG. 14 is a diagram showing the configuration of a bone metastasis detection device 50 according to the third embodiment. The bone metastasis detection device 50 includes an input unit 51 that inputs a scintigram of a subject, a control unit 52 that detects a bone metastasis region from the scintigram of a subject, and a memory that stores a trained model learned by the learning device 4 described above. section 58, and an output section 59 that outputs data on the detected bone metastasis region.

制御部52は、画像反転部53と、前後画像位置合せ部54と、濃度正規化処理部55と、パッチ画像作成部56と、推論部57とを有している。画像反転部53、前後画像位置合せ部54及び濃度正規化処理部55は、学習装置4が備える画像反転部42、前後画像位置合せ部43及び濃度正規化処理部44と同じである。パッチ画像作成部56は、入力された被験者のシンチグラム(前方画像および後方画像)からパッチ画像を切り出す機能を有する。パッチ画像作成部56は、前後のシンチグラムから対応する領域を切り出して対をなすパッチ画像を生成する。なお、パッチ画像作成部56は、学習装置4が備えるパッチ画像作成部45とは、パッチ画像を切り出す間隔を変えてもよい。 The control section 52 includes an image inversion section 53, a front and rear image alignment section 54, a density normalization processing section 55, a patch image creation section 56, and an inference section 57. The image inversion unit 53, the front and back image alignment unit 54, and the density normalization processing unit 55 are the same as the image inversion unit 42, the front and back image alignment unit 43, and the density normalization processing unit 44 included in the learning device 4. The patch image creation unit 56 has a function of cutting out a patch image from the input scintigram (front image and rear image) of the subject. The patch image creation unit 56 cuts out corresponding areas from the preceding and following scintigrams to generate a pair of patch images. Note that the patch image creation unit 56 may differ from the patch image creation unit 45 included in the learning device 4 in the interval at which patch images are cut out.

推論部57は、学習済みモデル記憶部58から学習済みモデルを読み出し、学習済みモデルの入力層に一対のパッチ画像を入力し、パッチ画像の各画素が、骨転移領域・非悪性病変領域・その他領域の各クラスに該当する確率を求める。 The inference unit 57 reads out the trained model from the trained model storage unit 58, inputs a pair of patch images to the input layer of the trained model, and determines whether each pixel of the patch image is a bone metastasis area, a non-malignant lesion area, or another area. Find the probability of each class in the region.

図15は、学習装置4の動作を示す図である。学習装置4は、教師データとして、複数の被験者のシンチグラム(前方画像および後方画像)とそれに対応する正解ラベル(骨転移領域、非悪性病変領域、その他領域)を入力する(S30)。学習装置4は、後方画像を反転させ(S31)、前方画像と反転された後方画像との位置合わせを行う(S32)。次に、学習装置4は、入力された前方画像および後方画像の濃度正規化を行い(S33)、前後の画像の対応する領域を切り出して複数対のパッチ画像を生成する(S34)。 FIG. 15 is a diagram showing the operation of the learning device 4. The learning device 4 inputs scintigrams (front images and back images) of a plurality of subjects and their corresponding correct labels (bone metastasis area, non-malignant lesion area, other areas) as training data (S30). The learning device 4 inverts the rear image (S31) and aligns the front image and the inverted rear image (S32). Next, the learning device 4 normalizes the density of the input front image and rear image (S33), cuts out corresponding regions of the front and rear images, and generates a plurality of pairs of patch images (S34).

続いて、学習装置4は、パッチ画像とそれに対応する正解ラベルを用いて、ニューラルネットワークモデルの学習を行う(S35)。上述したとおり、ここでの学習では、一対の前後のパッチ画像をButterfly-Netの入力層に入力し、出力層から出力されたクラスと正解データとに基づいて学習を行う。学習装置4は、学習によって得られたニューラルネットワークモデルを記憶部47に記憶する(S36)。なお、学習済みのモデルを骨転移検出装置50で用いる場合には、記憶部47に記憶された学習モデルを読み出して、他の装置等に出力する。 Subsequently, the learning device 4 performs learning of the neural network model using the patch images and the corresponding correct labels (S35). As described above, in this learning, a pair of previous and subsequent patch images are input to the input layer of Butterfly-Net, and learning is performed based on the class and correct answer data output from the output layer. The learning device 4 stores the neural network model obtained through learning in the storage unit 47 (S36). Note that when a trained model is used in the bone metastasis detection device 50, the learned model stored in the storage unit 47 is read out and output to another device or the like.

第3の実施の形態の学習装置4は、学習モデルとしてButterfly-Netのニューラルネットワークモデルを用い、その入力層に一対の前後のパッチ画像を入力して学習を行う構成としたので、相関の高いパッチ画像を同時に処理することにより、精度良く骨転移領域を検出できるニューラルネットワークのモデルを生成することができる。 The learning device 4 of the third embodiment uses the Butterfly-Net neural network model as a learning model, and has a configuration in which learning is performed by inputting a pair of previous and subsequent patch images to its input layer, so that the learning device 4 has a high correlation. By simultaneously processing patch images, it is possible to generate a neural network model that can accurately detect bone metastasis areas.

なお、第3の実施の形態に係る学習装置4においても、第1の実施の形態と同様に、パッチ画像を反転し、多数のパッチ画像のうちの一部のパッチ画像を左右反転することにより、教師データのバリエーションを増やしてもよい。ただし、本実施の形態においては、教師データであるパッチ画像は前後一対の画像であるので、前方または後方のパッチ画像を反転させた場合には、他方のパッチ画像も同じ方向に反転させる。このようにパッチ画像を反転させて教師データを増やすことにより、ロバストな学習を行うことができる。 Note that in the learning device 4 according to the third embodiment, as in the first embodiment, patch images are inverted, and some of the patch images among a large number of patch images are horizontally inverted. , the variation of training data may be increased. However, in this embodiment, the patch images that are the teacher data are a pair of front and rear images, so when the front or rear patch image is reversed, the other patch image is also reversed in the same direction. Robust learning can be performed by inverting patch images and increasing training data in this way.

また、上記した第3の実施の形態に係る学習装置4では、第1の実施の形態とは異なるクラスに分類する学習済みモデルを生成する例を挙げたが、第1の実施の形態と同じクラスに分類する学習済みモデルを生成することももちろん可能である。逆に、上記した第1の実施の形態や第2の実施の形態では、注射漏れや尿漏れを除外したが、腎臓や膀胱等の生理的集積、注射漏れ・尿漏れ、及び背景をその他領域として、第3の実施の形態と同じクラスに分類するモデルを生成することもできる。 Further, in the learning device 4 according to the third embodiment described above, an example was given in which a trained model is generated that is classified into a different class from that in the first embodiment, but the learning device 4 is the same as the first embodiment. Of course, it is also possible to generate trained models that classify into classes. Conversely, in the first and second embodiments described above, injection leakage and urine leakage were excluded, but physiological accumulation in the kidneys and bladder, injection leakage/urinary leakage, and the background were excluded from other areas. It is also possible to generate a model that classifies the data into the same class as in the third embodiment.

(実施例1)
第1の実施の形態の学習装置1を用いて生成した学習済みモデルを用いて、骨転移領域を検出した実施例について説明する。学習済みモデルとしては、パッチ画像を反転させた教師データを用いて生成した学習済みモデルと、パッチ画像を反転させない教師データを用いて生成した学習済みモデルで、骨転移領域の検出を行った。
(実験に用いた試料)
・前面骨シンチグラム濃度値正規化画像:103症例
・画像サイズ:512×1024[pixels]
・解像度:2.8×2.8[mm/pixel]
・パッチサイズ:64×64[pixels]
(Example 1)
An example will be described in which a bone metastasis region is detected using a learned model generated using the learning device 1 of the first embodiment. Bone metastasis areas were detected using trained models that were generated using training data with inverted patch images and trained models created using training data that did not invert patch images.
(Sample used in experiment)
・Frontal bone scintigram density value normalized image: 103 cases ・Image size: 512 x 1024 [pixels]
・Resolution: 2.8 x 2.8 [mm/pixel]
・Patch size: 64×64 [pixels]

(評価法)
・3-fold交差検証(学習:68症例、検証:17症例、テスト:17~18症例)
なお、検証データは、学習の反復回数を決定するためのデータである。
(Evaluation method)
・3-fold cross validation (learning: 68 cases, validation: 17 cases, test: 17-18 cases)
Note that the verification data is data for determining the number of repetitions of learning.

(評価値)
・FP(P):画素単位の拾いすぎ
・FN(P):骨転移領域の画素単位の見落とし
・Sensitivity:骨転移領域の領域単位の検出率
=(検出した骨転移領域数)/(骨転移領域数)
・FROC曲線:Sensitivity vs.FP(P)又はFP(R)
・FP(P)/背景+FN(P)/骨転移領域
(Evaluation value)
・FP(P): Too much detection in pixel units ・FN(P): Missing pixel units in bone metastasis areas ・Sensitivity: Detection rate in area units in bone metastasis areas
= (Number of bone metastasis areas detected) / (Number of bone metastasis areas)
・FROC curve: Sensitivity vs. FP(P) or FP(R)
・FP(P)/Background+FN(P)/Bone metastasis area

(モデルの学習条件)
・Optimizer:Adam(α=0.001, β=0.9, β=0.999)
・バッチサイズ64
・反復回数:10000回
・検証にて、FP(P)+FN(P)が最少のネットワークを選択
(Model learning conditions)
・Optimizer: Adam (α=0.001, β 1 =0.9, β 2 =0.999)
Batch size 64
・Number of iterations: 10,000 times ・Select the network with the minimum FP (P) + FN (P) during verification

(比較例)
比較例として、多数の弱分類器による分類結果に基づいて検出を行うMadaBoost(C. Domingo and O. Watanabe「MadaBoost: A modification of AdaBoost」Proc. Thirteenth Annual Conference on Computational Learning Theory, pp.180-189, 2000)を用いて求めた検出結果と比較した。MadaBoostのアルゴリズムは、発明者らの研究室で開発した方法を用いた(南勇太「骨シンチグラム上の骨転移検出処理の改良」第3回腫瘍核医学画像解析ソフトウェア開発会議)。
(Comparative example)
As a comparative example, MadaBoost (C. Domingo and O. Watanabe, "MadaBoost: A modification of AdaBoost", Proc. Thirteenth Annual Conference on Computational Learning Theory, pp.180-189) performs detection based on the classification results of many weak classifiers. , 2000). The MadaBoost algorithm used a method developed in the inventors' laboratory (Yuta Minami, "Improvement of bone metastasis detection processing on bone scintigrams", 3rd Oncology Nuclear Medicine Image Analysis Software Development Conference).

(実験結果)
図10は、実験によって得られたSensitivityとFP(P)との関係を示すFROC曲線である。図10に示すFROC曲線は、縦軸のSensitivityが高くなると、それだけ、非骨転移領域を骨転移領域として拾ってしまう「拾いすぎ」が多くなることを示している。実施例に係る方法では、例えば、Sensitivityを0.8とすると、拾いすぎは200画素以下である。MadaBoostを用いた従来法では、500画素以上の拾いすぎが生じていたことと比べると、実施例では、拾いすぎを抑制することができた。図10において、U-Net(Flip)のグラフは、一部のパッチ画像を反転させた教師データを用いて生成した学習済みモデルを用いて検出を行った結果を示し、U-Netのグラフは、パッチ画像の反転を行わないで生成した学習済みモデルを用いて検出を行った結果を示す図である。
(Experimental result)
FIG. 10 is a FROC curve showing the relationship between sensitivity and FP (P) obtained through experiments. The FROC curve shown in FIG. 10 shows that as the sensitivity on the vertical axis increases, the number of "too much pick-up" in which non-bone metastasis areas are picked up as bone metastasis areas increases. In the method according to the embodiment, for example, if Sensitivity is set to 0.8, the excessive pick-up is 200 pixels or less. In contrast to the conventional method using MadaBoost, in which over-pickup of 500 pixels or more occurred, in the embodiment, it was possible to suppress over-pickup. In Figure 10, the graph of U-Net (Flip) shows the result of detection using a trained model generated using training data in which some patch images are inverted; , is a diagram showing the results of detection using a trained model generated without inverting patch images.

(実施例2)
第3の実施の形態の学習装置4を用いて生成した学習済みモデルを用いて、骨転移領域を検出した実施例について説明する。学習済みモデルとしては、第3の実施の形態で説明したResButterfly-Netと、ResButterfly-NetのBottleneckを畳込み層に代えたButterfly-Netを用いた。また、比較例としてU-Netを用いた。
(Example 2)
An example in which a bone metastasis region is detected using a learned model generated using the learning device 4 of the third embodiment will be described. As the trained models, ResButterfly-Net described in the third embodiment and Butterfly-Net in which Bottleneck of ResButterfly-Net was replaced with a convolution layer were used. Furthermore, U-Net was used as a comparative example.

(実験に用いた試料)
・52歳~95歳の前立腺癌の日本人男性:246症例
(評価法)
・3-fold交差検証(学習:164症例、検証:41症例、テスト:41症例)
なお、検証データは、学習の最適な反復回数を決定するためのデータである。
(評価値)
・FP(P):画素単位の拾いすぎ
・FP(R):領域単位の拾いすぎ
・FP(P)+FN(P):画素単位の拾いすぎと骨転移領域の画素単位の見落とし
(モデルの学習条件)
・Optimizer:Adam(α=0.001, β=0.9, β=0.999)
・バッチサイズ256
・反復回数:最大50000回とし、誤分類されたピクセルの総数が最小になったときを最適の反復回数とした。
(Sample used in experiment)
・Japanese men aged 52 to 95 with prostate cancer: 246 cases (evaluation method)
・3-fold cross validation (learning: 164 cases, validation: 41 cases, test: 41 cases)
Note that the verification data is data for determining the optimal number of repetitions of learning.
(Evaluation value)
・FP(P): Picking up too much in pixel units ・FP(R): Picking up too much in region units ・FP(P)+FN(P): Picking up too much in pixel units and overlooking pixel units in bone metastasis areas (model learning conditions)
・Optimizer: Adam (α=0.001, β 1 =0.9, β 2 =0.999)
Batch size 256
- Number of iterations: Maximum of 50,000 times, and the optimal number of iterations was set when the total number of misclassified pixels was minimized.

(実験結果)
表1は、骨転移領域の感度が0.9のときの各評価値を示す。上が前方画像の結果、下が後方画像の結果である。

Figure 0007352261000005
表1に見られるように、学習モデルとしてResButterfly-Net、Butterfly-Netを用いると、U-Netを用いたモデルよりも、ホットスポット検出時の誤りが少ないことが、多くの指標において確認できた。(Experimental result)
Table 1 shows each evaluation value when the sensitivity of the bone metastasis area is 0.9. The upper part is the result of the front image, and the lower part is the result of the rear image.
Figure 0007352261000005
As shown in Table 1, it was confirmed that using ResButterfly-Net and Butterfly-Net as learning models resulted in fewer errors when detecting hot spots than the model using U-Net in many indicators. .

上記実施形態よび実施例は以下(1)から(11)に示す技術思想を包含するものである。
(1) 被験者のシンチグラムから異常集積を検出するためのニューラルネットワークのモデルを生成する学習装置であって、
複数の被験者のシンチグラムと各シンチグラムにおける正常集積及び異常集積の正解ラベルを教師データとして入力する入力部と、
前記教師データを用いて骨シンチグラムの異常集積の検出に用いるニューラルネットワークのモデルの学習を行う学習部と、
を備える学習装置。
(2)前記複数の被験者のシンチグラムから、被験者の骨が写っている領域を切り出してパッチ画像を作成するパッチ画像作成部を備え、
前記学習部は、前記パッチ画像およびそれに対応する正解ラベルを教師データとして用いて学習を行う(1)に記載の学習装置。
(3)前記パッチ画像作成部は、前記被験者のシンチグラム上で所定の大きさのウィンドウを走査し、当該ウィンドウ内に被験者の骨が写っているときに、前記ウィンドウの領域を前記パッチ画像として切り出す(2)に記載の学習装置。
(4)前記パッチ画像作成部にて作成したパッチ画像において、正常集積又は異常集積を含むパッチ画像と正常集積及び異常集積のいずれも含まないパッチ画像の構成比を求める教師データ分析部を備える(2)または(3)に記載の学習装置。
(5)前記教師データ分析部にて求めた構成比が、所定の範囲に含まれるように、パッチ画像作成部にて作成されたパッチ画像から、正常集積及び異常集積のいずれも含まないパッチ画像を間引くパッチ画像選択部を備える請求項4に記載の学習装置。
(6)前記パッチ画像作成部にて作成されたパッチ画像の少なくとも一部のパッチ画像を左右反転または上下反転させるパッチ画像反転部を備える(1)ないし(5)のいずれかに記載の学習装置。
(7)前記ニューラルネットワークは、Encoder-Decoder構造を有し、Encoder構造で得た特徴マップをDecoder構造に入力する構造を含んでいる(1)ないし(6)のいずれかに記載の学習装置。
(8)被験者のシンチグラムから異常集積を検出するためのニューラルネットワークのモデルを生成する学習方法であって、
複数の被験者のシンチグラムと各シンチグラムにおける正常集積及び異常集積の正解ラベルを教師データとして入力するステップと、
前記教師データを用いて骨シンチグラムの異常集積の検出に用いるニューラルネットワークのモデルの学習を行うステップと、
を備える学習方法。
(9)被験者のシンチグラムから異常集積を検出するためのニューラルネットワークのモデルを生成するためのプログラムであって、
複数の被験者のシンチグラムと各シンチグラムにおける正常集積及び異常集積の正解ラベルを教師データとして入力するステップと、
前記教師データを用いて骨シンチグラムの異常集積の検出に用いるニューラルネットワークのモデルの学習を行うステップと、
を実行させるプログラム。
(10)被験者のシンチグラムから異常集積を検出するよう、コンピュータを機能させるための学習済みモデルであって、
畳み込み層と、逆畳み込み層とを有し、畳み込み層で得られた特徴マップを逆畳み込み層に入力する構造を含むニューラルネットワークで構成され、複数の被験者のシンチグラムと各シンチグラムにおける正常集積及び異常集積の正解ラベルを教師データとして学習されたものであり、前記ニューラルネットワークに入力された被験者のシンチグラムから異常集積を検出するよう、コンピュータを機能させる学習済みモデル。
(11)(2)ないし(7)のいずれかに記載の学習装置で学習されたニューラルネットワークの学習済みモデルを記憶した記憶部と、
被験者のシンチグラムを入力する入力部と、
前記シンチグラムからパッチ画像を作成するパッチ画像作成部と、
前記記憶部から読み出した学習済みモデルの入力層に前記パッチ画像を入力し、前記パッチ画像に含まれる異常集積の領域を求める推論部と、
前記異常集積領域を示すデータを出力する出力部と、
を備える異常集積検出装置。
The above embodiments and examples include the technical ideas shown in (1) to (11) below.
(1) A learning device that generates a neural network model for detecting abnormal accumulation from a subject's scintigram,
an input unit for inputting scintigrams of a plurality of subjects and correct labels of normal accumulation and abnormal accumulation in each scintigram as training data;
a learning unit that uses the training data to learn a neural network model used to detect abnormal accumulation in bone scintigrams;
A learning device equipped with.
(2) comprising a patch image creation unit that creates a patch image by cutting out a region in which the bones of the subject are shown from the scintigrams of the plurality of subjects;
The learning device according to (1), wherein the learning unit performs learning using the patch image and the correct label corresponding thereto as teacher data.
(3) The patch image creation unit scans a window of a predetermined size on the scintigram of the subject, and when bones of the subject are included in the window, the area of the window is used as the patch image. The learning device described in section (2).
(4) A teacher data analysis unit that calculates the composition ratio of patch images that include normal accumulation or abnormal accumulation and patch images that do not include either normal accumulation or abnormal accumulation in the patch images created by the patch image generation unit; The learning device according to 2) or (3).
(5) A patch image that does not include either normal accumulation or abnormal accumulation from the patch images created by the patch image creation unit so that the composition ratio determined by the training data analysis unit falls within a predetermined range. The learning device according to claim 4, further comprising a patch image selection unit that thins out the patch images.
(6) The learning device according to any one of (1) to (5), including a patch image reversing unit that horizontally or vertically inverts at least part of the patch images created by the patch image creating unit. .
(7) The learning device according to any one of (1) to (6), wherein the neural network has an encoder-decoder structure and includes a structure for inputting a feature map obtained from the encoder structure to the decoder structure.
(8) A learning method for generating a neural network model for detecting abnormal accumulation from a subject's scintigram, comprising:
inputting scintigrams of a plurality of subjects and correct labels of normal accumulation and abnormal accumulation in each scintigram as training data;
a step of learning a neural network model used for detecting abnormal accumulation in bone scintigrams using the training data;
A learning method that prepares you.
(9) A program for generating a neural network model for detecting abnormal accumulation from a subject's scintigram,
inputting scintigrams of a plurality of subjects and correct labels of normal accumulation and abnormal accumulation in each scintigram as training data;
a step of learning a neural network model used for detecting abnormal accumulation in bone scintigrams using the training data;
A program to run.
(10) A trained model for operating a computer to detect abnormal accumulation from a subject's scintigram,
It is composed of a neural network that has a convolutional layer and a deconvolutional layer, and includes a structure in which the feature map obtained in the convolutional layer is input to the deconvolutional layer. A trained model that is trained using correct labels of abnormal accumulations as training data and causes a computer to function to detect abnormal accumulations from scintigrams of subjects input to the neural network.
(11) A storage unit that stores a trained model of a neural network trained by the learning device according to any one of (2) to (7);
an input section for inputting a scintigram of a subject;
a patch image creation unit that creates a patch image from the scintigram;
an inference unit that inputs the patch image to an input layer of the learned model read from the storage unit and calculates an area of abnormal accumulation included in the patch image;
an output unit that outputs data indicating the abnormal accumulation area;
An abnormality accumulation detection device comprising:

この出願は、2018年5月18日に出願された日本出願特願2018-096186号を基礎とする優先権を主張し、その開示の総てをここに取り込む。 This application claims priority based on Japanese Patent Application No. 2018-096186 filed on May 18, 2018, and the entire disclosure thereof is incorporated herein.

Claims (17)

被験者のシンチグラムから骨転移領域を検出するためのニューラルネットワークのモデルを生成する学習装置であって、
複数の被験者のシンチグラムと各シンチグラムにおける骨転移領域及び非骨転移領域の正解ラベルを教師データとして入力する入力部と、
前記教師データを用いて骨シンチグラムの骨転移領域の検出に用いるニューラルネットワークのモデルの学習を行う学習部と、
を備え、
前記ニューラルネットワークは、第1のネットワーク部分と、第2のネットワーク部分 とを結合した構造を有し、
前記入力部は、各被験者について、前後から撮影したシンチグラム及びその正解ラベル を入力し、
前記学習部は、前記第1のネットワーク部分の入力層に被験者を前方から撮影したシン チグラムを入力すると共に、前記第2のネットワーク部分の入力層に前記被験者を後方か ら撮影したシンチグラムを入力して学習を行う、学習装置。
A learning device that generates a neural network model for detecting bone metastasis areas from a subject's scintigram,
an input unit for inputting scintigrams of a plurality of subjects and correct labels of bone metastasis regions and non-bone metastasis regions in each scintigram as training data;
a learning unit that uses the training data to learn a neural network model used for detecting bone metastasis regions in bone scintigrams;
Equipped with
The neural network has a structure that combines a first network part and a second network part ,
The input unit inputs scintigrams taken from the front and back and their correct labels for each subject ,
The learning unit inputs a scintigram photographed from the front of the subject to an input layer of the first network portion, and inputs a scintigram photographed from the rear of the subject to an input layer of the second network portion. A learning device that performs learning .
前記複数の被験者のシンチグラムから、被験者の骨が写っている領域を切り出してパッチ画像を作成するパッチ画像作成部を備え、
前記学習部は、前記パッチ画像およびそれに対応する正解ラベルを教師データとして用いて学習を行う請求項1に記載の学習装置。
comprising a patch image creation unit that creates a patch image by cutting out a region in which the bones of the subject are shown from the scintigrams of the plurality of subjects;
The learning device according to claim 1, wherein the learning unit performs learning using the patch image and its corresponding correct label as teacher data.
前記パッチ画像作成部は、前記被験者のシンチグラム上で所定の大きさのウィンドウを走査し、当該ウィンドウ内に被験者の骨が写っているときに、前記ウィンドウの領域を前記パッチ画像として切り出す請求項2に記載の学習装置。 The patch image creation unit scans a window of a predetermined size on the scintigram of the subject, and when bones of the subject are included in the window, cuts out an area of the window as the patch image. 2. The learning device according to 2. 前記パッチ画像作成部にて作成したパッチ画像において、骨転移領域又は非骨転移領域を含むパッチ画像と骨転移領域及び非骨転移領域のいずれも含まないパッチ画像の構成比を求める教師データ分析部を備える請求項2または3に記載の学習装置。 A teacher data analysis unit that calculates the composition ratio of a patch image that includes a bone metastasis area or a non-bone metastasis area and a patch image that does not include either a bone metastasis area or a non-bone metastasis area in the patch images created by the patch image creation unit. The learning device according to claim 2 or 3, comprising: 前記教師データ分析部にて求めた構成比が、所定の範囲に含まれるように、パッチ画像作成部にて作成されたパッチ画像から、骨転移領域及び非骨転移領域のいずれも含まないパッチ画像を間引くパッチ画像選択部を備える請求項4に記載の学習装置。 A patch image that does not include either a bone metastasis area or a non-bone metastasis area is selected from the patch images created by the patch image creation unit so that the composition ratio determined by the teacher data analysis unit is within a predetermined range. The learning device according to claim 4, further comprising a patch image selection unit that thins out the patch images. 前記パッチ画像作成部にて作成されたパッチ画像の少なくとも一部のパッチ画像を左右反転または上下反転させるパッチ画像反転部を備える請求項2ないし5のいずれか一項に記載の学習装置。 The learning device according to any one of claims 2 to 5, further comprising a patch image reversing unit that horizontally or vertically inverts at least part of the patch images created by the patch image creating unit. 前記ニューラルネットワークは、Encoder-Decoder構造を有し、Encoder構造で得た特徴マップをDecoder構造に入力する構造を含んでいる請求項1ないし6のいずれか一項に記載の学習装置。 7. The learning device according to claim 1, wherein the neural network has an encoder-decoder structure and includes a structure for inputting a feature map obtained from the encoder structure to the decoder structure. 前記第1のネットワーク部分および前記第2のネットワーク部分がEncoder-D ecoder構造を有する、請求項1ないし6のいずれか一項に記載の学習装置。The learning device according to any one of claims 1 to 6 , wherein the first network part and the second network part have an encoder-decoder structure . 前記第1のネットワーク部分および前記第2のネットワーク部分がEncoder-D ecoder構造を有し、
前記学習部は、前記第1のネットワーク部分の入力層に被験者を前方から撮影したシンチグラムから切り出した第1のパッチ画像を入力すると共に、前記第2のネットワーク部分の入力層に前記被験者を後方から撮影したシンチグラムから切り出した、前記第1のパッチ画像と対応する第2のパッチ画像を入力して学習を行う、
請求項2ないし6のいずれか一項に記載の学習装置。
the first network part and the second network part have an Encoder-D encoder structure;
The learning unit inputs a first patch image cut out from a scintigram photographed from the front of the subject into an input layer of the first network part, and inputs a first patch image cut out from a scintigram photographed from the front of the subject into an input layer of the second network part. performing learning by inputting a second patch image corresponding to the first patch image cut out from a scintigram taken from
The learning device according to any one of claims 2 to 6.
前記非骨転移領域には、非悪性病変領域が含まれ、
前記入力部は、骨転移領域と非悪性病変領域のそれぞれの正解ラベルが付された複数の被験者のシンチグラムを教師データとして受け付け、
前記学習部は、前記教師データを用いて、骨転移領域と非悪性病変領域のそれぞれを検出するニューラルネットワークのモデルを学習する、
請求項1ないし9のいずれか一項に記載の学習装置。
The non-bone metastatic area includes a non-malignant lesion area,
The input unit receives scintigrams of a plurality of subjects with correct labels for bone metastasis regions and non-malignant lesion regions as training data;
The learning unit uses the teacher data to learn a neural network model for detecting each of a bone metastasis region and a non-malignant lesion region.
A learning device according to any one of claims 1 to 9.
被験者のシンチグラムから骨転移領域を検出するためのニューラルネットワークのモデルを生成する学習方法であって、
複数の被験者のシンチグラムと各シンチグラムにおける骨転移領域及び非骨転移領域の正解ラベルを教師データとして入力するステップと、
前記教師データを用いて骨シンチグラムの骨転移領域の検出に用いるニューラルネットワークのモデルの学習を行うステップと、
を備え
前記ニューラルネットワークは、第1のネットワーク部分と、第2のネットワーク部分 とを結合した構造を有し、
前記入力するステップにおいて、各被験者について、前後から撮影したシンチグラム及 びその正解ラベルを入力し、
前記学習を行うステップにおいて、第1のネットワーク部分の入力層に被験者を前方か ら撮影したシンチグラムを入力すると共に、第2のネットワーク部分の入力層に前記被験 者を後方から撮影したシンチグラムを入力して学習を行う、学習方法。
A learning method for generating a neural network model for detecting a bone metastasis region from a subject's scintigram, the method comprising:
inputting scintigrams of a plurality of subjects and correct labels of bone metastasis areas and non-bone metastasis areas in each scintigram as training data;
a step of learning a neural network model used for detecting a bone metastasis region in a bone scintigram using the training data;
Equipped with
The neural network has a structure that combines a first network part and a second network part ,
In the inputting step, for each subject, input the scintigram taken from the front and back and its correct answer label,
In the step of performing the learning, a scintigram photographed from the front of the subject is input to the input layer of the first network portion, and a scintigram photographed from the rear of the subject is input to the input layer of the second network portion. A learning method where you learn by inputting information .
被験者のシンチグラムから骨転移領域を検出するためのニューラルネットワークのモデルを生成するためのプログラムであって、
複数の被験者のシンチグラムと各シンチグラムにおける骨転移領域及び非骨転移領域の正解ラベルを教師データとして入力するステップと、
前記教師データを用いて骨シンチグラムの骨転移領域の検出に用いるニューラルネットワークのモデルの学習を行うステップと、
を実行させ、
前記ニューラルネットワークは、第1のネットワーク部分と、第2のネットワーク部分 とを結合した構造を有し、
前記入力するステップは、各被験者について、前後から撮影したシンチグラム及びその 正解ラベルを入力し、
前記学習を行うステップは、第1のネットワーク部分の入力層に被験者を前方から撮影 したシンチグラムを入力すると共に、第2のネットワーク部分の入力層に前記被験者を後 方から撮影したシンチグラムを入力して学習を行うステップと、
を実行させるプログラム。
A program for generating a neural network model for detecting bone metastatic areas from a subject's scintigram, the program comprising:
inputting scintigrams of a plurality of subjects and correct labels of bone metastasis areas and non-bone metastasis areas in each scintigram as training data;
a step of learning a neural network model used for detecting a bone metastasis region in a bone scintigram using the training data;
run the
The neural network has a structure that combines a first network part and a second network part ,
The inputting step includes inputting scintigrams taken from the front and back and their correct labels for each subject ;
The step of performing the learning includes inputting a scintigram photographed from the front of the subject into the input layer of the first network part, and inputting a scintigram photographed from the rear of the subject into the input layer of the second network part. a step of learning by
A program to run.
被験者のシンチグラムから骨転移領域を検出するよう、コンピュータを機能させるための学習済みモデルであって、畳み込み層と、逆畳み込み層とを有し、畳み込み層で得られた特徴マップを逆畳み込み層に入力する構造を含むニューラルネットワークで構成され、複数の被験者の前後から撮影したシンチグラムと各シンチグラムにおける骨転移領域及び非骨転移領域の正解ラベルを教師データとし、前記畳み込み層に2枚のシンチグラムのう ちの一方を水平方向に反転させた上で2枚のシンチグラムを入力して学習されたものであり、前記ニューラルネットワークに入力された被験者のシンチグラムから骨転移領域を検出するよう、コンピュータを機能させる学習済みモデル。This is a trained model for operating a computer to detect bone metastasis areas from scintigrams of subjects, and it has a convolution layer and a deconvolution layer, and the feature map obtained from the convolution layer is transferred to the deconvolution layer. It is composed of a neural network that includes a structure input to The neural network is trained by inputting two scintigrams with one of the scintigrams flipped horizontally, and the neural network is designed to detect bone metastasis areas from the subject's scintigrams input to the neural network. , a trained model that makes the computer work. 請求項2ないし10のいずれか一項に記載の学習装置で学習されたニューラルネットワークの学習済みモデルを記憶した記憶部と、
被験者のシンチグラムを入力する入力部と、
前記シンチグラムからパッチ画像を作成するパッチ画像作成部と、
前記記憶部から読み出した学習済みモデルの入力層に前記パッチ画像を入力し、前記パッチ画像に含まれる骨転移領域を求める推論部と、
前記骨転移領域を示すデータを出力する出力部と、
を備える骨転移検出装置。
A storage unit storing a trained model of a neural network trained by the learning device according to any one of claims 2 to 10;
an input section for inputting a scintigram of a subject;
a patch image creation unit that creates a patch image from the scintigram;
an inference unit that inputs the patch image to an input layer of the trained model read from the storage unit and calculates a bone metastasis area included in the patch image;
an output unit that outputs data indicating the bone metastasis area;
A bone metastasis detection device comprising:
被験者のシンチグラムから骨転移領域を検出するためのプログラムであって、コンピュータに、
被験者のシンチグラムを入力するステップと、
前記シンチグラムからパッチ画像を作成するステップと、
請求項2ないし10のいずれか一項に記載の学習装置で学習されたニューラルネットワークの学習済みモデルを記憶した記憶部から前記学習済みモデルを読み出し、前記学習済みモデルの入力層に前記パッチ画像を入力し、前記パッチ画像に含まれる骨転移領域を求めるステップと、
前記骨転移領域を示すデータを出力するステップと、
を実行させるプログラム。
A program for detecting bone metastasis areas from a subject's scintigram, the program comprising:
inputting a scintigram of the subject;
creating a patch image from the scintigram;
The learned model is read from a storage unit that stores the learned model of the neural network trained by the learning device according to any one of claims 2 to 10, and the patch image is added to the input layer of the learned model. inputting and determining a bone metastasis area included in the patch image;
outputting data indicating the bone metastasis area;
A program to run.
被験者のシンチグラムから骨転移領域を検出するためのプログラムであって、コンピュータに、
被験者を前後から撮影した2枚のシンチグラムを入力するステップと、
2枚のシンチグラムのうちの一方を水平方向に反転するステップと、
教師データを用いた学習によって予め生成された学習済みモデルを記憶した記憶部から、前記学習済みモデルを読み出し、前記学習済みモデルの入力層に、2枚のシンチグラムを入力し、前記シンチグラムに含まれる骨転移領域を求めるステップと、
前記骨転移領域を示すデータを出力するステップと、
を実行させるプログラム。
A program for detecting bone metastasis areas from a subject's scintigram, the program comprising:
a step of inputting two scintigrams taken from the front and back of the subject;
horizontally flipping one of the two scintigrams;
The learned model is read from the storage unit that stores the learned model generated in advance by learning using teacher data, and two scintigrams are input to the input layer of the learned model, and the scintigram is determining the included bone metastasis area;
outputting data indicating the bone metastasis area;
A program to run.
被験者のシンチグラムから骨転移領域を検出するためのニューラルネットワークのモデNeural network model for detecting bone metastasis areas from subject's scintigrams ルを生成する学習装置であって、A learning device that generates a
複数の被験者のシンチグラムと各シンチグラムにおける骨転移領域及び非骨転移領域の Scintigrams of multiple subjects and bone metastatic areas and non-bone metastatic areas in each scintigram 正解ラベルを教師データとして入力する入力部と、an input section for inputting correct answer labels as training data;
前記教師データを用いて骨シンチグラムの骨転移領域の検出に用いるニューラルネット Neural network used to detect bone metastasis areas in bone scintigrams using the above training data ワークのモデルの学習を行う学習部と、A learning department that learns work models;
前記複数の被験者のシンチグラムから、被験者の骨が写っている領域を切り出してパッ From the scintigrams of the multiple subjects, the area where the bones of the subjects are shown is cut out and packed. チ画像を作成するパッチ画像作成部と、a patch image creation section that creates a patch image;
前記パッチ画像作成部にて作成したパッチ画像において、骨転移領域又は非骨転移領域In the patch image created by the patch image creation section, bone metastasis area or non-bone metastasis area を含むパッチ画像と骨転移領域及び非骨転移領域のいずれも含まないパッチ画像の構成比Composition ratio of patch images that include bone metastasis areas and patch images that do not include bone metastasis areas or non-bone metastasis areas を求める教師データ分析部と、The teacher data analysis department, which seeks
を備え、Equipped with
前記学習部は、前記パッチ画像およびそれに対応する正解ラベルを教師データとして用 The learning unit uses the patch image and its corresponding correct answer label as training data. いて学習を行う学習装置。A learning device that allows you to learn using
JP2020519910A 2018-05-18 2019-05-16 Learning device, learning method, program, trained model, and bone metastasis detection device Active JP7352261B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018096186 2018-05-18
JP2018096186 2018-05-18
PCT/JP2019/019478 WO2019221222A1 (en) 2018-05-18 2019-05-16 Learning device, learning method, program, learned model, and bone metastasis detection device

Publications (2)

Publication Number Publication Date
JPWO2019221222A1 JPWO2019221222A1 (en) 2021-08-12
JP7352261B2 true JP7352261B2 (en) 2023-09-28

Family

ID=68539742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020519910A Active JP7352261B2 (en) 2018-05-18 2019-05-16 Learning device, learning method, program, trained model, and bone metastasis detection device

Country Status (3)

Country Link
JP (1) JP7352261B2 (en)
TW (1) TW202004572A (en)
WO (1) WO2019221222A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111627554A (en) * 2020-05-28 2020-09-04 浙江德尔达医疗科技有限公司 Fracture image automatic classification system based on deep convolutional neural network
JP7491755B2 (en) 2020-07-13 2024-05-28 繁 塩澤 Data generation device, detection device, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007029467A1 (en) 2005-09-05 2007-03-15 Konica Minolta Medical & Graphic, Inc. Image processing method and image processing device
JP2016142664A (en) 2015-02-04 2016-08-08 日本メジフィジックス株式会社 Nuclear medicine image analysis technique
WO2018008593A1 (en) 2016-07-04 2018-01-11 日本電気株式会社 Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program
JP6294529B1 (en) 2017-03-16 2018-03-14 阪神高速技術株式会社 Crack detection processing apparatus and crack detection processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007029467A1 (en) 2005-09-05 2007-03-15 Konica Minolta Medical & Graphic, Inc. Image processing method and image processing device
JP2016142664A (en) 2015-02-04 2016-08-08 日本メジフィジックス株式会社 Nuclear medicine image analysis technique
WO2018008593A1 (en) 2016-07-04 2018-01-11 日本電気株式会社 Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program
JP6294529B1 (en) 2017-03-16 2018-03-14 阪神高速技術株式会社 Crack detection processing apparatus and crack detection processing program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
木田 智士,Deep learning で画像認識9~Kerasで畳み込みニューラルネットワーク vol.5~,IMCEL ACADEMY,2017年08月03日,https://lp-tech.net/articles/5MIeh
河上 一公,人工知能を用いた核医学画像の解析,医用画像情報学会雑誌,2017年06月,100-102,https://www.jstage.jst.go.jp/article/mii/34/2/34_100/_article/-char/ja/

Also Published As

Publication number Publication date
TW202004572A (en) 2020-01-16
WO2019221222A1 (en) 2019-11-21
JPWO2019221222A1 (en) 2021-08-12

Similar Documents

Publication Publication Date Title
Abdelrahman et al. Convolutional neural networks for breast cancer detection in mammography: A survey
Aggarwal et al. COVID-19 image classification using deep learning: Advances, challenges and opportunities
Pinaya et al. Unsupervised brain imaging 3D anomaly detection and segmentation with transformers
Gao et al. Classification of CT brain images based on deep learning networks
JP2021002338A (en) Method and system for image segmentation and identification
KR20210030730A (en) Prediction method for probability of lung cancer based on artificial intelligence model analyzing medical image and analyzing apparatus for medical image
CN116097302A (en) Connected machine learning model with joint training for lesion detection
CN107133638A (en) Multi-parameter MRI prostate cancer CAD method and system based on two graders
US12026876B2 (en) System and method for automatic detection of vertebral fractures on imaging scans using deep networks
Hussain et al. Deep learning-based diagnosis of disc degenerative diseases using MRI: a comprehensive review
JP7352261B2 (en) Learning device, learning method, program, trained model, and bone metastasis detection device
CN112949654A (en) Image detection method and related device and equipment
Bohaju Brain tumor
Shamrat et al. Analysing most efficient deep learning model to detect COVID-19 from computer tomography images
Li et al. Developing an image-based deep learning framework for automatic scoring of the pentagon drawing test
CN114565557A (en) Contrast enhancement energy spectrum photography classification method and device based on coordinate attention
CN111445456A (en) Classification model, network model training method and device, and identification method and device
Farrag et al. An explainable AI system for medical image segmentation with preserved local resolution: Mammogram tumor segmentation
CN113793316B (en) Ultrasonic scanning area extraction method, device, equipment and storage medium
AU2019204365B1 (en) Method and System for Image Segmentation and Identification
Horry et al. Factors determining generalization in deep learning models for scoring COVID-CT images
Mouzai et al. Xray-Net: Self-supervised pixel stretching approach to improve low-contrast medical imaging
Carson Automatic Bone Structure Segmentation of Under-sampled CT/FLT-PET Volumes for HSCT Patients
Wu et al. Mscan: Multi-scale channel attention for fundus retinal vessel segmentation
Hao et al. Automatic detection of breast nodule in the ultrasound images using CNN

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200730

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230907

R150 Certificate of patent or registration of utility model

Ref document number: 7352261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150