JP2021043040A - Information processing device, program and information processing method - Google Patents

Information processing device, program and information processing method Download PDF

Info

Publication number
JP2021043040A
JP2021043040A JP2019164620A JP2019164620A JP2021043040A JP 2021043040 A JP2021043040 A JP 2021043040A JP 2019164620 A JP2019164620 A JP 2019164620A JP 2019164620 A JP2019164620 A JP 2019164620A JP 2021043040 A JP2021043040 A JP 2021043040A
Authority
JP
Japan
Prior art keywords
treatment
image
lesion
information
drug
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019164620A
Other languages
Japanese (ja)
Other versions
JP7355370B2 (en
Inventor
雄一郎 菅原
Yuichiro Sugawara
雄一郎 菅原
法曉 岡本
Noriaki Okamoto
法曉 岡本
ジェフリー アロン ミラー
Jeffrey Aaron Miller
ジェフリー アロン ミラー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ams Kikaku Co Ltd
Ams Osram AG
Original Assignee
Ams Kikaku Co Ltd
Ams AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ams Kikaku Co Ltd, Ams AG filed Critical Ams Kikaku Co Ltd
Priority to JP2019164620A priority Critical patent/JP7355370B2/en
Publication of JP2021043040A publication Critical patent/JP2021043040A/en
Application granted granted Critical
Publication of JP7355370B2 publication Critical patent/JP7355370B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medicines That Contain Protein Lipid Enzymes And Other Medicines (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
  • Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
  • Nuclear Medicine (AREA)

Abstract

To provide an information processing device or the like capable of estimating an advancing degree of medical treatment.SOLUTION: An information processing device 1 includes a first acquisition part for acquiring a diagnostic image obtained by photographing a subject administered with a first drug indicating a radionuclide by a radiopharmaceutical synthesizer or a formulation for a preparation before use by using a positron emission tomographic device 2, a first learning model for outputting lesion estimation information if the first acquisition part inputs the acquired diagnostic image, a second acquisition part for acquiring a medial treatment image of a medial treatment stage obtained by photographing the subject administered with a second drug indicating a radionuclide by the radiopharmaceutical synthesizer or the formulation for a preparation before use by using a medical treatment image photographing device 3 on the basis of the lesion estimation information outputted by the first learning model, and a second learning model for outputting lesion estimation information of a medical treatment stage if the second acquisition part inputs the acquired medical treatment image.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、プログラム及び情報処理方法に関する。 The present invention relates to an information processing device, a program, and an information processing method.

画像認識技術等を用いた病変診断の自動化が進められている。特許文献1には、デジタル化画像中に注目領域(対象)を特定して区切り、区切った対象から分類タスクに関係する数値を作成し、学習マシンを用いて病変を診断するコンピュータ実行方法が開示されている。 Automation of lesion diagnosis using image recognition technology is being promoted. Patent Document 1 discloses a computer execution method in which a region of interest (object) is specified and divided in a digitized image, numerical values related to a classification task are created from the divided objects, and a lesion is diagnosed using a learning machine. Has been done.

特表2004−536367号公報Japanese Patent Application Laid-Open No. 2004-536367

しかしながら、特許文献1に係る発明では、病変診断の後に行う治療の進み具合を推定することができない問題がある。 However, the invention according to Patent Document 1 has a problem that the progress of treatment performed after the lesion diagnosis cannot be estimated.

一つの側面では、治療の進み具合を推定することが可能な情報処理装置等を提供することにある。 One aspect is to provide an information processing device or the like capable of estimating the progress of treatment.

情報処理装置は、放射性医薬品合成装置または用時調製用製剤で放射性核種を標識した第1薬剤が投与された被検体を、陽電子放射断層撮影装置を用いて撮影した診断画像を取得する第1取得部と、前記第1取得部が取得した診断画像を入力した場合に病変推定情報を出力する第1学習モデルと、前記第1学習モデルが出力した病変推定情報に基づいて、放射性医薬品合成装置または用時調製用製剤で放射性核種を標識した第2薬剤が投与された被検体を、医療画像撮影装置を用いて撮影した治療段階の治療画像を取得する第2取得部と、前記第2取得部が取得した治療画像を入力した場合に治療段階での病変推定情報を出力する第2学習モデルとを備えることを特徴とする。 The information processing device is the first acquisition to acquire a diagnostic image taken by using a positron radiation tomography device of a subject to which the first drug labeled with a radionuclide is administered with a radiopharmaceutical synthesizer or a preparation preparation for use. Based on the unit, the first learning model that outputs the lesion estimation information when the diagnostic image acquired by the first acquisition unit is input, and the lesion estimation information output by the first learning model, the radiopharmaceutical synthesizer or A second acquisition unit for acquiring a treatment image of a treatment stage in which a subject to which a second drug labeled with a radionuclide in a preparation for use is administered is photographed using a medical imaging device, and the second acquisition unit. It is characterized by including a second learning model that outputs lesion estimation information at the treatment stage when the treatment image acquired by the patient is input.

一つの側面では、治療の進み具合を推定することが可能な情報処理装置等を提供できる。 In one aspect, it is possible to provide an information processing device or the like capable of estimating the progress of treatment.

病変推定情報システムの概要を示す説明図である。It is explanatory drawing which shows the outline of the lesion estimation information system. サーバの構成例を示すブロック図である。It is a block diagram which shows the configuration example of a server. 被検体DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of the subject DB. 診断情報DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of the diagnostic information DB. 治療情報DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of the treatment information DB. PET装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a PET apparatus. 医療装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a medical apparatus. 端末の構成例を示すブロック図である。It is a block diagram which shows the configuration example of a terminal. 病変推定情報を出力する動作を説明する説明図である。It is explanatory drawing explaining the operation which outputs the lesion estimation information. 診断用病変推定モデルを説明する説明図である。It is explanatory drawing explaining the lesion estimation model for diagnosis. 治療用病変推定モデルを説明する説明図である。It is explanatory drawing explaining the therapeutic lesion estimation model. 診断段階での病変推定情報を出力する際の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure at the time of outputting the lesion estimation information at a diagnosis stage. 治療段階での病変推定情報を出力する際の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure at the time of outputting the lesion estimation information at the treatment stage. 核医学治療を行った後に68Ga−PSMAを用いて治療終了を判定する際の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure at the time of determining the end of treatment using 68Ga-PSMA after performing the nuclear medicine treatment. 乳がんの治療段階の病変推定情報を出力する際の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure at the time of outputting the lesion estimation information of the treatment stage of breast cancer. 実施形態2のサーバの構成例を示すブロック図である。It is a block diagram which shows the configuration example of the server of Embodiment 2. 治療画像から推定画像に変換する学習処理に関する説明図である。It is explanatory drawing about the learning process which converts a therapeutic image into an estimated image. 推定画像を出力する際の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure at the time of outputting an estimated image. 実施形態3のサーバの構成例を示すブロック図である。It is a block diagram which shows the configuration example of the server of Embodiment 3. 第2薬剤情報出力モデルを説明する説明図である。It is explanatory drawing explaining the 2nd drug information output model. 第2薬剤の推奨投与量を出力する際の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure at the time of outputting the recommended dose of the 2nd drug. 変形例1の第2薬剤情報出力モデルを説明する説明図である。It is explanatory drawing explaining the 2nd drug information output model of the modification 1. 実施形態4のサーバの構成例を示すブロック図である。It is a block diagram which shows the configuration example of the server of Embodiment 4. 治療タイミング予測モデルを説明する説明図である。It is explanatory drawing explaining the treatment timing prediction model. 治療タイミングの予測結果を出力する際の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure at the time of outputting the prediction result of a treatment timing. コントラスト比により治療タイミングを判定する際の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure at the time of determining a treatment timing by a contrast ratio. 実施形態5のサーバの構成例を示すブロック図である。It is a block diagram which shows the configuration example of the server of Embodiment 5. 推定治療結果出力モデルを説明する説明図である。It is explanatory drawing explaining the estimation treatment result output model. 推定治療結果を出力する際の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure at the time of outputting the estimated treatment result. コントラスト比により治療結果を判定する際の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure at the time of determining a treatment result by a contrast ratio. 実施形態1〜5のサーバの動作を示す機能ブロック図である。It is a functional block diagram which shows the operation of the server of Embodiments 1-5.

以下、本発明をその実施形態を示す図面に基づいて詳述する。 Hereinafter, the present invention will be described in detail with reference to the drawings showing the embodiments thereof.

(実施形態1)
実施形態1は、人工知能(AI:Artificial Intelligence)を用いて病変推定情報を出力する形態に関する。図1は、病変推定情報システムの概要を示す説明図である。本実施形態のシステムは、情報処理装置1、陽電子放射断層撮影装置2、医療画像撮影装置3及び情報処理端末4を含み、各装置はインターネット等のネットワークNを介して情報の送受信を行う。
(Embodiment 1)
The first embodiment relates to a mode in which lesion estimation information is output using artificial intelligence (AI). FIG. 1 is an explanatory diagram showing an outline of a lesion estimation information system. The system of the present embodiment includes an information processing device 1, a positron emission tomography device 2, a medical imaging device 3, and an information processing terminal 4, and each device transmits and receives information via a network N such as the Internet.

情報処理装置1は、種々の情報に対する処理、記憶及び送受信を行う情報処理装置である。情報処理装置1は、例えばサーバ装置、パーソナルコンピュータまたは汎用のタブレットPC(パソコン)等である。本実施形態において、情報処理装置1はサーバ装置であるものとし、以下では簡潔のためサーバ1と読み替える。 The information processing device 1 is an information processing device that processes, stores, and transmits / receives various types of information. The information processing device 1 is, for example, a server device, a personal computer, a general-purpose tablet PC (personal computer), or the like. In the present embodiment, the information processing device 1 is assumed to be a server device, and will be replaced with the server 1 below for the sake of brevity.

陽電子放射断層撮影装置2は、陽電子放射断層撮影を行う装置である。陽電子放射断層撮影(PET:Positron Emission Tomography)は、陽電子検出を利用したコンピュータ断層撮影技術である。本実施形態において、陽電子放射断層撮影装置2は、以下では簡潔のためPET装置2と読み替える。同様に、PET装置2を使用する検査をPET検査という。PET検査により、全身のどこに、どの程度の大きさの病変があるかを撮影できる。 The positron emission tomography apparatus 2 is an apparatus for performing positron emission tomography. Positron Emission Tomography (PET) is a computed tomography technique that utilizes positron detection. In the present embodiment, the positron emission tomography apparatus 2 will be referred to as the PET apparatus 2 for the sake of brevity below. Similarly, an inspection using the PET device 2 is called a PET inspection. A PET scan can be used to photograph where and how large a lesion is on the whole body.

具体的には、検査を受ける患者の身体(以下被検体という)に第1薬剤を点滴または注射により投与する。第1薬剤は、治療開始前に使う診断専用の薬剤である。第1薬剤は、リガンドに放射性核種を標識した薬剤であり、放射性医薬品合成装置または用時調製用製剤(キット)を用いて合成される。変質しやすい製剤は、用時調製する。 Specifically, the first drug is administered by infusion or injection to the body of the patient to be examined (hereinafter referred to as a subject). The first drug is a diagnostic drug used before the start of treatment. The first drug is a drug in which a ligand is labeled with a radionuclide, and is synthesized using a radiopharmaceutical synthesizer or a preparation preparation (kit) for use. Formulations that are easily altered should be prepared before use.

本実施の形態においては、放射性核種は例えばガリウム68等の陽電子等を放射する核種である。リガンドは、がん等の病変部位に発現する抗原と特異的に結合する分子であり、例えば前立腺特異的膜抗原(PSMA:Prostate Specific Membrane Antigen)結合性リガンド、PSMAに対するモノクローナル抗体またはHER2抗体等である。前立腺特異的膜抗原結合性リガンドおよびPSMAをターゲットとするモノクローナル抗体は、前立腺がん等のがん細胞に結合する。HER2抗体(受容体型チロシンキナーゼ)は、乳がん等のがん細胞に結合する。 In the present embodiment, the radionuclide is a nuclide that emits positrons such as gallium-68. The ligand is a molecule that specifically binds to an antigen expressed at a lesion site such as cancer, and is, for example, a prostate specific Membrane Antigen (PSMA) -binding ligand, a monoclonal antibody against PSMA, a HER2 antibody, or the like. is there. Prostate-specific membrane antigen-binding ligands and monoclonal antibodies targeting PSMA bind to cancer cells such as prostate cancer. HER2 antibody (receptor tyrosine kinase) binds to cancer cells such as breast cancer.

被検体に第1薬剤を投与することにより、病変部位に第1薬剤が集積して陽電子等を放射する。この状態でPET検査を行なうと、陽電子等を放射する部位が描出される。したがって、前立腺がんまたは乳がん等の病変部位を発見できる。 By administering the first drug to the subject, the first drug accumulates at the lesion site and emits positrons and the like. When the PET examination is performed in this state, a portion that emits positrons and the like is visualized. Therefore, a lesion site such as prostate cancer or breast cancer can be found.

医療画像撮影装置3は、医用画像を撮影する装置であり、例えば陽電子放射断層撮影装置(PET装置)、単一光子放射断層撮影装置またはコンプトンカメラ等である。本実施形態において、医療画像撮影装置3は、以下では簡潔のため医療装置3と読み替える。 The medical imaging apparatus 3 is an apparatus for photographing a medical image, for example, a positron emission tomography apparatus (PET apparatus), a single photon emission tomography apparatus, a Compton camera, or the like. In the present embodiment, the medical imaging device 3 will be referred to as the medical device 3 in the following for the sake of brevity.

単一光子放射断層撮影装置は、単一光子放射断層撮影の装置である。単一光子放射断層撮影(Single photon emission computed tomography)は、画像診断法の一つであり、シンチグラフィ(scintigraphy)の応用で、体内に投与した放射性同位体から放出される陽電子等を検出し、その分布を断層画像にしたものである。 The single photon emission tomography device is a device for single photon emission tomography. Single photon emission computed tomography is one of the diagnostic imaging methods, and it is an application of scintigraphy to detect positrons emitted from radioisotopes administered into the body. The distribution is a tomographic image.

コンプトンカメラは、陽電子等の高エネルギの電磁波が電子に散乱され、元の波長より長くなる現象であるコンプトン効果を利用して陽電子等の入射方向・エネルギ・強度を測定する装置。散乱された陽電子等の波長の変化と電子の反跳方向を同時に検出することで、陽電子等の撮像も可能とする。 A Compton camera is a device that measures the incident direction, energy, and intensity of positrons, etc. by utilizing the Compton effect, which is a phenomenon in which high-energy electromagnetic waves such as positrons are scattered by electrons and become longer than the original wavelength. By simultaneously detecting the change in wavelength of scattered positrons and the recoil direction of electrons, it is possible to image positrons and the like.

PET検査により、病変が存在すると診断された場合、診断結果に応じて様々な治療が行なわれる。本実施の形態においては、核医学治療、すなわち非密封の放射性同位元素を用いた核医学治療が行われる。 When a lesion is diagnosed by PET examination, various treatments are performed depending on the diagnosis result. In this embodiment, nuclear medicine treatment, that is, nuclear medicine treatment using an unsealed radioisotope is performed.

具体的には、被検体に第2薬剤を投与する。第2薬剤は、核医学治療用の薬剤である。第2薬剤は、第1薬剤と同じリガンドに放射性核種を標識した薬剤である。第2薬剤の放射性核種は、α線またはβ線を放射して近傍の細胞に損傷を与える核種である。 Specifically, the second drug is administered to the subject. The second drug is a drug for the treatment of nuclear medicine. The second drug is a drug in which the same ligand as the first drug is labeled with a radionuclide. The radionuclide of the second drug is a nuclide that emits α-rays or β-rays and damages nearby cells.

被検体に第2薬剤を投与することにより、病変部位に第2薬剤が集積して、α線またはβ線を放射する。α線またはβ線により病変部位の細胞が損傷されて壊死する。したがって、病変を治療できる。 By administering the second drug to the subject, the second drug accumulates at the lesion site and emits α-rays or β-rays. The cells at the lesion site are damaged by α or β rays and become necrotic. Therefore, the lesion can be treated.

第2薬剤を投与した後に、医療装置3を使用して被検体を撮影することにより、治療の進行状況を撮影できる。以下に具体例を説明する。 After the second drug is administered, the progress of the treatment can be photographed by photographing the subject using the medical device 3. A specific example will be described below.

例えば、第2薬剤の放射性核種にルテチウム177を使用できる。ルテチウム177はβ線とγ線とを放射する。従って、γ線を撮影可能な医療装置3を使用することにより、第2薬剤が集積した病変部位を撮影できる。 For example, lutetium 177 can be used as the radionuclide of the second drug. Lutetium 177 emits β-rays and γ-rays. Therefore, by using the medical device 3 capable of photographing γ-rays, it is possible to photograph the lesion site where the second drug is accumulated.

第1薬剤に前立腺特異的膜抗原結合性リガンドを使用した場合には、第2薬剤にはルテチウム177で標識した前立腺特異的膜抗原結合性リガンド(177Lu−PSMA)を使用する。第1薬剤にHER2抗体を使用した場合には、第2薬剤にはルテチウム177で標識したHER2抗体(177Lu−HER2)を使用する。 When a prostate-specific membrane antigen-binding ligand is used as the first drug, a prostate-specific membrane antigen-binding ligand (177Lu-PSMA) labeled with lutetium-177 is used as the second drug. When the HER2 antibody is used as the first drug, the HER2 antibody (177Lu-HER2) labeled with lutetium-177 is used as the second drug.

例えば、第2薬剤の放射性核種にアスタチン211を使用できる。アスタチン211はX線を放射する。例えば、CT(Computed Tomography)、単一光子放射断層撮影装置またはコンプトンカメラ等の医療装置3を使用することにより、第2薬剤により治療中の部位を撮影できる。 For example, astatine 211 can be used as the radionuclide of the second drug. Astatine 211 emits X-rays. For example, by using a medical device 3 such as a CT (Computed Tomography), a single photon emission tomography device, or a Computon camera, the site being treated can be imaged with a second drug.

第1薬剤に前立腺特異的膜抗原結合性リガンドを使用した場合には、第2薬剤にはアスタチン211で標識した前立腺特異的膜抗原結合性リガンド(211At−PSMA)を使用する。第1薬剤にHER2抗体を使用した場合には、第2薬剤にはアスタチン211で標識したHER2抗体(211At−HER2)を使用する。 When a prostate-specific membrane antigen-binding ligand is used as the first drug, a prostate-specific membrane antigen-binding ligand (211 At-PSMA) labeled with astatine 211 is used as the second drug. When the HER2 antibody is used as the first drug, the HER2 antibody (211 At-HER2) labeled with astatine 211 is used as the second drug.

一連の放射性核種核医学治療が終了した後に、診断用の第2薬剤を投与して治療状況を観察しても良い。この場合には、第2薬剤には第1薬剤と同一の薬剤を使用し、医療装置3にはγ線を撮影可能な装置を使用する。 After a series of radionuclide nuclear medicine treatments are completed, a second diagnostic agent may be administered and the treatment status may be observed. In this case, the same drug as the first drug is used for the second drug, and a device capable of photographing γ-rays is used for the medical device 3.

情報処理端末4は、病変推定情報の受信または表示等を行う端末装置であり、例えばスマートフォン、携帯電話、タブレット、パーソナルコンピュータ端末等の情報処理機器である。以下では簡潔のため、情報処理端末4を端末4と読み替える。 The information processing terminal 4 is a terminal device that receives or displays lesion estimation information, and is, for example, an information processing device such as a smartphone, a mobile phone, a tablet, or a personal computer terminal. In the following, for the sake of brevity, the information processing terminal 4 will be read as the terminal 4.

本実施形態に係るサーバ1は、PET装置2を用いて撮影した診断画像を取得する。サーバ1は、後述する診断用病変推定モデルを用いて、取得した診断画像を入力して病変推定情報を出力する。サーバ1は、診断用病変推定モデルが出力した病変推定情報に基づいて、医療装置3を用いて撮影した治療段階の治療画像を取得する。サーバ1は、後述する治療用病変推定モデルを用いて、取得した治療画像を入力して治療段階での病変推定情報を出力する。 The server 1 according to the present embodiment acquires a diagnostic image taken by using the PET device 2. The server 1 inputs the acquired diagnostic image and outputs the lesion estimation information by using the diagnostic lesion estimation model described later. The server 1 acquires a treatment image of the treatment stage taken by using the medical device 3 based on the lesion estimation information output by the diagnostic lesion estimation model. The server 1 inputs the acquired treatment image using the therapeutic lesion estimation model described later, and outputs the lesion estimation information at the treatment stage.

図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、記憶部12、通信部13、入力部14、表示部15、読取部16及び大容量記憶部17を含む。各構成はバスBで接続されている。 FIG. 2 is a block diagram showing a configuration example of the server 1. The server 1 includes a control unit 11, a storage unit 12, a communication unit 13, an input unit 14, a display unit 15, a reading unit 16, and a large-capacity storage unit 17. Each configuration is connected by bus B.

制御部11はCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を含み、記憶部12に記憶された制御プログラム1Pを読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。なお、図2では制御部11を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。 The control unit 11 includes arithmetic processing units such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), and a GPU (Graphics Processing Unit), and reads and executes the control program 1P stored in the storage unit 12. , Performs various information processing, control processing, etc. related to the server 1. Although the control unit 11 is described as a single processor in FIG. 2, it may be a multiprocessor.

記憶部12はRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含み、制御部11が処理を実行するために必要な制御プログラム1P又はデータ等を記憶している。また、記憶部12は、制御部11が演算処理を実行するために必要なデータ等を一時的に記憶する。通信部13は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、PET装置2、医療装置3、または端末4との間で情報の送受信を行う。 The storage unit 12 includes memory elements such as a RAM (Random Access Memory) and a ROM (Read Only Memory), and stores a control program 1P or data required for the control unit 11 to execute processing. In addition, the storage unit 12 temporarily stores data and the like necessary for the control unit 11 to execute arithmetic processing. The communication unit 13 is a communication module for performing processing related to communication, and transmits / receives information to / from the PET device 2, the medical device 3, or the terminal 4 via the network N.

入力部14は、マウス、キーボード、タッチパネル、ボタン等の入力デバイスであり、受け付けた操作情報を制御部11へ出力する。表示部15は、液晶ディスプレイ又は有機EL(electroluminescence)ディスプレイ等であり、制御部11の指示に従い各種情報を表示する。 The input unit 14 is an input device such as a mouse, a keyboard, a touch panel, and a button, and outputs the received operation information to the control unit 11. The display unit 15 is a liquid crystal display, an organic EL (electroluminescence) display, or the like, and displays various information according to the instructions of the control unit 11.

読取部16は、CD(Compact Disc)−ROM又はDVD(Digital Versatile Disc)−ROMを含む可搬型記憶媒体1aを読み取る。制御部11が読取部16を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶部17に記憶しても良い。また、ネットワークN等を介して他のコンピュータから制御部11が制御プログラム1Pをダウンロードし、大容量記憶部17に記憶しても良い。さらにまた、半導体メモリ1bから、制御部11が制御プログラム1Pを読み込んでも良い。 The reading unit 16 reads a portable storage medium 1a including a CD (Compact Disc) -ROM or a DVD (Digital Versatile Disc) -ROM. The control unit 11 may read the control program 1P from the portable storage medium 1a via the reading unit 16 and store it in the large-capacity storage unit 17. Further, the control unit 11 may download the control program 1P from another computer via the network N or the like and store it in the large-capacity storage unit 17. Furthermore, the control unit 11 may read the control program 1P from the semiconductor memory 1b.

大容量記憶部17は、例えばHDD(Hard disk drive:ハードディスク)、SSD(Solid State Drive:ソリッドステートドライブ)等の記録媒体を備える。大容量記憶部17は、被検体DB(データベース:database)171、診断情報DB172、治療情報DB173、診断用病変推定モデル(第1学習モデル)174及び治療用病変推定モデル175(第2学習モデル)を含む。 The large-capacity storage unit 17 includes, for example, a recording medium such as an HDD (Hard disk drive) or an SSD (Solid State Drive). The large-capacity storage unit 17 includes a subject DB (database) 171, a diagnostic information DB 172, a treatment information DB 173, a diagnostic lesion estimation model (first learning model) 174, and a therapeutic lesion estimation model 175 (second learning model). including.

被検体DB171は、被検体に関する情報を記憶している。診断情報DB172は、被検体の診断情報を記憶している。治療情報DB173は、被検体の治療情報を記憶している。診断用病変推定モデル174は、診断画像に基づいて病変情報を推定する推定器であり、機械学習により生成された学習済みモデルである。治療用病変推定モデル175は、治療画像に基づいて治療段階での病変情報を推定する推定器であり、機械学習により生成された学習済みモデルである。 The subject DB 171 stores information about the subject. The diagnostic information DB 172 stores the diagnostic information of the subject. The treatment information DB 173 stores the treatment information of the subject. The diagnostic lesion estimation model 174 is an estimator that estimates lesion information based on a diagnostic image, and is a trained model generated by machine learning. The therapeutic lesion estimation model 175 is an estimator that estimates lesion information at the treatment stage based on a treatment image, and is a trained model generated by machine learning.

なお、本実施形態において記憶部12及び大容量記憶部17は一体の記憶装置として構成されていても良い。また、大容量記憶部17は複数の記憶装置により構成されていても良い。更にまた、大容量記憶部17はサーバ1に接続された外部記憶装置であっても良い。 In this embodiment, the storage unit 12 and the large-capacity storage unit 17 may be configured as an integrated storage device. Further, the large-capacity storage unit 17 may be composed of a plurality of storage devices. Furthermore, the large-capacity storage unit 17 may be an external storage device connected to the server 1.

なお、本実施形態では、サーバ1は一台の情報処理装置であるものとして説明するが、複数台により分散して処理させても良く、または仮想マシンにより構成されていても良い。 In the present embodiment, the server 1 is described as one information processing device, but it may be distributed and processed by a plurality of servers, or it may be configured by a virtual machine.

図3は、被検体DB171のレコードレイアウトの一例を示す説明図である。被検体DB171は、被検体ID列、病変種類列、診断ID列及び治療ID列を含む。被検体ID列は、各被検体を識別するために、一意に特定される被検体のIDを記憶している。病変種類列は、被検体の病変の種類情報を記憶している。診断ID列は、診断情報を特定する診断情報のIDを記憶している。治療ID列は、治療情報を特定する治療情報のIDを記憶している。 FIG. 3 is an explanatory diagram showing an example of the record layout of the subject DB 171. The subject DB 171 includes a subject ID row, a lesion type row, a diagnosis ID row, and a treatment ID row. The subject ID column stores the ID of the subject uniquely identified in order to identify each subject. The lesion type column stores the lesion type information of the subject. The diagnostic ID column stores the ID of the diagnostic information that identifies the diagnostic information. The treatment ID column stores the ID of the treatment information that identifies the treatment information.

図4は、診断情報DB172のレコードレイアウトの一例を示す説明図である。診断情報DB172は、診断ID列、被検体ID列、診断画像列、撮影日時列、投与薬剤列及び病変情報列を含む。診断ID列は、各診断情報(診断データ)を識別するために、一意に特定される診断情報のIDを記憶している。被検体ID列は、被検体を特定する被検体IDを記憶している。 FIG. 4 is an explanatory diagram showing an example of the record layout of the diagnostic information DB 172. The diagnostic information DB 172 includes a diagnostic ID column, a subject ID column, a diagnostic image sequence, an imaging date / time sequence, an administered drug sequence, and a lesion information sequence. The diagnostic ID column stores the ID of the diagnostic information uniquely identified in order to identify each diagnostic information (diagnosis data). The subject ID column stores the subject ID that identifies the subject.

診断画像列は、診断画像を記憶している。撮影日時列は、診断画像が撮影された日時情報を記憶している。投与薬剤列は、被検体に投与された第1薬剤の名称を記憶している。病変情報列は、被検体の病変に対する診断情報を記憶している。 The diagnostic image sequence stores the diagnostic image. The shooting date / time column stores information on the date and time when the diagnostic image was taken. The administered drug sequence stores the name of the first drug administered to the subject. The lesion information column stores diagnostic information for the lesion of the subject.

図5は、治療情報DB173のレコードレイアウトの一例を示す説明図である。治療情報DB173は、治療ID列、サブID列、被検体ID列、治療画像列、撮影日時列、投与薬剤列、病変情報列及び備考列を含む。治療ID列は、各治療情報(治療データ)を識別するために、一意に特定される治療情報のIDを記憶している。サブID列は、治療IDの子IDを記憶している。サブID列には、同じ治療コース(治療ID)に対し、治療回数に応じたそれぞれの治療情報を識別するための識別子が記憶される。被検体ID列は、被検体を特定する被検体IDを記憶している。 FIG. 5 is an explanatory diagram showing an example of the record layout of the treatment information DB 173. The treatment information DB 173 includes a treatment ID column, a sub ID column, a subject ID column, a treatment image column, an imaging date / time column, an administered drug column, a lesion information column, and a remarks column. The treatment ID column stores the ID of the treatment information uniquely specified in order to identify each treatment information (treatment data). The sub ID column stores the child ID of the treatment ID. In the sub-ID column, an identifier for identifying each treatment information according to the number of treatments is stored for the same treatment course (treatment ID). The subject ID column stores the subject ID that identifies the subject.

治療画像列は、医療装置3を用いて撮影した治療段階の治療画像を記憶している。撮影日時列は、治療画像が撮影された日時情報を記憶している。投与薬剤列は、被検体に投与された第2薬剤の名称を記憶している。病変情報列は、治療段階での被検体の病変情報を記憶している。備考列は、治療情報に対するコメントまたは補充事項等の情報を記憶している。 The treatment image sequence stores the treatment image of the treatment stage taken by using the medical device 3. The shooting date / time column stores information on the date and time when the treatment image was taken. The administered drug sequence stores the name of the second drug administered to the subject. The lesion information column stores the lesion information of the subject at the treatment stage. The remarks column stores information such as comments or supplements for treatment information.

図6は、PET装置2の構成例を示すブロック図である。PET装置2は、制御部21、記憶部22、通信部23、入力部24、表示部25、撮影部26、検出器27及びユニット基板28を含む。各構成はバスBで接続されている。 FIG. 6 is a block diagram showing a configuration example of the PET device 2. The PET device 2 includes a control unit 21, a storage unit 22, a communication unit 23, an input unit 24, a display unit 25, a photographing unit 26, a detector 27, and a unit board 28. Each configuration is connected by bus B.

制御部21はCPU、MPU等の演算処理装置を含み、記憶部22に記憶された制御プログラム2Pを読み出して実行することにより、PET装置2に係る種々の情報処理、制御処理等を行う。なお、図6では制御部21を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。記憶部22はRAM、ROM等のメモリ素子を含み、制御部21が処理を実行するために必要な制御プログラム2P又はデータ等を記憶している。また、記憶部22は、制御部21が演算処理を実行するために必要なデータ等を一時的に記憶する。 The control unit 21 includes arithmetic processing units such as a CPU and an MPU, and performs various information processing, control processing, and the like related to the PET device 2 by reading and executing the control program 2P stored in the storage unit 22. Although the control unit 21 is described as a single processor in FIG. 6, it may be a multiprocessor. The storage unit 22 includes memory elements such as RAM and ROM, and stores the control program 2P or data required for the control unit 21 to execute the process. In addition, the storage unit 22 temporarily stores data and the like necessary for the control unit 21 to execute arithmetic processing.

通信部23は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、サーバ1等と情報の送受信を行う。入力部24は、操作ボタン、キーボードまたはマウスでも良い。表示部25は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部21の指示に従い各種情報を表示する。 The communication unit 23 is a communication module for performing processing related to communication, and transmits / receives information to / from the server 1 or the like via the network N. The input unit 24 may be an operation button, a keyboard or a mouse. The display unit 25 is a liquid crystal display, an organic EL display, or the like, and displays various information according to the instructions of the control unit 21.

撮影部26は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ等の撮影装置である。なお、撮影部26は、複数の撮影装置により構成されても良い。検出器27は、被検体から放出される陽電子等を検出するための半導体γ線検出器である。なお、半導体γ線検出器をユニット基板28に多数備えることができる。 The photographing unit 26 is, for example, a photographing device such as a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera. The photographing unit 26 may be composed of a plurality of photographing devices. The detector 27 is a semiconductor γ-ray detector for detecting positrons and the like emitted from a subject. A large number of semiconductor γ-ray detectors can be provided on the unit substrate 28.

ユニット基板28は、γ線の検出エネルギ、検出時刻を計測するための集積回路(ASIC)を有しており、検出したγ線の検出エネルギや検出時刻を測定したり、γ線を検出した検出器27のアドレスを検知したりして、検出γ線情報を出力する。 The unit substrate 28 has an integrated circuit (ASIC) for measuring γ-ray detection energy and detection time, and measures the detected γ-ray detection energy and detection time, or detects γ-rays. The detected γ-ray information is output by detecting the address of the device 27.

図7は、医療装置3の構成例を示すブロック図である。医療装置3は、制御部31、記憶部32、通信部33、入力部34、表示部35、撮影部36、検出器37及びユニット基板38を含む。各構成はバスBで接続されている。 FIG. 7 is a block diagram showing a configuration example of the medical device 3. The medical device 3 includes a control unit 31, a storage unit 32, a communication unit 33, an input unit 34, a display unit 35, an imaging unit 36, a detector 37, and a unit board 38. Each configuration is connected by bus B.

制御部31はCPU、MPU等の演算処理装置を含み、記憶部32に記憶された制御プログラム3Pを読み出して実行することにより、医療装置3に係る種々の情報処理、制御処理等を行う。なお、図7では制御部31を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。記憶部32はRAM、ROM等のメモリ素子を含み、制御部31が処理を実行するために必要な制御プログラム3P又はデータ等を記憶している。また、記憶部32は、制御部31が演算処理を実行するために必要なデータ等を一時的に記憶する。 The control unit 31 includes arithmetic processing units such as a CPU and an MPU, and performs various information processing, control processing, and the like related to the medical device 3 by reading and executing the control program 3P stored in the storage unit 32. Although the control unit 31 is described as a single processor in FIG. 7, it may be a multiprocessor. The storage unit 32 includes memory elements such as RAM and ROM, and stores the control program 3P or data required for the control unit 31 to execute the process. In addition, the storage unit 32 temporarily stores data and the like necessary for the control unit 31 to execute arithmetic processing.

通信部33は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、サーバ1等と情報の送受信を行う。入力部34は、操作ボタン、キーボードまたはマウスでも良い。表示部35は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部31の指示に従い各種情報を表示する。 The communication unit 33 is a communication module for performing processing related to communication, and transmits / receives information to / from the server 1 or the like via the network N. The input unit 34 may be an operation button, a keyboard or a mouse. The display unit 35 is a liquid crystal display, an organic EL display, or the like, and displays various information according to the instructions of the control unit 31.

撮影部36は、例えばCCDカメラ、CMOSカメラ等の撮影装置である。なお、撮影部36は、複数の撮影装置により構成されても良い。検出器37は、被検体から放出される放射線(例えば、β線またはγ線等)を検出するための半導体放射線検出器である。なお、半導体放射線検出器をユニット基板38に多数備えることができる。 The photographing unit 36 is a photographing device such as a CCD camera or a CMOS camera. The photographing unit 36 may be composed of a plurality of photographing devices. The detector 37 is a semiconductor radiation detector for detecting radiation emitted from a subject (for example, β-rays or γ-rays). A large number of semiconductor radiation detectors can be provided on the unit substrate 38.

ユニット基板38は、放射線の検出エネルギ、検出時刻を計測するための集積回路(ASIC)を有しており、検出した放射線の検出エネルギや検出時刻を測定したり、放射線を検出した検出器37のアドレスを検知したりして、検出放射線情報を出力する。 The unit substrate 38 has an integrated circuit (ASIC) for measuring the radiation detection energy and the detection time, and measures the detected radiation detection energy and the detection time, and the detector 37 that detects the radiation. It detects the address and outputs the detected radiation information.

図8は、端末4の構成例を示すブロック図である。端末4は、制御部41、記憶部42、通信部43、入力部44及び表示部45を含む。各構成はバスBで接続されている。 FIG. 8 is a block diagram showing a configuration example of the terminal 4. The terminal 4 includes a control unit 41, a storage unit 42, a communication unit 43, an input unit 44, and a display unit 45. Each configuration is connected by bus B.

制御部41はCPU、MPU等の演算処理装置を含み、記憶部42に記憶された制御プログラム4Pを読み出して実行することにより、端末4に係る種々の情報処理、制御処理等を行う。なお、図8では制御部41を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。記憶部42はRAM、ROM等のメモリ素子を含み、制御部41が処理を実行するために必要な制御プログラム4P又はデータ等を記憶している。また、記憶部42は、制御部41が演算処理を実行するために必要なデータ等を一時的に記憶する。 The control unit 41 includes arithmetic processing units such as a CPU and an MPU, and performs various information processing, control processing, and the like related to the terminal 4 by reading and executing the control program 4P stored in the storage unit 42. Although the control unit 41 is described as a single processor in FIG. 8, it may be a multiprocessor. The storage unit 42 includes memory elements such as RAM and ROM, and stores the control program 4P or data required for the control unit 41 to execute the process. In addition, the storage unit 42 temporarily stores data and the like necessary for the control unit 41 to execute arithmetic processing.

通信部43は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、サーバ1等と情報の送受信を行う。入力部44は、キーボード、マウスまたは表示部45と一体化したタッチパネルでも良い。表示部45は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部41の指示に従い各種情報を表示する。 The communication unit 43 is a communication module for performing processing related to communication, and transmits / receives information to / from the server 1 or the like via the network N. The input unit 44 may be a keyboard, a mouse, or a touch panel integrated with the display unit 45. The display unit 45 is a liquid crystal display, an organic EL display, or the like, and displays various information according to the instructions of the control unit 41.

図9は、病変推定情報を出力する動作を説明する説明図である。サーバ1の制御部11は、通信部13を介して、PET装置2を用いて撮影した診断画像を取得する。なお、本実施形態では、診断画像がネットワーク経由でPET装置2から取得された例を説明したが、これに限るものではない。例えば、診断画像をメモリーカード経由でサーバ1に転送しても良い。 FIG. 9 is an explanatory diagram illustrating an operation of outputting lesion estimation information. The control unit 11 of the server 1 acquires a diagnostic image taken by the PET device 2 via the communication unit 13. In the present embodiment, an example in which the diagnostic image is acquired from the PET device 2 via the network has been described, but the present invention is not limited to this. For example, the diagnostic image may be transferred to the server 1 via the memory card.

制御部11は、取得した診断画像を入力した場合に病変推定情報を出力する診断用病変推定モデル174に、取得した診断画像を入力し、被検体の病変情報を推定した推定結果を出力する。病変情報は、例えばがんの形状、がんの広がり(浸潤や転移)程度、または悪性度等である。以下では、前立腺がんの広がり程度の例を説明する。前立腺がんの広がり程度は、がんがどの程度広がっているかを評価するTNM分類により分類することができる。 The control unit 11 inputs the acquired diagnostic image to the diagnostic lesion estimation model 174 that outputs the lesion estimation information when the acquired diagnostic image is input, and outputs the estimation result of estimating the lesion information of the subject. The lesion information is, for example, the shape of the cancer, the extent of the spread (invasion or metastasis) of the cancer, or the degree of malignancy. The following describes an example of the extent of the spread of prostate cancer. The extent to which prostate cancer has spread can be categorized by the TNM classification, which assesses how widespread the cancer is.

TNM分類は、がんの進行度を判定する基準で、国際対がん連合(UICC:Union for International Cancer Control)が採用している病期分類であり、がんの進行度を示す。Tは発生したがんの大きさ・広がり・深さの程度(浸潤)を、Nは周囲のリンパ節へのがんの広がり具合を、Mは遠隔転移の有無を数値で示す。Tは0〜4の5段階、Nは0〜1の2段階、Mは0〜1の2段階の数字を付けて大きく分類する仕組みである。0は「無い」ことを表す。 The TNM classification is a standard for determining the degree of cancer progression, and is a staging system adopted by the Union for International Cancer Control (UICC), which indicates the degree of cancer progression. T indicates the size, spread, and depth (infiltration) of the cancer that has developed, N indicates the degree of spread of the cancer to the surrounding lymph nodes, and M indicates the presence or absence of distant metastasis. T is 5 levels from 0 to 4, N is 2 levels from 0 to 1, and M is 2 levels from 0 to 1. 0 means "nothing".

上述したTNM分類によって、前立腺がんの広がり程度をT0、T1、T2、T3、T4、N0、N1、M0及びM1に分類する例を説明する。T0は、がんを認めないことである。T1は、偶然見つかった、または生検で見つかる限局がんである。T2は、丸い前立腺を半分に見立て、片葉の小さな範囲にあるがん、片葉の2分の1を超える範囲をしめるがん、または両葉に広がるがんである。T3は、前立腺を被う膜を超えたがん、または精嚢浸潤があるがんである。T4は、前立腺に近接する膀胱や直腸に浸潤したがんである。Nは、所属リンパ節転移の有無であり、N0は転移なし、N1は転移有りである。Mは、離れた場所(例えば、肝臓、肺または骨等)に転移(遠隔転移)の有無であり、M0は転移なし、M1は転移有りである。 An example of classifying the extent of prostate cancer into T0, T1, T2, T3, T4, N0, N1, M0 and M1 by the above-mentioned TNM classification will be described. T0 is the absence of cancer. T1 is a localized cancer found by chance or by biopsy. T2 is a cancer that resembles a round prostate in half and has a small area in one lobe, a cancer that covers more than half of one leaf, or a cancer that spreads to both lobes. T3 is a cancer that crosses the membrane that covers the prostate or has seminal vesicle infiltration. T4 is a cancer that invades the bladder and rectum near the prostate. N is the presence or absence of regional lymph node metastasis, N0 is no metastasis, and N1 is metastasis. M is the presence or absence of metastasis (distant metastasis) to a distant place (for example, liver, lung or bone), M0 is no metastasis, and M1 is metastasis.

なお、病変情報の推定処理に関しては後述する。制御部11は、診断用病変推定モデル174が出力した病変推定情報を大容量記憶部17の被検体DB171及び診断情報DB172に記憶する。制御部11は、通信部13を介して、病変推定情報を端末4に送信する。なお、本実施形態では、病変推定情報が端末4に送信された例を説明したが、これに限るものではない。例えば、制御部11は病変推定情報を表示部15により表示しても良い。 The process of estimating lesion information will be described later. The control unit 11 stores the lesion estimation information output by the diagnostic lesion estimation model 174 in the subject DB 171 and the diagnostic information DB 172 of the large-capacity storage unit 17. The control unit 11 transmits the lesion estimation information to the terminal 4 via the communication unit 13. In the present embodiment, an example in which the lesion estimation information is transmitted to the terminal 4 has been described, but the present invention is not limited to this. For example, the control unit 11 may display the lesion estimation information on the display unit 15.

制御部11は、診断用病変推定モデル174が出力した病変推定情報に基づいて、医療装置3を用いて撮影した治療段階の治療画像を取得する。 The control unit 11 acquires a treatment image of the treatment stage taken by using the medical device 3 based on the lesion estimation information output by the diagnostic lesion estimation model 174.

端末4を使用する医師は、表示された病変推定情報に基づいて治療方針を決定する。本実施の形態の以下の説明では、RI内用療法を行うと決定された場合の治療段階について説明する。 The doctor who uses the terminal 4 decides the treatment policy based on the displayed lesion estimation information. In the following description of this embodiment, the treatment stage when it is decided to perform RI internal therapy will be described.

治療段階においては、第2薬剤が複数回投与される。本実施の形態においては、投与量、投与回数等は医師が専門知識に基づいて判断する。第2薬剤を投与することにより、病変部位の細胞を放射線により壊死させる核医学治療が行われる。 In the treatment phase, the second agent is administered multiple times. In the present embodiment, the dose, the number of administrations, and the like are determined by the doctor based on his / her specialized knowledge. By administering the second drug, nuclear medicine treatment is performed in which the cells at the lesion site are necrotic by radiation.

医師は、第2薬剤を投与した後、医療装置3を用いて治療画像を適宜撮影する。例えば全身転移箇所が多い場合、または、病変が大きい場合、第2薬剤を2回または3回投与するたびに、医師は治療画像を撮影する。全身転移箇所が少ない場合、または、病変が小さい場合、医師は第2薬剤を1回または2回投与するたびに治療画像を撮影する。 After administering the second drug, the doctor appropriately takes a treatment image using the medical device 3. For example, if there are many systemic metastases or if the lesion is large, the doctor will take a treatment image every time the second drug is administered two or three times. If there are few systemic metastases or the lesions are small, the doctor will take a treatment image after each dose or two doses of the second drug.

医師は、必要に応じて第1薬剤と同一の薬剤を投与して治療画像を撮影する。鮮明な治療画像が撮影できるため、治療段階での病変情報を精度高く推定できる。例えば、治療終了判断の直前に第1薬剤と同一の薬剤を投与して治療画像を撮影することにより、小さい病変の見落とし等を避けられる。 The doctor administers the same drug as the first drug as needed and takes a treatment image. Since a clear treatment image can be taken, lesion information at the treatment stage can be estimated with high accuracy. For example, by administering the same drug as the first drug and taking a treatment image immediately before determining the end of treatment, it is possible to avoid overlooking small lesions.

制御部11は、取得した治療画像を入力した場合に治療段階での病変推定情報を出力する治療用病変推定モデル175に、取得した治療画像を入力し、治療段階での病変情報を推定した推定結果を出力する。なお、治療段階での病変情報の推定処理に関しては後述する。制御部11は、治療用病変推定モデル175が出力した治療段階での病変推定情報を大容量記憶部17の被検体DB171及び治療情報DB173に記憶する。制御部11は、通信部13を介して、治療段階での病変推定情報を端末4に送信する。 The control unit 11 inputs the acquired treatment image to the therapeutic lesion estimation model 175 that outputs the lesion estimation information at the treatment stage when the acquired treatment image is input, and estimates the lesion information at the treatment stage. Output the result. The process of estimating lesion information at the treatment stage will be described later. The control unit 11 stores the lesion estimation information at the treatment stage output by the therapeutic lesion estimation model 175 in the subject DB 171 and the treatment information DB 173 of the large-capacity storage unit 17. The control unit 11 transmits the lesion estimation information at the treatment stage to the terminal 4 via the communication unit 13.

続いて、診断用病変推定モデル174を用いる病変情報の推定処理を説明する。図10は、診断用病変推定モデル174を説明する説明図である。診断用病変推定モデル174は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される。診断用病変推定モデル174は、PET装置2を用いて撮影した診断画像を入力とし、病変情報を推定した結果を出力とするニューラルネットワークを構築済みの推定器である。 Subsequently, the lesion information estimation process using the diagnostic lesion estimation model 174 will be described. FIG. 10 is an explanatory diagram illustrating a diagnostic lesion estimation model 174. The diagnostic lesion estimation model 174 is used as a program module that is part of artificial intelligence software. The diagnostic lesion estimation model 174 is an estimator for which a neural network has been constructed that inputs a diagnostic image taken by using the PET device 2 and outputs the result of estimating the lesion information.

サーバ1の制御部11は、診断用病変推定モデル174として、診断画像内における病変箇所の特徴量を学習するディープラーニングを行うことで診断用病変推定モデル174を構築(生成)する。例えば、診断用病変推定モデル174はCNN(Convolution Neural Network)であり、診断画像の入力を受け付ける入力層と、病変情報を推定した結果を出力する出力層と、バックプロパゲーションにより学習済の中間層とを有する。 The control unit 11 of the server 1 constructs (generates) a diagnostic lesion estimation model 174 as a diagnostic lesion estimation model 174 by performing deep learning to learn the feature amount of the lesion portion in the diagnostic image. For example, the diagnostic lesion estimation model 174 is a CNN (Convolution Neural Network), which includes an input layer that accepts input of diagnostic images, an output layer that outputs the result of estimating lesion information, and an intermediate layer that has been trained by backpropagation. And have.

入力層は、診断画像に含まれる各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層に受け渡す。中間層は、診断画像の特徴量を抽出する複数のニューロンを有し、抽出した画像特徴量を出力層に受け渡す。例えば診断用病変推定モデル174がCNNである場合を例にして説明する。中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピングするプーリング層とが交互に連結された構成により、診断画像の画素情報を圧縮しながら最終的に画像の特徴量を抽出する。その後中間層は、バックプロパゲーションによりパラメータが学習された全結合層により、病変情報を推定(予測)する。推定結果は、複数のニューロンを有する出力層に出力される。 The input layer has a plurality of neurons that receive input of the pixel value of each pixel included in the diagnostic image, and passes the input pixel value to the intermediate layer. The intermediate layer has a plurality of neurons for extracting the feature amount of the diagnostic image, and the extracted image feature amount is passed to the output layer. For example, the case where the diagnostic lesion estimation model 174 is CNN will be described as an example. The intermediate layer is composed of a convolution layer that convolves the pixel values of each pixel input from the input layer and a pooling layer that maps the pixel values convoluted by the convolution layer. Finally, the feature amount of the image is extracted while compressing the information. The intermediate layer then estimates (predicts) lesion information from the fully connected layer whose parameters have been learned by backpropagation. The estimation result is output to the output layer having a plurality of neurons.

なお、診断画像は、交互に連結されたコンボリューション層とプーリング層とを通過して特徴量が抽出された後に、入力層に入力されても良い。 The diagnostic image may be input to the input layer after the feature amount is extracted by passing through the convolution layer and the pooling layer which are alternately connected.

なお、CNNの代わりに、RCNN(Regions with Convolutional Neural Network)、Fast RCNN、Faster RCNN、Mask RCNN、SSD(Single Shot Multibook Detector)、YOLO(You Only Look Once)、SVM(Support Vector Machine)、ベイジアンネットワーク、または回帰木等の任意の物体検出アルゴリズムを使用しても良い。 Instead of CNN, RCNN (Regions with Convolutional Neural Network), Fast RCNN, Faster RCNN, Mask RCNN, SSD (Single Shot Multibook Detector), YOLO (You Only Look Once), SVM (Support Vector Machine), Bayesian Network , Or any object detection algorithm such as a regression tree may be used.

例えば、制御部11は診断画像に基づき、SSD物体検出アルゴリズムにより構築された学習済みの部位識別モデルを用いて、病変部位(例えば、胃、大腸または前立腺等)を識別した識別結果を取得する。制御部11は、病変部位の識別結果に基づき、部位ごとにSSD物体検出アルゴリズムにより構築された学習済みの病変推定モデルに診断画像を入力し、病変を推定した推定結果を出力する。なお、診断画像は病変箇所がわかっているため、該診断画像から切り抜いた病変領域の画像を上述した学習済みの病変推定モデルに入力しても良い。病変領域の画像を利用することで、病変情報を推定した推定結果の精度を上げ、病変箇所の見落とし等を防止することが可能となる。 For example, the control unit 11 acquires an identification result for identifying a lesion site (for example, stomach, large intestine, prostate, etc.) using a learned site identification model constructed by an SSD object detection algorithm based on a diagnostic image. Based on the lesion site identification result, the control unit 11 inputs a diagnostic image into the learned lesion estimation model constructed by the SSD object detection algorithm for each site, and outputs the estimation result of estimating the lesion. Since the lesion location is known in the diagnostic image, the image of the lesion region cut out from the diagnostic image may be input to the learned lesion estimation model described above. By using the image of the lesion area, it is possible to improve the accuracy of the estimation result of estimating the lesion information and prevent the lesion part from being overlooked.

学習の際には、医療機関に存在する大量の過去の診断データ(例えば、診断画像等)を教師データとして利用する。サーバ1の制御部11は、診断画像と、該診断画像に対応する病変情報とが対応付けられた教師データの組み合わせを用いて学習を行う。教師データは、診断画像に対し、該診断画像に対応する病変情報(例えば、T1、T2またはT3等)がラベル付けされたデータである。制御部11は、教師データである診断画像を入力層に入力し、中間層での演算処理を経て、出力層から病変情報を推定した推定結果を取得する。 At the time of learning, a large amount of past diagnostic data (for example, diagnostic image) existing in a medical institution is used as teacher data. The control unit 11 of the server 1 performs learning by using a combination of the diagnostic image and the teacher data associated with the lesion information corresponding to the diagnostic image. The teacher data is data in which lesion information (for example, T1, T2, T3, etc.) corresponding to the diagnostic image is labeled on the diagnostic image. The control unit 11 inputs the diagnostic image, which is the teacher data, to the input layer, performs arithmetic processing in the intermediate layer, and acquires the estimation result of estimating the lesion information from the output layer.

なお、出力層から出力される推定結果は病変の有無を離散的に示す値(例えば「0」又は「1」の値)であっても良く、連続的な確率値(例えば「0」から「1」までの範囲の値)であっても良い。制御部11は、出力層から出力される推定結果として、例えばがんの形状、サイズ、広がり程度または悪性度等を推定した推定結果を取得する。 The estimation result output from the output layer may be a value discretely indicating the presence or absence of a lesion (for example, a value of "0" or "1"), and a continuous probability value (for example, "0" to "1"). It may be a value in the range up to 1 ”). The control unit 11 acquires, for example, an estimation result of estimating the shape, size, spread degree, malignancy, etc. of the cancer as the estimation result output from the output layer.

教師データは、予め記憶部12または大容量記憶部17に記憶された教師データの組み合わせを取得しても良い。または、制御部11は、複数の診断画像において、それぞれの診断画像に対して病期情報をラベリングすることで、病変情報を学習するための教師データを生成しても良い。具体的には、制御部11はそれぞれの診断画像に対して、例えば前立腺がんの広がり程度の名称(例えば、T1またはT2等)を関連付けた教師データを生成する。制御部11は、教師データである診断画像を入力層に入力し、中間層での演算処理を経て、出力層から該診断画像に対応する病変情報を推定した推定結果を取得する。 As the teacher data, a combination of teacher data stored in advance in the storage unit 12 or the large-capacity storage unit 17 may be acquired. Alternatively, the control unit 11 may generate teacher data for learning the lesion information by labeling the stage information for each of the diagnostic images in the plurality of diagnostic images. Specifically, the control unit 11 generates teacher data in which, for example, the name of the extent of the spread of prostate cancer (for example, T1 or T2, etc.) is associated with each diagnostic image. The control unit 11 inputs the diagnostic image, which is the teacher data, to the input layer, performs arithmetic processing in the intermediate layer, and acquires the estimation result of estimating the lesion information corresponding to the diagnostic image from the output layer.

制御部11は、出力層から出力された推定結果を、教師データにおいて診断画像に対しラベル付けされた情報、すなわち正解値と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)、各ニューロンで用いられる活性化関数の係数等である。パラメータの最適化の方法は特に限定されないが、例えば、制御部11は誤差逆伝播法を用いて各種パラメータの最適化を行う。 The control unit 11 compares the estimation result output from the output layer with the information labeled for the diagnostic image in the teacher data, that is, the correct answer value, and intermediates the output value from the output layer so as to approach the correct answer value. Optimize the parameters used for arithmetic processing in the layer. The parameters are, for example, the weight between neurons (coupling coefficient), the coefficient of the activation function used in each neuron, and the like. The method of optimizing the parameters is not particularly limited, but for example, the control unit 11 optimizes various parameters by using the backpropagation method.

制御部11は、教師データに含まれる各診断画像について上記の処理を行い、診断用病変推定モデル174を生成する。これにより、例えば制御部11は当該教師データを用いて診断用病変推定モデル174の学習を行うことで、診断画像に対応する病変情報を推定可能なモデルを構築することができる。 The control unit 11 performs the above processing on each diagnostic image included in the teacher data to generate a diagnostic lesion estimation model 174. Thereby, for example, the control unit 11 can build a model capable of estimating the lesion information corresponding to the diagnostic image by learning the lesion estimation model 174 for diagnosis using the teacher data.

制御部11は診断画像を取得した場合、取得した診断画像を診断用病変推定モデル174に入力する。制御部11は、診断用病変推定モデル174の中間層にて診断画像の特徴量を抽出する演算処理を行う。制御部11は、抽出した特徴量を診断用病変推定モデル174の出力層に入力して、診断画像に対応する病変情報を推定した推定結果を出力として取得する。 When the control unit 11 acquires the diagnostic image, the control unit 11 inputs the acquired diagnostic image into the diagnostic lesion estimation model 174. The control unit 11 performs arithmetic processing for extracting the feature amount of the diagnostic image in the intermediate layer of the diagnostic lesion estimation model 174. The control unit 11 inputs the extracted feature amount to the output layer of the lesion estimation model 174 for diagnosis, and acquires the estimation result of estimating the lesion information corresponding to the diagnostic image as an output.

図示のように、病変推定情報の一例として、出力層から出力される推定結果は前立腺がんの広がり程度を示し、T、N、Mそれぞれの連続的な確率値である。具体的には、診断画像に対し、「T0」、「T1」、「T2」、「T3」、「T4」それぞれの確率値が、「0.02」、「0.02」、「0.05」、「0.02」、「0.89」である推定結果が出力される。「N0」の確率値が「0.10」であり、「N1」の確率値が「0.90」である推定結果が出力される。「M0」の確率値が「0.85」であり、「M1」の確率値が「0.15」である推定結果が出力される。 As shown in the figure, as an example of the lesion estimation information, the estimation result output from the output layer indicates the extent of the spread of prostate cancer, and is a continuous probability value of each of T, N, and M. Specifically, with respect to the diagnostic image, the probability values of "T0", "T1", "T2", "T3", and "T4" are "0.02", "0.02", and "0. The estimation results of "05", "0.02", and "0.89" are output. The estimation result in which the probability value of "N0" is "0.10" and the probability value of "N1" is "0.90" is output. The estimation result in which the probability value of "M0" is "0.85" and the probability value of "M1" is "0.15" is output.

また、所定閾値を利用して推定結果を出力しても良い。例えば制御部11は、「T4」の確率値(0.89)が所定閾値(例えば、0.85)以上であり、「N1」の確率値(0.90)が所定閾値(例えば、0.85)以上であり、且つ「M0」の確率値(0.85)が所定閾値(例えば、0.80)以上であると判定した場合、診断画像に対応する前立腺がんの広がり程度が「T4」、「N1」及び「M0」である推定結果を出力する。すなわち、制御部11は該診断画像に対し、「前立腺に近接する膀胱や直腸に浸潤したがんであり、リンパ節転移あり、且つ遠隔転移(肝臓、肺、骨等)なし」となる推定結果を出力する。なお、上述した閾値を利用せず、診断用病変推定モデル174が推定したT、N、Mそれぞれの確率値から、T、N、Mそれぞれの最も高い確率値を推定結果として出力しても良い。 Further, the estimation result may be output by using a predetermined threshold value. For example, in the control unit 11, the probability value (0.89) of “T4” is equal to or higher than a predetermined threshold value (for example, 0.85), and the probability value (0.90) of “N1” is a predetermined threshold value (for example, 0. When it is determined that the value is 85) or more and the probability value (0.85) of “M0” is equal to or more than a predetermined threshold value (for example, 0.80), the degree of spread of prostate cancer corresponding to the diagnostic image is “T4”. , "N1" and "M0". That is, the control unit 11 gives an estimated result of "a cancer infiltrating the bladder or rectum close to the prostate, having lymph node metastasis, and no distant metastasis (liver, lung, bone, etc.)" to the diagnostic image. Output. In addition, instead of using the above-mentioned threshold value, the highest probability value of each of T, N, and M may be output as an estimation result from the probability values of T, N, and M estimated by the diagnostic lesion estimation model 174. ..

なお、T、N、Mそれぞれの診断用病変推定モデルが構築されても良い。例えば、所属リンパ節転移の有無を推定するためのN推定モデルが構築された場合、制御部11は、取得した診断画像をN推定モデルに入力する。制御部11は、N推定モデルの中間層にて診断画像の特徴量を抽出する演算処理を行う。制御部11は、抽出した特徴量をN推定モデルの出力層に入力して、診断画像に対応する所属リンパ節転移の有無を推定した推定結果を出力として取得する。 A diagnostic lesion estimation model for each of T, N, and M may be constructed. For example, when an N estimation model for estimating the presence or absence of regional lymph node metastasis is constructed, the control unit 11 inputs the acquired diagnostic image into the N estimation model. The control unit 11 performs arithmetic processing for extracting the feature amount of the diagnostic image in the intermediate layer of the N estimation model. The control unit 11 inputs the extracted feature amount to the output layer of the N estimation model, and acquires the estimation result of estimating the presence or absence of regional lymph node metastasis corresponding to the diagnostic image as an output.

なお、図10では、診断画像を診断用病変推定モデル174に入力した例を説明したが、これに限るものではない。例えば、診断画像に加えて、該診断画像を属する患者に関する情報を診断用病変推定モデル174に入力しても良い。患者に関する情報は、例えば患者の性別、年齢、過去の診断履歴等である。 Note that FIG. 10 has described an example in which a diagnostic image is input to the diagnostic lesion estimation model 174, but the present invention is not limited to this. For example, in addition to the diagnostic image, information about the patient to which the diagnostic image belongs may be input to the diagnostic lesion estimation model 174. Information about the patient is, for example, the patient's gender, age, past diagnosis history, and the like.

なお、病変情報の推定処理は、上述した機械学習により識別処理に限るものではない。例えば、A−KAZE(Accelerated KAZE)、SIFT(Scale Invariant Feature Transform)、SURF(Speeded-Up Robust Features)、ORB(Oriented FAST and Rotated BRIEF)、HOG(Histograms of Oriented Gradients)等の局所特徴量抽出方法を用いて病変情報を推定しても良い。 The lesion information estimation process is not limited to the identification process by the machine learning described above. For example, local feature extraction methods such as A-KAZE (Accelerated KAZE), SIFT (Scale Invariant Feature Transform), SURF (Speeded-Up Robust Features), ORB (Oriented FAST and Rotated BRIEF), and HOG (Histograms of Oriented Gradients). The lesion information may be estimated using.

なお、図10では、診断用病変推定モデル174が前立腺がんの広がり程度の推定結果を出力した例を説明したが、これに限るものではない。他の種類のがん(例えば、胃がん、乳がんまたは大腸がん等)にも適用することができる。また、がんの広がり程度のほか、がんの形状、サイズまたは悪性度等を出力しても良い。 Note that FIG. 10 has described an example in which the diagnostic lesion estimation model 174 outputs an estimation result of the extent of prostate cancer spread, but the present invention is not limited to this. It can also be applied to other types of cancer (eg, gastric cancer, breast cancer or colorectal cancer, etc.). In addition to the extent of cancer spread, the shape, size, malignancy, etc. of the cancer may be output.

続いて、治療用病変推定モデル175を用いる治療段階での病変情報の推定処理を説明する。図11は、治療用病変推定モデル175を説明する説明図である。治療用病変推定モデル175は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される。治療用病変推定モデル175は、医療装置3を用いて撮影した治療段階の治療画像を入力とし、治療段階での病変情報を推定した結果を出力とするニューラルネットワークを構築済みの推定器である。なお、治療段階での病変情報は、診断段階での病変情報と同様であるため、説明を省略する。 Subsequently, the process of estimating the lesion information at the treatment stage using the therapeutic lesion estimation model 175 will be described. FIG. 11 is an explanatory diagram illustrating a therapeutic lesion estimation model 175. The therapeutic lesion estimation model 175 is utilized as a program module that is part of artificial intelligence software. The therapeutic lesion estimation model 175 is an estimator for which a neural network has been constructed that inputs a treatment image of a treatment stage taken by using a medical device 3 and outputs a result of estimating lesion information at the treatment stage. Since the lesion information at the treatment stage is the same as the lesion information at the diagnosis stage, the description thereof will be omitted.

サーバ1の制御部11は、治療用病変推定モデル175として、治療画像内における病変箇所の特徴量を学習するディープラーニングを行うことで治療用病変推定モデル175を構築(生成)する。例えば、治療用病変推定モデル175はCNNであり、治療画像の入力を受け付ける入力層と、治療段階での病変情報を推定した結果を出力する出力層と、バックプロパゲーションにより学習済の中間層とを有する。なお、治療用病変推定モデル175の構成に関しては、診断用病変推定モデル174の構成と同様であるため、説明を省略する。 The control unit 11 of the server 1 constructs (generates) the therapeutic lesion estimation model 175 as the therapeutic lesion estimation model 175 by performing deep learning to learn the feature amount of the lesion portion in the treatment image. For example, the therapeutic lesion estimation model 175 is a CNN, which includes an input layer that accepts input of a treatment image, an output layer that outputs the result of estimating lesion information at the treatment stage, and an intermediate layer that has been learned by back propagation. Has. Since the configuration of the therapeutic lesion estimation model 175 is the same as the configuration of the diagnostic lesion estimation model 174, the description thereof will be omitted.

学習の際には、医療機関に存在する大量の過去の治療データ(例えば、治療画像等)を教師データとして利用する。制御部11は、治療画像と、該治療画像に対応する治療段階での病変情報とが対応付けられた教師データの組み合わせを用いて学習を行う。教師データは、治療画像に対し、該治療画像に対応する治療段階での病変情報がラベル付けされたデータである。制御部11は、教師データである治療画像を入力層に入力し、中間層での演算処理を経て、出力層から治療段階での病変情報を推定した推定結果を取得する。 At the time of learning, a large amount of past treatment data (for example, treatment image) existing in a medical institution is used as teacher data. The control unit 11 performs learning by using a combination of the treatment image and the teacher data in which the lesion information at the treatment stage corresponding to the treatment image is associated with each other. The teacher data is data in which the treatment image is labeled with the lesion information at the treatment stage corresponding to the treatment image. The control unit 11 inputs the treatment image, which is the teacher data, to the input layer, performs arithmetic processing in the intermediate layer, and acquires the estimation result of estimating the lesion information at the treatment stage from the output layer.

制御部11は、出力層から出力された推定結果を、教師データにおいて治療画像に対しラベル付けされた情報、すなわち正解値と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。制御部11は、教師データに含まれる各治療画像について上記の処理を行い、治療用病変推定モデル175を生成する。これにより、例えば制御部11は当該教師データを用いて治療用病変推定モデル175の学習を行うことで、治療画像に対応する治療段階での病変情報を推定可能なモデルを構築することができる。 The control unit 11 compares the estimation result output from the output layer with the information labeled for the treatment image in the teacher data, that is, the correct answer value, and intermediately so that the output value from the output layer approaches the correct answer value. Optimize the parameters used for arithmetic processing in the layer. The control unit 11 performs the above processing on each treatment image included in the teacher data, and generates a treatment lesion estimation model 175. Thereby, for example, the control unit 11 can learn the therapeutic lesion estimation model 175 using the teacher data, and can construct a model capable of estimating the lesion information at the treatment stage corresponding to the therapeutic image.

制御部11は治療画像を取得した場合、取得した治療画像を治療用病変推定モデル175に入力する。制御部11は、治療用病変推定モデル175の中間層にて治療画像の特徴量を抽出する演算処理を行う。制御部11は、抽出した特徴量を治療用病変推定モデル175の出力層に入力して、治療画像に対応する治療段階での病変情報を推定した推定結果を出力として取得する。 When the control unit 11 acquires the treatment image, the control unit 11 inputs the acquired treatment image into the therapeutic lesion estimation model 175. The control unit 11 performs arithmetic processing for extracting the feature amount of the treatment image in the intermediate layer of the treatment lesion estimation model 175. The control unit 11 inputs the extracted feature amount to the output layer of the therapeutic lesion estimation model 175, and acquires the estimation result of estimating the lesion information at the treatment stage corresponding to the therapeutic image as an output.

なお、治療画像は病変箇所がわかっているため、該治療画像から切り抜いた病変領域の画像を治療用病変推定モデル175に入力しても良い。また、制御部11は治療画像に加えて、該治療画像を属する患者に関する情報を治療用病変推定モデル175に入力しても良い。患者に関する情報は、例えば患者の性別、年齢、治療歴等である。なお、T、N、Mそれぞれの治療用病変推定モデルが構築されても良い。 Since the lesion location is known in the treatment image, an image of the lesion region cut out from the treatment image may be input to the treatment lesion estimation model 175. In addition to the treatment image, the control unit 11 may input information about the patient to which the treatment image belongs into the treatment lesion estimation model 175. Information about the patient is, for example, the patient's gender, age, treatment history, and the like. A therapeutic lesion estimation model for each of T, N, and M may be constructed.

なお、CNNの代わりに、RCNN、Fast RCNN、Faster RCNN、Mask RCNN、SSD、YOLO、SVM、ベイジアンネットワーク、または回帰木等の任意の物体検出アルゴリズムを使用しても良い。 Instead of CNN, any object detection algorithm such as RCNN, Fast RCNN, Faster RCNN, Mask RCNN, SSD, YOLO, SVM, Bayesian network, or regression tree may be used.

以下では、前立腺がんの病変推定情報を出力する処理手順を一例として説明する。 In the following, a processing procedure for outputting prostate cancer lesion estimation information will be described as an example.

図12は、診断段階での病変推定情報を出力する際の処理手順を示すフローチャートである。サーバ1の制御部11は、通信部13を介して、第1薬剤が投与された被検体を、PET装置2を用いて撮影した診断画像を取得する(ステップS101)。第1薬剤には、68Ga−PSMAを使用する。制御部11は、取得した診断画像を入力した場合に病変推定情報を出力する診断用病変推定モデル174を用いて、被検体の病変情報を推定する(ステップS102)。 FIG. 12 is a flowchart showing a processing procedure when outputting lesion estimation information at the diagnostic stage. The control unit 11 of the server 1 acquires a diagnostic image taken by using the PET device 2 of the subject to which the first drug has been administered via the communication unit 13 (step S101). 68Ga-PSMA is used as the first drug. The control unit 11 estimates the lesion information of the subject by using the diagnostic lesion estimation model 174 that outputs the lesion estimation information when the acquired diagnostic image is input (step S102).

制御部11は、推定した病変推定情報を大容量記憶部17に記憶する(ステップS103)。具体的には、制御部11は、診断IDを割り振って、被検体ID、診断画像、診断画像の撮影日時、被検体に投与された薬剤、及び病変推定情報を一つのレコードとして診断情報DB172に記憶する。制御部11は、被検体IDに対応付けて、病変種類(例えば、前立腺がんまたは乳がん等)、及び診断IDを一つのレコードとして被検体DB171に記憶する。 The control unit 11 stores the estimated lesion estimation information in the large-capacity storage unit 17 (step S103). Specifically, the control unit 11 allocates a diagnostic ID, and records the subject ID, the diagnostic image, the shooting date and time of the diagnostic image, the drug administered to the subject, and the lesion estimation information as one record in the diagnostic information DB 172. Remember. The control unit 11 stores the lesion type (for example, prostate cancer, breast cancer, etc.) and the diagnosis ID as one record in the subject DB 171 in association with the subject ID.

制御部11は、通信部13を介して、病変推定情報を端末4に送信する(ステップS104)。端末4の制御部41は、サーバ1から送信された病変推定情報を通信部43により受信し(ステップS401)、受信した病変推定情報を表示部45により表示し(ステップS402)、処理を終了する。 The control unit 11 transmits the lesion estimation information to the terminal 4 via the communication unit 13 (step S104). The control unit 41 of the terminal 4 receives the lesion estimation information transmitted from the server 1 by the communication unit 43 (step S401), displays the received lesion estimation information by the display unit 45 (step S402), and ends the process. ..

図13は、治療段階での病変推定情報を出力する際の処理手順を示すフローチャートである。サーバ1の制御部11は、第2薬剤が投与された被検体を、医療装置3を用いて撮影した治療段階の治療画像を取得する(ステップS111)。第2薬剤には、177Lu−PSMAを使用する。制御部11は、取得した治療画像を入力した場合に治療段階での病変推定情報を出力する治療用病変推定モデル175を用いて、治療段階での病変情報を推定する(ステップS112)。 FIG. 13 is a flowchart showing a processing procedure when outputting lesion estimation information at the treatment stage. The control unit 11 of the server 1 acquires a treatment image of the treatment stage taken by using the medical device 3 for the subject to which the second drug is administered (step S111). As the second drug, 177Lu-PSMA is used. The control unit 11 estimates the lesion information at the treatment stage by using the treatment lesion estimation model 175 that outputs the lesion estimation information at the treatment stage when the acquired treatment image is input (step S112).

制御部11は、推定した治療段階での病変推定情報を大容量記憶部17に記憶する(ステップS113)。具体的には、治療IDが存在していない場合、制御部11は治療IDを割り振る。同一の治療コースに対し、治療IDが存在している場合、制御部11は治療IDを特定する。制御部11は、治療IDに対応付けてサブIDを割り振って、被検体ID、治療画像、治療画像の撮影日時、被検体に投与された薬剤、治療段階での病変推定情報及び備考を一つのレコードとして治療情報DB173に記憶する。制御部11は、被検体ID及び診断IDに対応付けて、治療IDを被検体DB171に記憶する。 The control unit 11 stores the lesion estimation information at the estimated treatment stage in the large-capacity storage unit 17 (step S113). Specifically, when the treatment ID does not exist, the control unit 11 allocates the treatment ID. If a treatment ID exists for the same treatment course, the control unit 11 identifies the treatment ID. The control unit 11 assigns a sub ID in association with the treatment ID, and sets the subject ID, the treatment image, the shooting date and time of the treatment image, the drug administered to the subject, the lesion estimation information at the treatment stage, and remarks as one. It is stored in the treatment information DB 173 as a record. The control unit 11 stores the treatment ID in the subject DB 171 in association with the subject ID and the diagnosis ID.

制御部11は、通信部13を介して、治療段階での病変推定情報を端末4に送信する(ステップS114)。端末4の制御部41は、サーバ1から送信された治療段階での病変推定情報を通信部43により受信し(ステップS411)、受信した治療段階での病変推定情報を表示部45により表示する(ステップS412)。 The control unit 11 transmits the lesion estimation information at the treatment stage to the terminal 4 via the communication unit 13 (step S114). The control unit 41 of the terminal 4 receives the lesion estimation information at the treatment stage transmitted from the server 1 by the communication unit 43 (step S411), and displays the received lesion estimation information at the treatment stage by the display unit 45 (step S411). Step S412).

図14は、核医学治療を行った後に68Ga−PSMAを用いて治療終了を判定する際の処理手順を示すフローチャートである。なお、図13と重複する内容については同一の符号を付して説明を省略する。 FIG. 14 is a flowchart showing a processing procedure when determining the end of treatment using 68Ga-PSMA after performing nuclear medicine treatment. The contents overlapping with FIG. 13 are designated by the same reference numerals and the description thereof will be omitted.

制御部11は、通信部13または入力部14を介して、治療終了判定を実行するか否かの指示を受け付ける(ステップS115)。制御部11は、治療終了判定を実行しない指示を受け付けた場合(ステップS115でNO)、処理を終了する。制御部11は、治療終了判定を実行する指示を受け付けた場合(ステップS115でYES)、68Ga−PSMAが投与された被検体を、医療装置3を用いて撮影した治療段階の治療画像を取得する(ステップS116)。 The control unit 11 receives an instruction as to whether or not to execute the treatment end determination via the communication unit 13 or the input unit 14 (step S115). When the control unit 11 receives an instruction not to execute the treatment end determination (NO in step S115), the control unit 11 ends the process. When the control unit 11 receives an instruction to execute the treatment end determination (YES in step S115), the control unit 11 acquires a treatment image of the treatment stage taken by using the medical device 3 for the subject to which 68Ga-PSMA has been administered. (Step S116).

制御部11は、治療用病変推定モデル175を用いて、治療段階での病変情報を推定する(ステップS117)。制御部11は、推定した治療段階での病変推定情報を大容量記憶部17の被検体DB171及び治療情報DB173に記憶する(ステップS118)。制御部11は、通信部13を介して、治療段階での病変推定情報を端末4に送信する(ステップS119)。端末4の制御部41は、ステップS411を実行する。 The control unit 11 estimates the lesion information at the treatment stage using the therapeutic lesion estimation model 175 (step S117). The control unit 11 stores the estimated lesion estimation information at the treatment stage in the subject DB 171 and the treatment information DB 173 of the large-capacity storage unit 17 (step S118). The control unit 11 transmits the lesion estimation information at the treatment stage to the terminal 4 via the communication unit 13 (step S119). The control unit 41 of the terminal 4 executes step S411.

以下では、乳がんの病変推定情報を出力する処理手順を一例として説明する。診断画像を取得するための第1薬剤には、放射性医薬品合成装置およびキットでGa−68を標識したHER2抗体を使用する。サーバ1の制御部11は、該第1薬剤が投与された被検体を、PET装置2を用いて撮影した診断画像を取得する。なお、診断段階での病変推定情報を出力する処理は、図12での処理手順と同様であるため、説明を省略する。 In the following, a processing procedure for outputting breast cancer lesion estimation information will be described as an example. As the first drug for obtaining a diagnostic image, a HER2 antibody labeled Ga-68 with a radiopharmaceutical synthesizer and kit is used. The control unit 11 of the server 1 acquires a diagnostic image of the subject to which the first drug has been administered, taken by using the PET device 2. Since the process of outputting the lesion estimation information at the diagnosis stage is the same as the process procedure shown in FIG. 12, the description thereof will be omitted.

図15は、乳がんの治療段階の病変推定情報を出力する際の処理手順を示すフローチャートである。なお、図13と重複する内容については同一の符号を付して説明を省略する。サーバ1の制御部11は、第2薬剤が投与された被検体を、医療装置3を用いて撮影した治療段階の治療画像を取得する(ステップS121)。第2薬剤には、211At−HER2を使用する。その後に、制御部11はステップS112を実行する。 FIG. 15 is a flowchart showing a processing procedure when outputting lesion estimation information at the treatment stage of breast cancer. The contents overlapping with FIG. 13 are designated by the same reference numerals and the description thereof will be omitted. The control unit 11 of the server 1 acquires a treatment image of the treatment stage taken by using the medical device 3 for the subject to which the second drug is administered (step S121). 211At-HER2 is used as the second drug. After that, the control unit 11 executes step S112.

また、サーバ1の制御部11は表示部15を介して、診断画像と治療画像とを同時に表示することができる。さらにまた、制御部11は通信部13を介して、診断画像と治療画像とを端末4に送信することができる。 Further, the control unit 11 of the server 1 can simultaneously display the diagnostic image and the treatment image via the display unit 15. Furthermore, the control unit 11 can transmit the diagnostic image and the treatment image to the terminal 4 via the communication unit 13.

本実施形態によると、診断画像に基づき、診断用病変推定モデル174を用いて病変推定情報を出力することが可能となる。 According to this embodiment, it is possible to output lesion estimation information using the diagnostic lesion estimation model 174 based on the diagnostic image.

本実施形態によると、治療画像に基づき、治療用病変推定モデル175を用いて治療段階での病変推定情報を出力することが可能となる。 According to this embodiment, it is possible to output lesion estimation information at the treatment stage using the therapeutic lesion estimation model 175 based on the treatment image.

本実施形態によると、人工知能を用いて病変推定情報を出力することにより、医師不足問題を解消することが可能となる。 According to this embodiment, it is possible to solve the problem of shortage of doctors by outputting lesion estimation information using artificial intelligence.

本実施形態によると、診断画像または治療画像に対して特徴量を学習するディープラーニングを行うことにより、病変情報の推定精度を上げることが可能となる。 According to the present embodiment, it is possible to improve the estimation accuracy of the lesion information by performing deep learning for learning the feature amount for the diagnostic image or the therapeutic image.

(実施形態2)
実施形態2は、治療画像に基づき、人工知能を用いて、第1薬剤が投与された被検体を、PET装置2を用いて撮影した画像を推定した推定画像を取得する形態に関する。なお、実施形態1と重複する内容については説明を省略する。
(Embodiment 2)
The second embodiment relates to a form of acquiring an estimated image obtained by estimating an image of a subject to which the first drug has been administered using a PET device 2 based on a therapeutic image using artificial intelligence. The description of the contents overlapping with the first embodiment will be omitted.

図16は、実施形態2のサーバ1の構成例を示すブロック図である。なお、図2と重複する内容については同一の符号を付して説明を省略する。大容量記憶部17には、変換モデル176が記憶されている。変換モデル(第3学習モデル)176は、治療画像に基づいて、第1薬剤が投与された被検体を、PET装置2を用いて撮影した画像に変換(推定)する変換器であり、機械学習により生成された学習済みモデルである。 FIG. 16 is a block diagram showing a configuration example of the server 1 of the second embodiment. The contents overlapping with FIG. 2 are designated by the same reference numerals and the description thereof will be omitted. The conversion model 176 is stored in the large-capacity storage unit 17. The conversion model (third learning model) 176 is a converter that converts (estimates) a subject to which the first drug is administered into an image taken by using the PET device 2 based on the treatment image, and is machine learning. Is a trained model generated by.

図17は、治療画像から推定画像に変換する学習処理に関する説明図である。本実施の形態でサーバ1は、GAN(Generative Adversarial Network)の手法を用いて治療画像を学習し、変換モデル176を生成する。図17では、GANの構成を概念的に図示している。 FIG. 17 is an explanatory diagram regarding a learning process for converting a treatment image into an estimated image. In the present embodiment, the server 1 learns the treatment image by using the method of GAN (Generative Adversarial Network) and generates the conversion model 176. FIG. 17 conceptually illustrates the configuration of the GAN.

GANは、入力データから出力データを生成する生成器(Generator)と、生成器が生成したデータの真偽を識別する識別器(Discriminator)とから構成される。生成器は、ランダムなノイズ(潜在変数)または治療画像の入力を受け付け、出力データを生成する。識別器は、学習用に与えられる真のデータと、生成器から与えられるデータとを用いて、入力データの真偽を学習する。GANでは生成器及び識別器が競合して学習を行い、最終的に生成器の損失関数が最小化し、かつ、識別器の損失関数が最大化するようにネットワークを構築する。 The GAN is composed of a generator that generates output data from input data and a discriminator that identifies the authenticity of the data generated by the generator. The generator accepts random noise (latent variables) or therapeutic image input and produces output data. The discriminator learns the truth of the input data by using the true data given for learning and the data given by the generator. In GAN, the generator and the discriminator compete with each other for learning, and finally the network is constructed so that the loss function of the generator is minimized and the loss function of the discriminator is maximized.

本実施の形態でサーバ1は、GANの手法により構築される生成器を、変換モデル176を構成する変換器として用い、Lu−177で標識したPSMA結合性リガンド(第2薬剤)が投与された被検体を撮影した治療画像(177Lu−PSMA)から、Ga−68で標識したPSMA結合性リガンド(第1薬剤)が投与された被検体を、PET装置2を用いて撮影した画像(68Ga−PSMA)(推定画像)に変換を行う。 In the present embodiment, the server 1 uses the generator constructed by the GAN method as a converter constituting the conversion model 176, and is administered a Lu-177-labeled PSMA-binding ligand (second drug). From the therapeutic image (177Lu-PSMA) obtained by photographing the subject, the image (68Ga-PSMA) obtained by administering the subject to which the PSMA-binding ligand (first drug) labeled with Ga-68 was administered using the PET device 2 ) (Estimated image).

なお、本実施形態では、治療画像(177Lu−PSMA)から推定画像(68Ga−PSMA)に変換した例を説明したが、これに限るものではない。他の放射性核種を標識した薬剤が投与された被検体を撮影した画像にも適用することが可能である。 In this embodiment, an example of converting a therapeutic image (177Lu-PSMA) into an estimated image (68Ga-PSMA) has been described, but the present invention is not limited to this. It can also be applied to images taken of subjects to which a drug labeled with another radionuclide has been administered.

なお、本実施形態では、治療画像を変換モデル176に入力した例を説明したが、これに限るものではない。例えば、治療画像に加えて、該治療画像を属する患者に関する情報を変換モデル176に入力しても良い。 In the present embodiment, an example in which the treatment image is input to the conversion model 176 has been described, but the present invention is not limited to this. For example, in addition to the treatment image, information about the patient to which the treatment image belongs may be input into the conversion model 176.

なお、本実施の形態では変換モデル176の生成(学習)手法としてGANを用いるが、変換モデル176はGANに係る学習済みモデルに限定されず、その他U−NET(U字型のニューラルネットワーク)等の深層学習、決定木等の学習手法による学習済みモデルであっても良い。 In this embodiment, GAN is used as the generation (learning) method of the conversion model 176, but the conversion model 176 is not limited to the trained model related to GAN, and other U-NET (U-shaped neural network) and the like. It may be a trained model by a learning method such as deep learning or decision tree.

U−NETを用いる場合の処理について説明する。U−NETは、ダウンサンプリングを行う畳み込み層及びプーリング層を含むエンコーダと、アップサンプリングを行う畳み込み層及びプーリング層を含むデコーダとにより構成される。制御部11は被検体の治療画像と、当該被検体を同時期にPET装置2により撮影した教師画像との組み合わせを訓練データとして多数取得する。制御部11は、エンコーダに治療画像を入力し、デコーダの出力が教師画像に近づくよう誤差逆伝播法等を用いて畳み込み層のパラメータをトレーニングする。学習が完了すれば、制御部11は新たな治療画像を取得して、U−NETに取得した治療画像を入力する。制御部11はU−NETから出力される推定画像を取得し、表示部15に表示する。 The processing when U-NET is used will be described. The U-NET is composed of an encoder including a convolution layer and a pooling layer for downsampling, and a decoder including a convolution layer and a pooling layer for upsampling. The control unit 11 acquires a large number of combinations of the treatment image of the subject and the teacher image of the subject taken by the PET device 2 at the same time as training data. The control unit 11 inputs the treatment image to the encoder and trains the parameters of the convolutional layer by using an error backpropagation method or the like so that the output of the decoder approaches the teacher image. When the learning is completed, the control unit 11 acquires a new treatment image and inputs the acquired treatment image to the U-NET. The control unit 11 acquires an estimated image output from the U-NET and displays it on the display unit 15.

図18は、推定画像を出力する際の処理手順を示すフローチャートである。サーバ1の制御部11は、177Lu−PSMAが投与された被検体を、医療装置3を用いて撮影した治療段階の治療画像を取得する(ステップS131)。制御部11は、取得した治療画像を入力した場合に、第1薬剤が投与された被検体を、PET装置2を用いて撮影した画像を推定した推定画像を出力する変換モデル176を用いて、推定画像を取得する(ステップS132)。 FIG. 18 is a flowchart showing a processing procedure when outputting an estimated image. The control unit 11 of the server 1 acquires a treatment image of the treatment stage taken by using the medical device 3 for the subject to which 177Lu-PSMA has been administered (step S131). When the acquired treatment image is input, the control unit 11 uses a conversion model 176 that outputs an estimated image obtained by estimating the image taken by the PET device 2 from the subject to which the first drug is administered. Acquire an estimated image (step S132).

制御部11は、取得した推定画像を通信部13により端末4に送信する(ステップS133)。端末4の制御部41は、サーバ1から送信された推定画像を通信部43により受信し(ステップS431)、受信した推定画像を表示部45により表示し(ステップS432)、処理を終了する。 The control unit 11 transmits the acquired estimated image to the terminal 4 by the communication unit 13 (step S133). The control unit 41 of the terminal 4 receives the estimated image transmitted from the server 1 by the communication unit 43 (step S431), displays the received estimated image by the display unit 45 (step S432), and ends the process.

本実施形態によると、治療画像に基づき、変換モデル176を用いて、第1薬剤が投与された被検体を、PET装置2を用いて撮影した画像を推定した推定画像を出力することが可能となる。 According to the present embodiment, based on the treatment image, it is possible to output an estimated image obtained by estimating the image of the subject to which the first drug is administered by using the PET device 2 by using the conversion model 176. Become.

本実施形態によると、変換モデル176を用いて推定画像(68Ga−PSMA)を出力することにより、68Ga−PSMAによる治療終了判断を実施する必要性が減ることが可能となる。 According to the present embodiment, by outputting the estimated image (68Ga-PSMA) using the conversion model 176, it is possible to reduce the need to carry out the treatment end determination by 68Ga-PSMA.

(実施形態3)
実施形態3は、人工知能を用いて、第2薬剤の推奨投与量を出力する形態に関する。なお、実施形態1〜2と重複する内容については説明を省略する。
(Embodiment 3)
The third embodiment relates to a mode in which a recommended dose of a second drug is output using artificial intelligence. The description of the contents overlapping with the first and second embodiments will be omitted.

図19は、実施形態3のサーバ1の構成例を示すブロック図である。なお、図16と重複する内容については同一の符号を付して説明を省略する。大容量記憶部17には、第2薬剤情報出力モデル(第4学習モデル)177が記憶されている。第2薬剤情報出力モデル177は、診断画像に基づいて、被検体に投与される第2薬剤の推奨投与量を予測する予測器であり、機械学習により生成された学習済みモデルである。 FIG. 19 is a block diagram showing a configuration example of the server 1 of the third embodiment. The contents overlapping with FIG. 16 are designated by the same reference numerals and the description thereof will be omitted. The second drug information output model (fourth learning model) 177 is stored in the large-capacity storage unit 17. The second drug information output model 177 is a predictor that predicts the recommended dose of the second drug to be administered to the subject based on the diagnostic image, and is a learned model generated by machine learning.

図20は、第2薬剤情報出力モデル177を説明する説明図である。第2薬剤情報出力モデル177は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される。第2薬剤情報出力モデル177は、診断画像を入力とし、被検体に投与される第2薬剤の推奨投与量を出力とするニューラルネットワークを構築済みの予測器である。 FIG. 20 is an explanatory diagram illustrating the second drug information output model 177. The second drug information output model 177 is used as a program module that is a part of artificial intelligence software. The second drug information output model 177 is a predictor for which a neural network has been constructed that inputs a diagnostic image and outputs a recommended dose of the second drug to be administered to the subject.

サーバ1の制御部11は、第2薬剤情報出力モデル177として、診断画像内における病変箇所の特徴量を学習するディープラーニングを行うことで第2薬剤情報出力モデル177を構築(生成)する。例えば、第2薬剤情報出力モデル177はCNNであり、診断画像の入力を受け付ける入力層と、第2薬剤の推奨投与量を予測した結果を出力する出力層と、バックプロパゲーションにより学習済の中間層とを有する。なお、第2薬剤情報出力モデル177の構成に関しては、診断用病変推定モデル174の構成と同様であるため、説明を省略する。 The control unit 11 of the server 1 constructs (generates) the second drug information output model 177 as the second drug information output model 177 by performing deep learning to learn the feature amount of the lesion portion in the diagnostic image. For example, the second drug information output model 177 is CNN, and is intermediate between an input layer that accepts the input of a diagnostic image, an output layer that outputs the result of predicting the recommended dose of the second drug, and an output layer that has been learned by backpropagation. Has a layer. Since the configuration of the second drug information output model 177 is the same as the configuration of the diagnostic lesion estimation model 174, the description thereof will be omitted.

学習の際には、医療機関に存在する大量の過去の診断データを教師データとして利用する。制御部11は、診断画像と、該診断画像に対応する第2薬剤の投与量とが対応付けられた教師データの組み合わせを用いて学習を行う。教師データは、診断画像に対し、該診断画像に対応する第2薬剤の投与量がラベル付けされたデータである。制御部11は、教師データである診断画像を入力層に入力し、中間層での演算処理を経て、出力層から第2薬剤の推奨投与量を予測した予測結果(推奨投与量)取得する。 During learning, a large amount of past diagnostic data existing in medical institutions is used as teacher data. The control unit 11 performs learning by using a combination of the diagnostic image and the teacher data in which the dose of the second drug corresponding to the diagnostic image is associated with each other. The teacher data is data in which the dose of the second drug corresponding to the diagnostic image is labeled on the diagnostic image. The control unit 11 inputs the diagnostic image, which is the teacher data, to the input layer, performs arithmetic processing in the intermediate layer, and acquires a prediction result (recommended dose) for predicting the recommended dose of the second drug from the output layer.

制御部11は、出力層から出力された第2薬剤の推奨投与量を、教師データにおいて診断画像に対しラベル付けされた第2薬剤の投与量、すなわち正解値と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。制御部11は、教師データに含まれる各診断画像について上記の処理を行い、第2薬剤情報出力モデル177を生成する。これにより、例えば制御部11は当該教師データを用いて第2薬剤情報出力モデル177の学習を行うことで、診断画像に対応する第2薬剤の推奨投与量を予測可能なモデルを構築することができる。 The control unit 11 compares the recommended dose of the second drug output from the output layer with the dose of the second drug labeled with respect to the diagnostic image in the teacher data, that is, the correct answer value, and outputs from the output layer. Optimize the parameters used for arithmetic processing in the intermediate layer so that the values approach the correct values. The control unit 11 performs the above processing on each diagnostic image included in the teacher data, and generates a second drug information output model 177. As a result, for example, the control unit 11 can build a model capable of predicting the recommended dose of the second drug corresponding to the diagnostic image by learning the second drug information output model 177 using the teacher data. it can.

制御部11は診断画像を取得した場合、取得した診断画像を第2薬剤情報出力モデル177に入力する。制御部11は、第2薬剤情報出力モデル177の中間層にて診断画像の特徴量を抽出する演算処理を行う。制御部11は、抽出した特徴量を第2薬剤情報出力モデル177の出力層に入力して、診断画像に対応する第2薬剤の推奨投与量を予測した予測結果を出力として取得する。 When the control unit 11 acquires the diagnostic image, the control unit 11 inputs the acquired diagnostic image to the second drug information output model 177. The control unit 11 performs arithmetic processing for extracting the feature amount of the diagnostic image in the intermediate layer of the second drug information output model 177. The control unit 11 inputs the extracted feature amount to the output layer of the second drug information output model 177, and acquires the prediction result of predicting the recommended dose of the second drug corresponding to the diagnostic image as an output.

図示のように、出力層から出力される予測結果は、第2薬剤の投与量を示す連続的な確率値である。一例として、診断画像に対し、「0サイクル」、「1サイクル」、「2サイクル」、「3サイクル」、「4サイクル」、「5サイクル」それぞれの確率値が、「0.01」、「0.03」、「0.02」、「0.92」、「0.01」、「0.01」である予測結果が出力される。サイクルは、第2薬剤の投与量の単位である。 As shown, the prediction result output from the output layer is a continuous probability value indicating the dose of the second drug. As an example, for the diagnostic image, the probability values of "0 cycle", "1 cycle", "2 cycle", "3 cycle", "4 cycle", and "5 cycle" are "0.01" and "", respectively. The prediction results of "0.03", "0.02", "0.92", "0.01", and "0.01" are output. A cycle is a unit of dose of a second drug.

なお、第2薬剤情報出力モデル177の生成処理は、上述した処理に限るものではない。例えば、制御部11は被検体の部位ごとに第2薬剤情報出力モデル177を生成しても良い。この場合、制御部11は部位情報と診断画像とを第2薬剤情報出力モデル177に入力し、診断画像に対応する第2薬剤の推奨投与量を予測した予測結果を出力する。 The generation process of the second drug information output model 177 is not limited to the above-mentioned process. For example, the control unit 11 may generate a second drug information output model 177 for each site of the subject. In this case, the control unit 11 inputs the site information and the diagnostic image into the second drug information output model 177, and outputs a prediction result that predicts the recommended dose of the second drug corresponding to the diagnostic image.

なお、本実施形態では、診断画像を第2薬剤情報出力モデル177に入力した例を説明したが、これに限るものではない。例えば、診断画像に加えて、該診断画像を属する患者に関する情報を第2薬剤情報出力モデル177に入力しても良い。 In this embodiment, an example in which a diagnostic image is input to the second drug information output model 177 has been described, but the present invention is not limited to this. For example, in addition to the diagnostic image, information about the patient to which the diagnostic image belongs may be input to the second drug information output model 177.

図21は、第2薬剤の推奨投与量を出力する際の処理手順を示すフローチャートである。サーバ1の制御部11は、PET装置2を用いて撮影した診断画像を取得する(ステップS141)。制御部11は、取得した診断画像を入力した場合に第2薬剤の推奨投与量を出力する第2薬剤情報出力モデル177を用いて、第2薬剤の推奨投与量を取得する(ステップS142)。 FIG. 21 is a flowchart showing a processing procedure when outputting a recommended dose of the second drug. The control unit 11 of the server 1 acquires a diagnostic image taken by using the PET device 2 (step S141). The control unit 11 acquires the recommended dose of the second drug by using the second drug information output model 177 that outputs the recommended dose of the second drug when the acquired diagnostic image is input (step S142).

制御部11は、取得した第2薬剤の推奨投与量を通信部13により端末4に送信する(ステップS143)。端末4の制御部41は、サーバ1から送信された第2薬剤の推奨投与量を通信部43により受信する(ステップS441)。制御部41は、受信した第2薬剤の推奨投与量を表示部45により表示し(ステップS442)、処理を終了する。 The control unit 11 transmits the acquired recommended dose of the second drug to the terminal 4 by the communication unit 13 (step S143). The control unit 41 of the terminal 4 receives the recommended dose of the second drug transmitted from the server 1 by the communication unit 43 (step S441). The control unit 41 displays the recommended dose of the received second drug on the display unit 45 (step S442), and ends the process.

本実施形態によると、診断画像に基づき、第2薬剤情報出力モデル177を用いて第2薬剤の推奨投与量を出力することが可能となる。 According to this embodiment, it is possible to output the recommended dose of the second drug using the second drug information output model 177 based on the diagnostic image.

<変形例1>
第2薬剤情報出力モデル177を用いて、推奨する第2薬剤の種類と、種類ごとの第2薬剤の推奨投与量または推奨投与順序を出力する処理を説明する。
<Modification example 1>
The process of outputting the recommended type of the second drug and the recommended dose or the recommended administration order of the second drug for each type will be described using the second drug information output model 177.

図22は、変形例1の第2薬剤情報出力モデル177を説明する説明図である。第2薬剤情報出力モデル177は、診断画像を入力とし、推奨する第2薬剤の種類と、種類ごとの第2薬剤の推奨投与量を出力とするニューラルネットワークを構築済みの予測器である。 FIG. 22 is an explanatory diagram illustrating the second drug information output model 177 of the first modification. The second drug information output model 177 is a predictor for which a neural network has been constructed that inputs a diagnostic image and outputs a recommended type of the second drug and a recommended dose of the second drug for each type.

制御部11は、診断画像と、該診断画像に対応する第2薬剤の種類、及び種類ごとの第2薬剤の投与量とが対応付けられた教師データの組み合わせを用いて学習を行う。制御部11は、教師データである診断画像を入力層に入力し、中間層での演算処理を経て、出力層から第2薬剤の種類及び種類ごとの推奨投与量を予測した予測結果を取得する。 The control unit 11 performs learning by using a combination of the diagnostic image, the type of the second drug corresponding to the diagnostic image, and the teacher data in which the dose of the second drug for each type is associated with each other. The control unit 11 inputs the diagnostic image, which is the teacher data, to the input layer, performs arithmetic processing in the intermediate layer, and acquires the prediction result of predicting the type of the second drug and the recommended dose for each type from the output layer. ..

制御部11は、出力層から出力された推奨する第2薬剤の種類及び種類ごとの推奨投与量を、教師データにおいて診断画像に対しラベル付けされた第2薬剤の種類及び種類ごとの投与量情報、すなわち正解値と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。制御部11は、教師データに含まれる各診断画像について上記の処理を行い、第2薬剤情報出力モデル177を生成する。これにより、例えば制御部11は当該教師データを用いて第2薬剤情報出力モデル177の学習を行うことで、診断画像に対応する第2薬剤の種類及び種類ごとの推奨投与量を予測可能なモデルを構築することができる。 The control unit 11 uses the recommended second drug type and the recommended dose for each type of the second drug output from the output layer, and the dose information for each type and type of the second drug labeled on the diagnostic image in the teacher data. That is, the parameters used for the arithmetic processing in the intermediate layer are optimized so that the output value from the output layer approaches the correct answer value in comparison with the correct answer value. The control unit 11 performs the above processing on each diagnostic image included in the teacher data, and generates a second drug information output model 177. As a result, for example, the control unit 11 learns the second drug information output model 177 using the teacher data, so that the type of the second drug corresponding to the diagnostic image and the recommended dose for each type can be predicted. Can be built.

なお、上述した処理のほか、制御部11は診断画像と、該診断画像に対応する第2薬剤の種類、及び種類ごとの薬剤サイクル(例えば、投与回数等)とが対応付けられた教師データの組み合わせを用いて学習を行っても良い。この場合、例えば制御部11は当該教師データを用いて第2薬剤情報出力モデル177の学習を行うことで、診断画像に対応する第2薬剤の種類及び種類ごとの薬剤サイクルを予測可能なモデルを構築することができる。 In addition to the above-mentioned processing, the control unit 11 receives the teacher data in which the diagnostic image, the type of the second drug corresponding to the diagnostic image, and the drug cycle for each type (for example, the number of administrations) are associated with each other. Learning may be performed using a combination. In this case, for example, the control unit 11 learns the second drug information output model 177 using the teacher data to obtain a model capable of predicting the type of the second drug corresponding to the diagnostic image and the drug cycle for each type. Can be built.

制御部11は診断画像を取得した場合、取得した診断画像を第2薬剤情報出力モデル177に入力する。制御部11は、第2薬剤情報出力モデル177の中間層にて診断画像の特徴量を抽出する演算処理を行う。制御部11は、抽出した特徴量を第2薬剤情報出力モデル177の出力層に入力して、診断画像に対応する第2薬剤の種類及び種類ごとの推奨投与量を予測した予測結果を出力として取得する。 When the control unit 11 acquires the diagnostic image, the control unit 11 inputs the acquired diagnostic image to the second drug information output model 177. The control unit 11 performs arithmetic processing for extracting the feature amount of the diagnostic image in the intermediate layer of the second drug information output model 177. The control unit 11 inputs the extracted feature amount to the output layer of the second drug information output model 177, and outputs the prediction result of predicting the type of the second drug corresponding to the diagnostic image and the recommended dose for each type. get.

また、第2薬剤情報出力モデル177を用いて、種類ごとの第2薬剤の推奨投与量の代わりに、第2薬剤の推奨投与順序を出力することができる。さらにまた、推奨する第2薬剤の種類と、種類ごとの第2薬剤の推奨投与量及び第2薬剤の推奨投与順序との組み合わせを第2薬剤情報出力モデル177から出力することができる。 In addition, the second drug information output model 177 can be used to output the recommended administration order of the second drug instead of the recommended dose of the second drug for each type. Furthermore, the combination of the recommended type of the second drug, the recommended dose of the second drug for each type, and the recommended administration order of the second drug can be output from the second drug information output model 177.

本変形例によると、診断画像に基づき、第2薬剤情報出力モデル177を用いて、推奨する第2薬剤の種類と、種類ごとの第2薬剤の推奨投与量または推奨投与順序を出力することが可能となる。 According to this modification, it is possible to output the recommended type of the second drug and the recommended dose or the recommended administration order of the second drug for each type by using the second drug information output model 177 based on the diagnostic image. It will be possible.

(実施形態4)
実施形態4は、診断画像に基づいて治療タイミングを判定する形態に関する。なお、実施形態1〜3と重複する内容については説明を省略する。治療タイミングに関しては、病変情報(例えば、がんの広がり程度、悪性度等)に基づいて分類することができる。例えば、治療タイミングを「治療不要」、「今すぐ」、「1ヶ月後」、「2ヵ月後」、「3カ月後」または「半年後」に分類しても良い。例えば、治療タイミングが「1ヶ月後」である場合、「1ヶ月後」までに治療を開始する必要がある。
(Embodiment 4)
The fourth embodiment relates to a mode in which a treatment timing is determined based on a diagnostic image. The description of the contents overlapping with the first to third embodiments will be omitted. The treatment timing can be classified based on lesion information (for example, the extent of cancer spread, malignancy, etc.). For example, the treatment timing may be classified into "no treatment required", "immediately", "1 month later", "2 months later", "3 months later" or "half a year later". For example, when the treatment timing is "1 month later", it is necessary to start the treatment by "1 month later".

図23は、実施形態4のサーバ1の構成例を示すブロック図である。なお、図19と重複する内容については同一の符号を付して説明を省略する。大容量記憶部17には、治療タイミング予測モデル(第5学習モデル)178が記憶されている。治療タイミング予測モデル178は、診断画像に基づいて、治療タイミングを予測する予測器であり、機械学習により生成された学習済みモデルである。 FIG. 23 is a block diagram showing a configuration example of the server 1 of the fourth embodiment. The contents overlapping with FIG. 19 are designated by the same reference numerals and the description thereof will be omitted. A treatment timing prediction model (fifth learning model) 178 is stored in the large-capacity storage unit 17. The treatment timing prediction model 178 is a predictor that predicts the treatment timing based on the diagnostic image, and is a learned model generated by machine learning.

図24は、治療タイミング予測モデル178を説明する説明図である。治療タイミング予測モデル178は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される。治療タイミング予測モデル178は、診断画像を入力とし、治療タイミングを予測した予測結果を出力とするニューラルネットワークを構築済みの予測器である。 FIG. 24 is an explanatory diagram illustrating a treatment timing prediction model 178. The treatment timing prediction model 178 is used as a program module that is part of artificial intelligence software. The treatment timing prediction model 178 is a predictor for which a neural network has been constructed that inputs a diagnostic image and outputs a prediction result that predicts the treatment timing.

サーバ1の制御部11は、治療タイミング予測モデル178として、診断画像内における病変箇所の特徴量を学習するディープラーニングを行うことで治療タイミング予測モデル178を構築(生成)する。例えば、治療タイミング予測モデル178はCNNであり、診断画像の入力を受け付ける入力層と、治療タイミングを予測した結果を出力する出力層と、バックプロパゲーションにより学習済の中間層とを有する。なお、治療タイミング予測モデル178の構成に関しては、診断用病変推定モデル174の構成と同様であるため、説明を省略する。 The control unit 11 of the server 1 constructs (generates) the treatment timing prediction model 178 as the treatment timing prediction model 178 by performing deep learning to learn the feature amount of the lesion portion in the diagnostic image. For example, the treatment timing prediction model 178 is a CNN, and has an input layer that accepts input of a diagnostic image, an output layer that outputs a result of predicting the treatment timing, and an intermediate layer that has been learned by back propagation. Since the configuration of the treatment timing prediction model 178 is the same as that of the diagnostic lesion estimation model 174, the description thereof will be omitted.

学習の際には、医療機関に存在する大量の過去の診断データを教師データとして利用する。制御部11は、診断画像と、該診断画像に対応する治療タイミングとが対応付けられた教師データの組み合わせを用いて学習を行う。教師データは、診断画像に対し、該診断画像に対応する治療タイミングがラベル付けされたデータである。制御部11は、教師データである診断画像を入力層に入力し、中間層での演算処理を経て、出力層から治療タイミングを予測した予測結果を取得する。 During learning, a large amount of past diagnostic data existing in medical institutions is used as teacher data. The control unit 11 performs learning using a combination of the diagnostic image and the teacher data associated with the treatment timing corresponding to the diagnostic image. The teacher data is data in which the treatment timing corresponding to the diagnostic image is labeled with respect to the diagnostic image. The control unit 11 inputs the diagnostic image, which is the teacher data, to the input layer, performs arithmetic processing in the intermediate layer, and acquires the prediction result of predicting the treatment timing from the output layer.

制御部11は、出力層から出力された予測治療タイミングを、教師データにおいて診断画像に対しラベル付けされた治療タイミング、すなわち正解値と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。制御部11は、教師データに含まれる各診断画像について上記の処理を行い、治療タイミング予測モデル178を生成する。これにより、例えば制御部11は当該教師データを用いて治療タイミング予測モデル178の学習を行うことで、診断画像に対応する治療タイミングを予測可能なモデルを構築することができる。 The control unit 11 compares the predicted treatment timing output from the output layer with the treatment timing labeled with respect to the diagnostic image in the teacher data, that is, the correct answer value, so that the output value from the output layer approaches the correct answer value. , Optimize the parameters used for arithmetic processing in the intermediate layer. The control unit 11 performs the above processing on each diagnostic image included in the teacher data, and generates a treatment timing prediction model 178. As a result, for example, the control unit 11 can build a model capable of predicting the treatment timing corresponding to the diagnostic image by learning the treatment timing prediction model 178 using the teacher data.

制御部11は診断画像を取得した場合、取得した診断画像を治療タイミング予測モデル178に入力する。制御部11は、治療タイミング予測モデル178の中間層にて診断画像の特徴量を抽出する演算処理を行う。制御部11は、抽出した特徴量を治療タイミング予測モデル178の出力層に入力して、診断画像に対応する治療タイミングを予測した予測結果を出力として取得する。 When the control unit 11 acquires the diagnostic image, the control unit 11 inputs the acquired diagnostic image into the treatment timing prediction model 178. The control unit 11 performs arithmetic processing for extracting the feature amount of the diagnostic image in the intermediate layer of the treatment timing prediction model 178. The control unit 11 inputs the extracted feature amount to the output layer of the treatment timing prediction model 178, and acquires the prediction result of predicting the treatment timing corresponding to the diagnostic image as an output.

図示のように、出力層から出力される予測結果は、治療タイミングを示す連続的な確率値である。一例として、診断画像に対し、「治療不要」、「今すぐ」、「1ヶ月後」、「2ヵ月後」、「3カ月後」、「半年後」それぞれの確率値が、「0.01」、「0.03」、「0.02」、「0.92」、「0.01」、「0.01」である予測結果が出力される。 As shown, the prediction result output from the output layer is a continuous probability value indicating the treatment timing. As an example, for the diagnostic image, the probability values of "no treatment required", "immediately", "1 month later", "2 months later", "3 months later", and "half a year later" are "0.01". , "0.03", "0.02", "0.92", "0.01", "0.01".

なお、本実施形態では、診断画像を治療タイミング予測モデル178に入力した例を説明したが、これに限るものではない。例えば、診断画像に加えて、該診断画像を属する患者に関する情報を治療タイミング予測モデル178に入力しても良い。 In this embodiment, an example in which a diagnostic image is input to the treatment timing prediction model 178 has been described, but the present invention is not limited to this. For example, in addition to the diagnostic image, information about the patient to which the diagnostic image belongs may be input to the treatment timing prediction model 178.

図25は、治療タイミングの予測結果を出力する際の処理手順を示すフローチャートである。サーバ1の制御部11は、PET装置2を用いて撮影した診断画像を取得する(ステップS151)。制御部11は、取得した診断画像を入力した場合に治療タイミングを予測した予測結果を出力する治療タイミング予測モデル178を用いて、治療タイミングを取得する(ステップS152)。 FIG. 25 is a flowchart showing a processing procedure when outputting a prediction result of treatment timing. The control unit 11 of the server 1 acquires a diagnostic image taken by using the PET device 2 (step S151). The control unit 11 acquires the treatment timing by using the treatment timing prediction model 178 that outputs the prediction result of predicting the treatment timing when the acquired diagnostic image is input (step S152).

制御部11は、取得した治療タイミングを通信部13により端末4に送信する(ステップS153)。端末4の制御部41は、サーバ1から送信された治療タイミングを通信部43により受信し(ステップS451)、受信した治療タイミングを表示部45により表示し(ステップS452)、処理を終了する。 The control unit 11 transmits the acquired treatment timing to the terminal 4 by the communication unit 13 (step S153). The control unit 41 of the terminal 4 receives the treatment timing transmitted from the server 1 by the communication unit 43 (step S451), displays the received treatment timing by the display unit 45 (step S452), and ends the process.

また、治療タイミングの判定処理に関しては、上述した治療タイミング予測モデル178を用いた判定(予測)処理に限るものではない。病変部位のコントラスト比に基づき、治療タイミングを判定することができる。病変部位のコントラスト比は、診断画像に対して、病変箇所の輝度(明るさ)と正常箇所の輝度との比である。輝度は、各画素における輝度すなわち((R + G + B) / 3)である。Rは赤色、Gは緑色、Bは青色の副画素の画素値である。 Further, the treatment timing determination process is not limited to the determination (prediction) process using the treatment timing prediction model 178 described above. The treatment timing can be determined based on the contrast ratio of the lesion site. The contrast ratio of the lesion site is the ratio of the brightness (brightness) of the lesion site to the brightness of the normal site with respect to the diagnostic image. The brightness is the brightness in each pixel, that is, ((R + G + B) / 3). R is red, G is green, and B is the pixel value of the blue sub-pixel.

サーバ1の制御部11は、診断画像に基づいて病変部位のコントラスト比を算出する。制御部11は、算出した病変部位のコントラスト比と、該病変部位に対応する診断用基準コントラスト比とを比較する。なお、診断用基準コントラスト比は、予め記憶部12若しくは大容量記憶部17に記憶されても良く、または外部のノーマルデータベース(NDB:normal database)から取得されても良い。また、診断用基準コントラスト比に関しては、治療タイミングによって複数の基準コントラスト比を設けることができる。例えば、「治療不要」、「今すぐ」、「1ヶ月後」、「2ヵ月後」、「3カ月後」、「半年後」それぞれの診断用基準コントラスト比を設けても良い。 The control unit 11 of the server 1 calculates the contrast ratio of the lesion site based on the diagnostic image. The control unit 11 compares the calculated contrast ratio of the lesion site with the diagnostic reference contrast ratio corresponding to the lesion site. The diagnostic reference contrast ratio may be stored in the storage unit 12 or the large-capacity storage unit 17 in advance, or may be acquired from an external normal database (NDB: normal database). Further, regarding the reference contrast ratio for diagnosis, a plurality of reference contrast ratios can be provided depending on the treatment timing. For example, diagnostic reference contrast ratios for "no treatment required", "immediately", "1 month later", "2 months later", "3 months later", and "half a year later" may be provided.

具体的には、制御部11は、算出した病変部位のコントラスト比と、上述した治療タイミングにより設けられたそれぞれの診断用基準コントラスト比とを比較する。例えば、制御部11は、算出した病変部位のコントラスト比が「1ヶ月後」の診断用基準コントラスト比以上であり、「2ヵ月後」の診断用基準コントラスト比以下であると判定した場合、「1ヶ月後」の治療タイミングを判定結果として出力する。 Specifically, the control unit 11 compares the calculated contrast ratio of the lesion site with the respective diagnostic reference contrast ratios provided by the treatment timing described above. For example, when the control unit 11 determines that the calculated contrast ratio of the lesion site is equal to or greater than the diagnostic reference contrast ratio "after 1 month" and equal to or less than the diagnostic reference contrast ratio "after 2 months", " The treatment timing "one month later" is output as the judgment result.

図26は、コントラスト比により治療タイミングを判定する際の処理手順を示すフローチャートである。制御部11は、PET装置2を用いて撮影した診断画像を取得する(ステップS161)。制御部11は、取得した診断画像の輝度に基づき、病変部位のコントラスト比を算出する(ステップS162)。 FIG. 26 is a flowchart showing a processing procedure when determining the treatment timing based on the contrast ratio. The control unit 11 acquires a diagnostic image taken by using the PET device 2 (step S161). The control unit 11 calculates the contrast ratio of the lesion site based on the brightness of the acquired diagnostic image (step S162).

制御部11は、通信部13を介して、外部のノーマルデータベースから該病変部位に対応する診断用基準コントラスト比を取得する(ステップS163)。制御部11は、算出した病変部位のコントラスト比と、取得した診断用基準コントラスト比とを比較し(ステップS164)、該当する治療タイミングを判定し(ステップS165)、処理を終了する。 The control unit 11 acquires the diagnostic reference contrast ratio corresponding to the lesion site from the external normal database via the communication unit 13 (step S163). The control unit 11 compares the calculated contrast ratio of the lesion site with the acquired reference contrast ratio for diagnosis (step S164), determines the corresponding treatment timing (step S165), and ends the process.

本実施形態によると、診断画像に基づき、治療タイミング予測モデル178を用いて治療タイミングの予測結果を出力することが可能となる。 According to this embodiment, it is possible to output the prediction result of the treatment timing using the treatment timing prediction model 178 based on the diagnostic image.

本実施形態によると、ノーマルデータベース等に記憶された診断用基準コントラスト比によって、治療タイミングを判定することが可能となる。 According to this embodiment, it is possible to determine the treatment timing based on the diagnostic reference contrast ratio stored in the normal database or the like.

(実施形態5)
実施形態5は、治療画像に基づいて、治療残り回数を含む推定治療結果を出力する形態に関する。なお、実施形態1〜4と重複する内容については説明を省略する。推定治療結果は、治療残り回数(例えば、完治、1回または2回等)を含む。なお、治療残り回数のほか、推定治療結果は、治療に投与される推奨薬剤、アドバイス等を含んでも良い。
(Embodiment 5)
The fifth embodiment relates to an embodiment that outputs an estimated treatment result including the number of remaining treatments based on the treatment image. The description of the contents overlapping with the first to fourth embodiments will be omitted. Estimated treatment results include the number of remaining treatments (eg, complete cure, once or twice, etc.). In addition to the number of remaining treatments, the estimated treatment result may include recommended drugs to be administered for treatment, advice, and the like.

図27は、実施形態5のサーバ1の構成例を示すブロック図である。なお、図23と重複する内容については同一の符号を付して説明を省略する。大容量記憶部17には、推定治療結果出力モデル(第6学習モデル)179が記憶されている。推定治療結果出力モデル179は、治療画像に基づいて、治療残り回数を含む治療結果を推定する推定器であり、機械学習により生成された学習済みモデルである。 FIG. 27 is a block diagram showing a configuration example of the server 1 of the fifth embodiment. The contents overlapping with FIG. 23 are designated by the same reference numerals and the description thereof will be omitted. The large-capacity storage unit 17 stores an estimated treatment result output model (sixth learning model) 179. The estimated treatment result output model 179 is an estimator that estimates the treatment result including the number of remaining treatments based on the treatment image, and is a learned model generated by machine learning.

図28は、推定治療結果出力モデル179を説明する説明図である。推定治療結果出力モデル179は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される。推定治療結果出力モデル179は、治療画像を入力とし、治療残り回数を含む治療結果を推定した推定結果を出力とするニューラルネットワークを構築済みの推定器である。 FIG. 28 is an explanatory diagram illustrating an estimated treatment result output model 179. The estimated treatment result output model 179 is used as a program module that is part of artificial intelligence software. The estimated treatment result output model 179 is an estimator for which a neural network has been constructed that inputs a treatment image and outputs an estimated result that estimates the treatment result including the remaining number of treatments.

サーバ1の制御部11は、推定治療結果出力モデル179として、治療画像内における病変箇所の特徴量を学習するディープラーニングを行うことで推定治療結果出力モデル179を構築(生成)する。例えば、推定治療結果出力モデル179はCNNであり、治療画像の入力を受け付ける入力層と、治療残り回数を含む治療結果を推定した結果を出力する出力層と、バックプロパゲーションにより学習済の中間層とを有する。なお、推定治療結果出力モデル179の構成に関しては、診断用病変推定モデル174の構成と同様であるため、説明を省略する。 The control unit 11 of the server 1 constructs (generates) the estimated treatment result output model 179 as the estimated treatment result output model 179 by performing deep learning to learn the feature amount of the lesion portion in the treatment image. For example, the estimated treatment result output model 179 is CNN, which is an input layer that accepts input of a treatment image, an output layer that outputs a result of estimating a treatment result including the number of remaining treatments, and an intermediate layer that has been learned by back propagation. And have. Since the configuration of the estimated treatment result output model 179 is the same as the configuration of the diagnostic lesion estimation model 174, the description thereof will be omitted.

学習の際には、医療機関に存在する大量の過去の治療データを教師データとして利用する。制御部11は、治療画像と、治療残り回数を含む治療結果とが対応付けられた教師データの組み合わせを用いて学習を行う。教師データは、治療画像に対し、治療残り回数を含む治療結果がラベル付けされたデータである。制御部11は、教師データである治療画像を入力層に入力し、中間層での演算処理を経て、出力層から治療残り回数を含む治療結果を推定した推定結果を取得する。 During learning, a large amount of past treatment data existing in medical institutions is used as teacher data. The control unit 11 performs learning using a combination of the treatment image and the teacher data in which the treatment result including the remaining number of treatments is associated with each other. The teacher data is data in which the treatment result including the remaining number of treatments is labeled on the treatment image. The control unit 11 inputs the treatment image, which is the teacher data, to the input layer, performs arithmetic processing in the intermediate layer, and acquires an estimation result that estimates the treatment result including the remaining number of treatments from the output layer.

制御部11は、出力層から出力された治療残り回数を含む治療結果を、教師データにおいて治療画像に対しラベル付けされた治療結果、すなわち正解値と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。制御部11は、教師データに含まれる各治療画像について上記の処理を行い、推定治療結果出力モデル179を生成する。これにより、例えば制御部11は当該教師データを用いて推定治療結果出力モデル179の学習を行うことで、治療画像に対応する、治療残り回数を含む治療結果を推定可能なモデルを構築することができる。 The control unit 11 compares the treatment result including the remaining number of treatments output from the output layer with the treatment result labeled with respect to the treatment image in the teacher data, that is, the correct answer value, and the output value from the output layer is the correct answer value. The parameters used for the arithmetic processing in the intermediate layer are optimized so as to approach. The control unit 11 performs the above processing on each treatment image included in the teacher data, and generates an estimated treatment result output model 179. As a result, for example, the control unit 11 can learn the estimated treatment result output model 179 using the teacher data, thereby constructing a model corresponding to the treatment image and capable of estimating the treatment result including the remaining number of treatments. it can.

制御部11は治療画像を取得した場合、取得した治療画像を推定治療結果出力モデル179に入力する。治療画像は、68Ga−PSMAが投与された被検体の治療画像(例えば、治療終了を判断するための治療画像)であっても良く、または177Lu−PSMAが投与された被検体の治療画像であっても良い。さらにまた、治療画像は、68Ga−PSMAが投与された被検体の治療画像と、177Lu−PSMAが投与された被検体の治療画像との組み合わせであっても良い。 When the control unit 11 acquires the treatment image, the control unit 11 inputs the acquired treatment image to the estimation treatment result output model 179. The treatment image may be a treatment image of a subject to which 68Ga-PSMA has been administered (for example, a treatment image for determining the end of treatment), or a treatment image of a subject to which 177Lu-PSMA has been administered. You may. Furthermore, the treatment image may be a combination of the treatment image of the subject to which 68Ga-PSMA has been administered and the treatment image of the subject to which 177Lu-PSMA has been administered.

制御部11は、推定治療結果出力モデル179の中間層にて治療画像の特徴量を抽出する演算処理を行う。制御部11は、抽出した特徴量を推定治療結果出力モデル179の出力層に入力して、治療画像に対応する、治療残り回数を含む治療結果を推定した推定結果を出力として取得する。 The control unit 11 performs arithmetic processing for extracting the feature amount of the treatment image in the intermediate layer of the estimation treatment result output model 179. The control unit 11 inputs the extracted feature amount to the output layer of the estimated treatment result output model 179, and acquires the estimated result of estimating the treatment result including the remaining number of treatments corresponding to the treatment image as an output.

図示のように、出力層から出力される予測結果は、治療残り回数を示す連続的な確率値である。一例として、治療画像に対し、「完治」、「1回」、「2回」、「3回」それぞれの確率値が、「0.01」、「0.03」、「0.91」、「0.05」である推定結果が出力される。 As shown in the figure, the prediction result output from the output layer is a continuous probability value indicating the number of remaining treatments. As an example, for the treatment image, the probability values of "complete cure", "1 time", "2 times", and "3 times" are "0.01", "0.03", "0.91", respectively. The estimation result of "0.05" is output.

なお、本実施形態では、治療画像を推定治療結果出力モデル179に入力した例を説明したが、これに限るものではない。例えば、治療画像に加えて、該治療画像を属する患者に関する情報を推定治療結果出力モデル179に入力しても良い。 In this embodiment, an example in which the treatment image is input to the estimation treatment result output model 179 has been described, but the present invention is not limited to this. For example, in addition to the treatment image, information about the patient to which the treatment image belongs may be input to the estimation treatment result output model 179.

図29は、推定治療結果を出力する際の処理手順を示すフローチャートである。サーバ1の制御部11は、医療装置3から治療画像を取得する(ステップS171)。治療画像は、177Lu−PSMAが投与された被検体の治療画像、68Ga−PSMAが投与された被検体の治療画像、または両者の組み合わせの治療画像であっても良い。制御部11は、取得した治療画像を入力した場合に、治療残り回数を含む推定治療結果を出力する推定治療結果出力モデル179を用いて、推定治療結果を取得する(ステップS172)。 FIG. 29 is a flowchart showing a processing procedure when outputting an estimated treatment result. The control unit 11 of the server 1 acquires a treatment image from the medical device 3 (step S171). The treatment image may be a treatment image of a subject to which 177Lu-PSMA has been administered, a treatment image of a subject to which 68Ga-PSMA has been administered, or a treatment image of a combination of both. The control unit 11 acquires the estimated treatment result by using the estimated treatment result output model 179 that outputs the estimated treatment result including the remaining number of treatments when the acquired treatment image is input (step S172).

制御部11は、取得した推定治療結果を通信部13により端末4に送信する(ステップS173)。端末4の制御部41は、サーバ1から送信された推定治療結果を通信部43により受信し(ステップS471)、受信した推定治療結果を表示部45により表示し(ステップS472)、処理を終了する。 The control unit 11 transmits the acquired estimated treatment result to the terminal 4 by the communication unit 13 (step S173). The control unit 41 of the terminal 4 receives the estimated treatment result transmitted from the server 1 by the communication unit 43 (step S471), displays the received estimated treatment result on the display unit 45 (step S472), and ends the process. ..

また、治療結果の判定処理に関しては、上述した推定治療結果出力モデル179を用いた判定(推定)処理に限るものではない。病変部位のコントラスト比に基づき、治療残り回数を含む治療結果を判定することができる。 Further, the determination process of the treatment result is not limited to the determination (estimation) process using the above-mentioned estimation treatment result output model 179. Based on the contrast ratio of the lesion site, the treatment result including the number of remaining treatments can be determined.

サーバ1の制御部11は、治療画像に基づいて病変部位のコントラスト比を算出する。制御部11は、算出した病変部位のコントラスト比と、該病変部位に対応する治療用基準コントラスト比とを比較する。なお、治療用基準コントラスト比は、予め記憶部12若しくは大容量記憶部17に記憶されても良く、または外部のノーマルデータベースから取得されても良い。また、治療用基準コントラスト比に関しては、治療残り回数によって複数の治療用基準コントラスト比を設けることができる。例えば、「完治」、「1回」、「2回」、「3回」それぞれの基準コントラスト比を設けても良い。 The control unit 11 of the server 1 calculates the contrast ratio of the lesion site based on the treatment image. The control unit 11 compares the calculated contrast ratio of the lesion site with the therapeutic reference contrast ratio corresponding to the lesion site. The therapeutic reference contrast ratio may be stored in the storage unit 12 or the large-capacity storage unit 17 in advance, or may be acquired from an external normal database. Further, regarding the therapeutic reference contrast ratio, a plurality of therapeutic reference contrast ratios can be provided depending on the number of remaining treatments. For example, the reference contrast ratios of "complete cure", "1 time", "2 times", and "3 times" may be provided.

具体的には、制御部11は、算出した病変部位のコントラスト比と、上述した治療残り回数により設けられたそれぞれの治療用基準コントラスト比とを比較する。例えば、制御部11は、算出した病変部位のコントラスト比が「2回」の治療用基準コントラスト比以上であり、「3回」の治療用基準コントラスト比以下であると判定した場合、治療残り回数が2回である治療結果を判定する。 Specifically, the control unit 11 compares the calculated contrast ratio of the lesion site with the reference contrast ratio for each treatment provided by the number of remaining treatments described above. For example, when the control unit 11 determines that the calculated contrast ratio of the lesion site is equal to or more than the treatment reference contrast ratio of "2 times" and equal to or less than the treatment reference contrast ratio of "3 times", the number of remaining treatments. The treatment result is determined twice.

図30は、コントラスト比により治療結果を判定する際の処理手順を示すフローチャートである。制御部11は、第2薬剤が投与された被検体を撮影した治療画像を取得する(ステップS181)。制御部11は、取得した治療画像の輝度に基づき、病変部位のコントラスト比を算出する(ステップS182)。 FIG. 30 is a flowchart showing a processing procedure when determining a treatment result based on the contrast ratio. The control unit 11 acquires a therapeutic image of a subject to which the second drug has been administered (step S181). The control unit 11 calculates the contrast ratio of the lesion site based on the brightness of the acquired treatment image (step S182).

制御部11は、通信部13を介して、外部のノーマルデータベースから該病変部位に対応する治療用基準コントラスト比を取得する(ステップS183)。制御部11は、算出した病変部位のコントラスト比と、取得した治療用基準コントラスト比とを比較し(ステップS184)、治療残り回数を含む治療結果を判定し(ステップS185)、処理を終了する。 The control unit 11 acquires the therapeutic reference contrast ratio corresponding to the lesion site from the external normal database via the communication unit 13 (step S183). The control unit 11 compares the calculated contrast ratio of the lesion site with the acquired reference contrast ratio for treatment (step S184), determines the treatment result including the number of remaining treatments (step S185), and ends the process.

本実施形態によると、治療画像に基づき、推定治療結果出力モデル179を用いて推定治療結果を出力することが可能となる。 According to this embodiment, it is possible to output the estimated treatment result using the estimated treatment result output model 179 based on the treatment image.

本実施形態によると、ノーマルデータベース等に記憶された治療用基準コントラスト比によって、治療結果を判定することが可能となる。 According to this embodiment, it is possible to determine the treatment result based on the treatment reference contrast ratio stored in the normal database or the like.

(実施形態6)
図31は、実施形態1〜5のサーバ1の動作を示す機能ブロック図である。制御部11が制御プログラム1Pを実行することにより、サーバ1は以下のように動作する。
(Embodiment 6)
FIG. 31 is a functional block diagram showing the operation of the server 1 of the first to fifth embodiments. When the control unit 11 executes the control program 1P, the server 1 operates as follows.

第1取得部10aは、PET装置2を用いて撮影した診断画像を取得する。第1学習モデル10bは、第1取得部10aが取得した診断画像を入力した場合に病変推定情報を出力する。第2取得部10cは、第1学習モデル10bが出力した病変推定情報に基づいて、医療装置3を用いて撮影した治療段階の治療画像を取得する。 The first acquisition unit 10a acquires a diagnostic image taken by using the PET device 2. The first learning model 10b outputs lesion estimation information when the diagnostic image acquired by the first acquisition unit 10a is input. The second acquisition unit 10c acquires a treatment image of the treatment stage taken by using the medical device 3 based on the lesion estimation information output by the first learning model 10b.

第2学習モデル10dは、第2取得部10cが取得した治療画像を入力した場合に治療段階での病変推定情報を出力する。第3学習モデル10eは、治療画像を入力した場合に、第1薬剤が投与された被検体を、PET装置2を用いて撮影した画像を推定した推定画像を出力する。表示部10fは、診断画像と治療画像とを同時に表示する。第4学習モデル10gは、診断画像を入力した場合に第2薬剤の推奨投与量を出力する。また、第4学習モデル10gは、診断画像を入力した場合に、推奨する第2薬剤の種類と、種類ごとの第2薬剤の推奨投与量または推奨投与順序とを出力することができる。 The second learning model 10d outputs lesion estimation information at the treatment stage when the treatment image acquired by the second acquisition unit 10c is input. When the treatment image is input, the third learning model 10e outputs an estimated image in which the image of the subject to which the first drug is administered is estimated by using the PET device 2. The display unit 10f simultaneously displays the diagnostic image and the treatment image. The fourth learning model 10g outputs the recommended dose of the second drug when the diagnostic image is input. In addition, the fourth learning model 10g can output the recommended type of the second drug and the recommended dose or the recommended administration order of the second drug for each type when the diagnostic image is input.

第5学習モデル10hは、診断画像を入力した場合に治療タイミングを予測した予測結果を出力する。第1算出部10iは、診断画像に基づき、病変部位のコントラスト比を算出する。第1判定部10jは、第1算出部10iが算出したコントラスト比と、病変部位に対応する診断用基準コントラスト比とを比較して治療タイミングを判定する。 The fifth learning model 10h outputs a prediction result that predicts the treatment timing when a diagnostic image is input. The first calculation unit 10i calculates the contrast ratio of the lesion site based on the diagnostic image. The first determination unit 10j determines the treatment timing by comparing the contrast ratio calculated by the first calculation unit 10i with the diagnostic reference contrast ratio corresponding to the lesion site.

第6学習モデル10kは、治療画像を入力した場合に、治療残り回数を含む推定治療結果を出力する。第2算出部10lは、治療画像に基づき、病変部位のコントラスト比を算出する。第2判定部10mは、第2算出部10lが算出したコントラスト比と、病変部位に対応する治療用基準コントラスト比との比較に基づいて、治療残り回数を含む治療結果を判定する The sixth learning model 10k outputs an estimated treatment result including the number of remaining treatments when the treatment image is input. The second calculation unit 10l calculates the contrast ratio of the lesion site based on the treatment image. The second determination unit 10m determines the treatment result including the remaining number of treatments based on the comparison between the contrast ratio calculated by the second calculation unit 10l and the treatment reference contrast ratio corresponding to the lesion site.

本実施の形態6は以上の如きであり、その他は実施の形態1から5と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。 The sixth embodiment is as described above, and the other parts are the same as those of the first to fifth embodiments. Therefore, the corresponding parts are designated by the same reference numerals and detailed description thereof will be omitted.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

1 情報処理装置(サーバ)
11 制御部
12 記憶部
13 通信部
14 入力部
15 表示部
16 読取部
17 大容量記憶部
171 被検体DB
172 診断情報DB
173 治療情報DB
174 診断用病変推定モデル(第1学習モデル)
175 治療用病変推定モデル(第2学習モデル)
176 変換モデル(第3学習モデル)
177 第2薬剤情報出力モデル(第4学習モデル)
178 治療タイミング予測モデル(第5学習モデル)
179 推定治療結果出力モデル(第6学習モデル)
1a 可搬型記憶媒体
1b 半導体メモリ
1P 制御プログラム
2 陽電子放射断層撮影装置(PET装置)
21 制御部
22 記憶部
23 通信部
24 入力部
25 表示部
26 撮影部
27 検出器
28 ユニット基板
2P 制御プログラム
3 医療画像撮影装置(医療装置)
31 制御部
32 記憶部
33 通信部
34 入力部
35 表示部
36 撮影部
37 検出器
38 ユニット基板
3P 制御プログラム
4 情報処理端末(端末)
41 制御部
42 記憶部
43 通信部
44 入力部
45 表示部
4P 制御プログラム
10a 第1取得部
10b 第1学習モデル
10c 第2取得部
10d 第2学習モデル
10e 第3学習モデル
10f 表示部
10g 第4学習モデル
10h 第5学習モデル
10i 第1算出部
10j 第1判定部
10k 第6学習モデル
10l 第2算出部
10m 第2判定部
1 Information processing device (server)
11 Control unit 12 Storage unit 13 Communication unit 14 Input unit 15 Display unit 16 Reading unit 17 Large-capacity storage unit 171 Subject DB
172 Diagnostic information DB
173 Treatment information DB
174 Diagnostic lesion estimation model (first learning model)
175 Therapeutic lesion estimation model (second learning model)
176 conversion model (third learning model)
177 2nd drug information output model (4th learning model)
178 Treatment timing prediction model (fifth learning model)
179 Estimated treatment result output model (6th learning model)
1a Portable storage medium 1b Semiconductor memory 1P control program 2 Positron emission tomography equipment (PET equipment)
21 Control unit 22 Storage unit 23 Communication unit 24 Input unit 25 Display unit 26 Imaging unit 27 Detector 28 Unit board 2P control program 3 Medical imaging device (medical device)
31 Control unit 32 Storage unit 33 Communication unit 34 Input unit 35 Display unit 36 Imaging unit 37 Detector 38 Unit board 3P control program 4 Information processing terminal (terminal)
41 Control unit 42 Storage unit 43 Communication unit 44 Input unit 45 Display unit 4P Control program 10a 1st acquisition unit 10b 1st learning model 10c 2nd acquisition unit 10d 2nd learning model 10e 3rd learning model 10f Display unit 10g 4th learning Model 10h 5th learning model 10i 1st calculation unit 10j 1st judgment unit 10k 6th learning model 10l 2nd calculation unit 10m 2nd judgment unit

Claims (16)

放射性医薬品合成装置または用時調製用製剤で放射性核種を標識した第1薬剤が投与された被検体を、陽電子放射断層撮影装置を用いて撮影した診断画像を取得する第1取得部と、
前記第1取得部が取得した診断画像を入力した場合に病変推定情報を出力する第1学習モデルと、
前記第1学習モデルが出力した病変推定情報に基づいて、放射性医薬品合成装置または用時調製用製剤で放射性核種を標識した第2薬剤が投与された被検体を、医療画像撮影装置を用いて撮影した治療段階の治療画像を取得する第2取得部と、
前記第2取得部が取得した治療画像を入力した場合に治療段階での病変推定情報を出力する第2学習モデルと
を備える情報処理装置。
A first acquisition unit that acquires diagnostic images taken by using a positron emission tomography device of a subject to which a first drug labeled with a radionuclide is administered with a radiopharmaceutical synthesizer or a preparation preparation for use.
A first learning model that outputs lesion estimation information when a diagnostic image acquired by the first acquisition unit is input, and
Based on the lesion estimation information output by the first learning model, a subject to which a second drug labeled with a radionuclide was administered with a radiopharmaceutical synthesizer or a preparation preparation for use was photographed using a medical imaging device. The second acquisition department that acquires the treatment image of the treatment stage
An information processing device including a second learning model that outputs lesion estimation information at the treatment stage when a treatment image acquired by the second acquisition unit is input.
前記第2薬剤は、ルテチウム177で標識した前立腺特異的膜抗原結合性リガンドを含む
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the second agent contains a prostate-specific membrane antigen-binding ligand labeled with lutetium 177.
前記第2薬剤は、ガリウム68で標識した前立腺特異的膜抗原結合性リガンドを含む
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the second agent contains a prostate-specific membrane antigen-binding ligand labeled with gallium-68.
前記医療画像撮影装置は、陽電子放射断層撮影装置である
ことを特徴とする請求項1から請求項3のいずれか一つに記載の情報処理装置。
The information processing device according to any one of claims 1 to 3, wherein the medical imaging device is a positron emission tomography device.
前記第1薬剤は、ガリウム68で標識したHER2抗体を含み、
前記第2薬剤は、アスタチン211で標識したHER2抗体を含み、
前記医療画像撮影装置は、単一光子放射断層撮影装置またはコンプトンカメラである
ことを特徴とする請求項1に記載の情報処理装置。
The first agent comprises a gallium-68 labeled HER2 antibody.
The second agent comprises an astatine 211 labeled HER2 antibody.
The information processing apparatus according to claim 1, wherein the medical imaging apparatus is a single photon emission tomography apparatus or a Compton camera.
前記治療画像を入力した場合に、前記第1薬剤が投与された前記被検体を、前記陽電子放射断層撮影装置を用いて撮影した画像を推定した推定画像を出力する第3学習モデル
を備える請求項1から請求項5のいずれか一つに記載の情報処理装置。
A claim comprising a third learning model that outputs an estimated image obtained by estimating an image taken by using the positron emission tomography apparatus of the subject to which the first drug is administered when the treatment image is input. The information processing apparatus according to any one of claims 1 to 5.
前記診断画像と治療画像とを同時に表示する表示部
を備える請求項1から請求項6のいずれか一つに記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 6, further comprising a display unit that simultaneously displays the diagnostic image and the therapeutic image.
前記診断画像を入力した場合に前記第2薬剤の推奨投与量を出力する第4学習モデル
を備える請求項1から請求項7のいずれか一つに記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 7, further comprising a fourth learning model that outputs a recommended dose of the second drug when the diagnostic image is input.
前記第4学習モデルは、前記診断画像を入力した場合に、推奨する第2薬剤の種類と、種類ごとの前記第2薬剤の推奨投与量または推奨投与順序とを出力する
ことを特徴とする請求項8に記載の情報処理装置。
The fourth learning model is characterized in that, when the diagnostic image is input, the recommended type of the second drug and the recommended dose or the recommended administration order of the second drug for each type are output. Item 8. The information processing apparatus according to item 8.
前記診断画像を入力した場合に治療タイミングを予測した予測結果を出力する第5学習モデル
を備える請求項1から請求項9のいずれか一つに記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 9, further comprising a fifth learning model that outputs a prediction result that predicts the treatment timing when the diagnostic image is input.
前記診断画像に基づき、病変部位のコントラスト比を算出する第1算出部と、
前記第1算出部が算出したコントラスト比と、前記病変部位に対応する診断用基準コントラスト比とを比較して治療タイミングを判定する第1判定部と
を備える請求項1から請求項9のいずれか一つに記載の情報処理装置。
Based on the diagnostic image, the first calculation unit that calculates the contrast ratio of the lesion site and
Any of claims 1 to 9, further comprising a first determination unit that determines the treatment timing by comparing the contrast ratio calculated by the first calculation unit with the diagnostic reference contrast ratio corresponding to the lesion site. The information processing device described in one.
前記治療画像を入力した場合に、治療残り回数を含む推定治療結果を出力する第6学習モデル
を備える請求項1から請求項11のいずれか一つに記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 11, further comprising a sixth learning model that outputs an estimated treatment result including the number of remaining treatments when the treatment image is input.
前記第6学習モデルは、ガリウム68で標識した前立腺特異的膜抗原結合性リガンドが投与された被検体の治療画像と、ルテチウム177で標識した前立腺特異的膜抗原結合性リガンドが投与された被検体の治療画像とを入力した場合に、治療残り回数を含む推定治療結果を出力する
ことを特徴とする請求項12に記載の情報処理装置。
In the sixth learning model, a therapeutic image of a subject to which a gallium-68-labeled prostate-specific membrane antigen-binding ligand was administered and a subject to which a lutetium-177-labeled prostate-specific membrane antigen-binding ligand was administered. The information processing apparatus according to claim 12, wherein an estimated treatment result including the number of remaining treatments is output when the treatment image of the above is input.
前記治療画像に基づき、病変部位のコントラスト比を算出する第2算出部と、
前記第2算出部が算出したコントラスト比と、前記病変部位に対応する治療用基準コントラスト比との比較に基づいて、治療残り回数を含む治療結果を判定する第2判定部と
を備える請求項1から請求項11のいずれか一つに記載の情報処理装置。
A second calculation unit that calculates the contrast ratio of the lesion site based on the treatment image,
Claim 1 includes a second determination unit that determines a treatment result including the number of remaining treatments based on a comparison between the contrast ratio calculated by the second calculation unit and the treatment reference contrast ratio corresponding to the lesion site. The information processing apparatus according to any one of claims 11.
放射性医薬品合成装置または用時調製用製剤で放射性核種を標識した第1薬剤が投与された被検体を、陽電子放射断層撮影装置を用いて撮影した診断画像を取得し、
取得した前記診断画像を入力した場合に病変推定情報を出力する第1学習モデルを用いて、病変推定情報を出力し、
出力した前記病変推定情報に基づいて、放射性医薬品合成装置または用時調製用製剤で放射性核種を標識した第2薬剤が投与された被検体を、医療画像撮影装置を用いて撮影した治療段階の治療画像を取得し、
取得した前記治療画像を入力した場合に治療段階での病変推定情報を出力する第2学習モデルを用いて、前記治療段階での病変推定情報を出力する
処理をコンピュータに実行させるプログラム。
A diagnostic image of a subject to which the first drug labeled with a radionuclide was administered with a radiopharmaceutical synthesizer or a preparation preparation for use was obtained using a positron emission tomography device.
Using the first learning model that outputs the lesion estimation information when the acquired diagnostic image is input, the lesion estimation information is output.
Based on the output lesion estimation information, a subject to whom a second drug labeled with a radionuclide was administered with a radiopharmaceutical synthesizer or a preparation preparation for use was photographed using a medical imaging device for treatment at the treatment stage. Get the image,
A program that causes a computer to execute a process of outputting lesion estimation information at the treatment stage using a second learning model that outputs lesion estimation information at the treatment stage when the acquired treatment image is input.
放射性医薬品合成装置または用時調製用製剤で放射性核種を標識した第1薬剤が投与された被検体を、陽電子放射断層撮影装置を用いて撮影した診断画像を取得し、
取得した前記診断画像を入力した場合に病変推定情報を出力する第1学習モデルを用いて、病変推定情報を出力し、
出力した前記病変推定情報に基づいて、放射性医薬品合成装置または用時調製用製剤で放射性核種を標識した第2薬剤が投与された被検体を、医療画像撮影装置を用いて撮影した治療段階の治療画像を取得し、
取得した前記治療画像を入力した場合に治療段階での病変推定情報を出力する第2学習モデルを用いて、前記治療段階での病変推定情報を出力する
情報処理方法。
A diagnostic image obtained by using a positron emission tomography device to obtain a diagnostic image of a subject to which the first drug labeled with a radionuclide was administered with a radiopharmaceutical synthesizer or a preparation preparation for use was obtained.
Using the first learning model that outputs the lesion estimation information when the acquired diagnostic image is input, the lesion estimation information is output.
Based on the output lesion estimation information, a subject to whom a second drug labeled with a radionuclide was administered with a radiopharmaceutical synthesizer or a preparation preparation for use was photographed using a medical imaging device for treatment at the treatment stage. Get the image,
An information processing method that outputs lesion estimation information at the treatment stage using a second learning model that outputs lesion estimation information at the treatment stage when the acquired treatment image is input.
JP2019164620A 2019-09-10 2019-09-10 Information processing equipment, programs and computer operating methods Active JP7355370B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019164620A JP7355370B2 (en) 2019-09-10 2019-09-10 Information processing equipment, programs and computer operating methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019164620A JP7355370B2 (en) 2019-09-10 2019-09-10 Information processing equipment, programs and computer operating methods

Publications (2)

Publication Number Publication Date
JP2021043040A true JP2021043040A (en) 2021-03-18
JP7355370B2 JP7355370B2 (en) 2023-10-03

Family

ID=74863834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019164620A Active JP7355370B2 (en) 2019-09-10 2019-09-10 Information processing equipment, programs and computer operating methods

Country Status (1)

Country Link
JP (1) JP7355370B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121530A (en) * 2003-10-17 2005-05-12 Shimadzu Corp Medical image diagnostic device
US20150094519A1 (en) * 2013-09-30 2015-04-02 Varian Medical Systems, Inc. Predicting achievable dose distribution using 3d information as an input

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121530A (en) * 2003-10-17 2005-05-12 Shimadzu Corp Medical image diagnostic device
US20150094519A1 (en) * 2013-09-30 2015-04-02 Varian Medical Systems, Inc. Predicting achievable dose distribution using 3d information as an input

Also Published As

Publication number Publication date
JP7355370B2 (en) 2023-10-03

Similar Documents

Publication Publication Date Title
Tsuneki Deep learning models in medical image analysis
US11564621B2 (en) Systems and methods for artificial intelligence-based image analysis for cancer assessment
AU2017348111B2 (en) Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications
KR101943011B1 (en) Method for facilitating medical image reading and apparatus using the same
US20200311932A1 (en) Systems and Methods for Synthetic Medical Image Generation
Rudie et al. Three-dimensional U-Net convolutional neural network for detection and segmentation of intracranial metastases
Liu et al. Detection and diagnosis of colitis on computed tomography using deep convolutional neural networks
CA3136127A1 (en) Systems and methods for automated and interactive analysis of bone scan images for detection of metastases
KR101919866B1 (en) Method for aiding determination of presence of bone metastasis from bone scan image and apparatus using the same
Zaidi et al. Quantitative molecular positron emission tomography imaging using advanced deep learning techniques
Zaharchuk et al. Artificial intelligence for optimization and interpretation of PET/CT and PET/MR images
US11900597B2 (en) Systems and methods for artificial intelligence-based image analysis for cancer assessment
KR101898580B1 (en) Method for facilitating image view and apparatus using the same
KR101919847B1 (en) Method for detecting automatically same regions of interest between images taken on a subject with temporal interval and apparatus using the same
Park et al. Automatic lung cancer segmentation in [18F] FDG PET/CT using a two-stage deep learning approach
Brosch-Lenz et al. Role of artificial intelligence in theranostics: toward routine personalized radiopharmaceutical therapies
KR20200120311A (en) Determination method for stage of cancer based on medical image and analyzing apparatus for medical image
Chartrand et al. Automated Detection of Brain Metastases on T1‐Weighted MRI Using a Convolutional Neural Network: Impact of Volume Aware Loss and Sampling Strategy
Juarez-Orozco et al. Artificial intelligence to improve risk prediction with nuclear cardiac studies
Liu et al. A deep learning model based on MRI and clinical factors facilitates noninvasive evaluation of KRAS mutation in rectal cancer
Velichko et al. A comprehensive review of deep learning approaches for magnetic resonance imaging liver tumor analysis
Li et al. Deep learning convolutional neural network (DLCNN): unleashing the potential of 18F-FDG PET/CT in lymphoma
Liu et al. RPLS-Net: pulmonary lobe segmentation based on 3D fully convolutional networks and multi-task learning
Gålne et al. AI-based quantification of whole-body tumour burden on somatostatin receptor PET/CT
JP7355370B2 (en) Information processing equipment, programs and computer operating methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230913

R150 Certificate of patent or registration of utility model

Ref document number: 7355370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350