JP2022172417A - Generation method of learned model, deduction apparatus, medical apparatus and program - Google Patents
Generation method of learned model, deduction apparatus, medical apparatus and program Download PDFInfo
- Publication number
- JP2022172417A JP2022172417A JP2021075364A JP2021075364A JP2022172417A JP 2022172417 A JP2022172417 A JP 2022172417A JP 2021075364 A JP2021075364 A JP 2021075364A JP 2021075364 A JP2021075364 A JP 2021075364A JP 2022172417 A JP2022172417 A JP 2022172417A
- Authority
- JP
- Japan
- Prior art keywords
- contrast
- enhanced
- images
- image
- predetermined part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 239000002872 contrast media Substances 0.000 claims abstract description 82
- 238000003384 imaging method Methods 0.000 claims abstract description 44
- 238000013528 artificial neural network Methods 0.000 claims abstract description 9
- 206010028980 Neoplasm Diseases 0.000 description 33
- 238000010586 diagram Methods 0.000 description 23
- 210000004185 liver Anatomy 0.000 description 10
- 210000002784 stomach Anatomy 0.000 description 10
- 230000009977 dual effect Effects 0.000 description 7
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 5
- 201000011510 cancer Diseases 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 101000585359 Homo sapiens Suppressor of tumorigenicity 20 protein Proteins 0.000 description 1
- 230000002308 calcification Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010186 staining Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、学習済みモデルの生成方法、学習済みモデルを用いて推論を行う推論装置、当該推論装置を有する医用装置、および学習済みモデルを用いて推論を行うためのプログラムに関する。 The present invention relates to a method of generating a trained model, an inference device that performs inference using the trained model, a medical device having the inference device, and a program for performing inference using the trained model.
被検体の体内の画像を非侵襲的に撮影する医用装置として、X線CT装置が知られている。X線CT装置は、撮影部位を短時間で撮影することができるので、病院等の医療施設に普及している。 2. Description of the Related Art An X-ray CT apparatus is known as a medical apparatus that noninvasively captures images of the inside of a subject's body. The X-ray CT apparatus is widely used in medical facilities such as hospitals because it can image a region to be imaged in a short period of time.
X線CT装置を用いて被検体を撮影する場合、様々なスキャン条件で被検体をスキャンすることにより、臨床目的に応じた様々なCT画像を取得することができる。読影医などの医師は、取得されたCT画像の読影を行い、読影の結果に基づいて、診断を行うことができる。 When imaging a subject using an X-ray CT apparatus, various CT images can be acquired according to clinical purposes by scanning the subject under various scanning conditions. A doctor such as a radiologist can interpret the acquired CT image and make a diagnosis based on the result of the interpretation.
CT装置を使用した撮影方法として、シングルエネルギーCTが知られている。シングルエネルギーCTは、1つの管電圧(通常120kVp)で撮影を行いCT値の情報を得る方法であるが、この方法は、X線高吸収物質(骨や金属、造影剤)に起因するアーチファクト(ビームハードニングアーチファクト)が発生しやすいなどの問題がある。この問題に対処する技術として、デュアルエネルギーCTの技術が研究、開発されており(特許文献1参照)、デュアルエネルギーCTは、シングルエネルギーCTの欠点を克服する撮影方法として期待されている。 Single energy CT is known as an imaging method using a CT apparatus. Single-energy CT is a method of obtaining CT value information by imaging with one tube voltage (usually 120 kVp), but this method has artifacts ( beam hardening artifact) is likely to occur. Dual-energy CT technology has been researched and developed as a technology for coping with this problem (see Patent Document 1), and dual-energy CT is expected as an imaging method that overcomes the shortcomings of single-energy CT.
例えば、造影撮影によって腫瘍の良性、悪性を鑑別する場合、組織に取り込まれた造影剤を定量的に評価することが重要であるが、デュアルエネルギーCTは、組織に取り込まれた造影剤の定量評価に適した手法である。したがって、デュアルエネルギーCTは、腫瘍の良性、悪性の鑑別の精度を向上させることが可能である。しかし、CT装置によってはデュアルエネルギーCTが使用できない装置がある。この問題に対処するため、DNN(Deep Neural Network)がデュアルエネルギーCTのデータを用いた学習を行うことにより学習済みDNNを生成し、この生成した学習済みDNNにシングルエネルギーCTのデータを入力してデュアルエネルギー情報を推論する研究が行われている。しかし、この方法では、撮影部位内において、造影剤が取り込まれていないにも関わらず、他の組織よりも明るく描出される部分が現れることがある。例えば、撮影部位に、胃の中の食べ物や石灰化した部分が含まれている場合、食べ物や石灰化した部分が明るく描出されることがある。したがって、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別することが難しい場合ある。 For example, when distinguishing between benign and malignant tumors by contrast imaging, it is important to quantitatively evaluate the contrast agent taken into the tissue. This method is suitable for Therefore, dual-energy CT can improve the accuracy of distinguishing between benign and malignant tumors. However, some CT systems cannot use dual energy CT. In order to deal with this problem, a DNN (Deep Neural Network) performs learning using dual-energy CT data to generate a learned DNN, and inputs single-energy CT data to the generated trained DNN. Research has been conducted to infer dual-energy information. However, with this method, there are cases where a portion of the imaged region appears brighter than other tissues even though the contrast agent is not incorporated. For example, if the imaged region includes food and calcified parts in the stomach, the food and calcified parts may be depicted brightly. Therefore, it may be difficult to discriminate between areas in which the contrast agent has been incorporated and areas in which the contrast agent has not been incorporated.
したがって、造影撮影を実行した場合、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを高い精度で判別することができる技術が望まれている。 Therefore, there is a demand for a technique capable of distinguishing with high accuracy a region in which a contrast medium has been taken and a region in which no contrast medium has been taken, when contrast imaging is performed.
本発明の第1の観点は、撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを生成する学習済みモデル生成方法であって、
コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、
を用いた学習を実行することにより前記学習済みモデルを生成する、学習済みモデル生成方法である。
According to a first aspect of the present invention, a non-contrast-enhanced CT image including a predetermined portion of an imaging subject and a contrast-enhanced CT image including a predetermined portion of the imaging subject are input, whereby the predetermined A trained model generation method for generating a trained model that performs inference for discriminating between a region in which a contrast agent has been taken and a region in which no contrast agent has been taken in a part of
the computer
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with
is a learned model generation method for generating the learned model by executing learning using
本発明の第2の観点は、撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを含む推論装置であって、
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、
を用いた学習を実行することにより生成されている、推論装置である。
According to a second aspect of the present invention, by inputting a non-contrast CT image including a predetermined portion of a subject and a contrast-enhanced CT image including a predetermined portion of the subject, the predetermined An inference device that includes a trained model that performs inference for discriminating between a region in which a contrast agent is taken up and a region in which a contrast agent is not taken up in a part of
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with
is an inference device generated by executing learning using
本発明の第3の観点は、撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを含む医用装置であって、
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、
を用いた学習を実行することにより生成されている、医用装置である。
In a third aspect of the present invention, a non-contrast-enhanced CT image including a predetermined portion of a subject and a contrast-enhanced CT image including a predetermined portion of the subject are input to obtain the predetermined portion of the subject. A medical device that includes a trained model that performs inference to discriminate between contrast agent uptake regions and contrast agent non-uptake regions at a site of
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with
is a medical device generated by performing learning using
本発明の第4の観点は、1つ以上のプロセッサに、
撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像を学習済みモデルに入力し、前記学習済みモデルに、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行させること
を含む動作を実行させるプログラムであって、
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、
を用いた学習を実行することにより生成されている、プログラムである。
A fourth aspect of the present invention provides one or more processors with:
A non-contrast-enhanced CT image including a predetermined part of an imaging subject and a contrast-enhanced CT image including a predetermined part of the imaging subject are input to a trained model, and the predetermined part of the imaging subject is input to the learned model. A program for executing an operation including executing inference for distinguishing between a region in which a contrast agent is taken and a region in which a contrast agent is not taken in,
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with
It is a program generated by executing learning using
本発明の第5の観点は、撮影対象者の所定の部位を複数の時相で造影撮影することにより得られた複数の造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを生成する学習済みモデル生成方法であって、
コンピュータが、
(1)人間の所定の部位を前記複数の時相で造影撮影することにより得られた複数の造影CT画像、および
(2)前記複数の造影CT画像にラベリングされた複数の正解データであって、各正解データが、前記複数の時相のうちの一つの時相で撮影された造影CT画像と、前記複数の時相のうちの他の時相で撮影された造影CT画像とを差分することにより生成された差分画像に基づいて生成されたものである、複数の正解データ、
を用いた学習を実行することにより生成される、学習済みモデル生成方法である。
According to a fifth aspect of the present invention, a plurality of contrast-enhanced CT images obtained by contrast-enhanced imaging of a predetermined part of a subject person in a plurality of time phases are input, thereby obtaining the predetermined region of the subject person. A trained model generation method for generating a trained model that performs inference for discriminating between a region in which a contrast agent is taken and a region in which no contrast agent is taken in a part,
the computer
(1) a plurality of contrast-enhanced CT images obtained by contrast-enhanced imaging of a predetermined part of a human at the plurality of time phases; and (2) a plurality of correct data labeled on the plurality of contrast-enhanced CT images, , each correct data is a difference between a contrast-enhanced CT image captured in one of the plurality of time phases and a contrast-enhanced CT image captured in another time phase of the plurality of time phases. A plurality of correct data generated based on the difference image generated by
It is a trained model generation method that is generated by executing learning using
撮影部位に腫瘍が含まれる場合、非造影CT画像に描出される腫瘍の明るさと、造影CT画像Cに描出される腫瘍の明るさには大きな違いがある。一方、胃の中の食べ物や石灰化した部分について着目すると、非造影CT画像に描出される食べ物や石灰化部分は、造影CT画像に描出される食べ物や石灰化部分と比較して、明るさにあまり大きな差が見られない。したがって、非造影CT画像と造影CT画像とを差分すると、腫瘍の領域(造影剤が取り込まれた領域)の差分値は比較的大きい値になるが、食べ物や石灰化部分の領域(造影剤が取り込まれていない領域)の差分値は比較的小さい値になる。このため、非造影CT画像と造影CT画像とを差分することにより、食べ物や石灰化部分など、造影剤が取り込まれていないにも拘らず明るく描出される領域と、腫瘍に造影剤が取り込まれることにより明るく描出される領域とをの違いが強調された差分画像を得ることができる。 When a tumor is included in the imaging region, there is a large difference between the brightness of the tumor depicted in the non-contrast CT image and the brightness of the tumor depicted in the contrast-enhanced CT image C. On the other hand, when focusing on food and calcified parts in the stomach, the food and calcified parts visualized on non-contrast CT images are brighter than the food and calcified parts visualized on contrast-enhanced CT images. does not show much difference. Therefore, when the non-contrast CT image and the contrast CT image are subtracted, the difference value in the tumor region (the region in which the contrast agent is taken) becomes a relatively large value, but the difference value in the food and calcification region (the region where the contrast agent is taken in) is relatively large. The difference value of the non-captured area) is a relatively small value. For this reason, by subtracting the non-contrast CT image and the contrast CT image, regions such as food and calcified areas that are brightly rendered even though the contrast agent is not taken in and tumors in which the contrast agent is taken in are detected. Thus, a difference image can be obtained in which the difference from the brightly drawn area is emphasized.
本発明では、このような差分画像を使用して学習済みモデルを生成している。したがって、非造影CT画像および造影CT画像に、食べ物や石灰化部分など、造影剤が取り込まれていないにも拘らず明るく描出される領域が含まれていても、非造影CT画像および造影CT画像を学習済みモデルに入力することにより、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別することができる。 In the present invention, such difference images are used to generate a trained model. Therefore, even if the non-contrast-enhanced CT image and the contrast-enhanced CT image include areas such as food and calcified areas that are brightly rendered even though the contrast agent is not incorporated, the non-contrast-enhanced CT image and the contrast-enhanced CT image is input into the trained model, it is possible to discriminate between regions in which the contrast agent is incorporated and regions in which the contrast agent is not incorporated.
以下、発明を実施するための形態について説明するが、本発明は、以下の形態に限定されることはない。 BEST MODE FOR CARRYING OUT THE INVENTION Embodiments for carrying out the invention will be described below, but the invention is not limited to the following embodiments.
図1は、第1の形態のX線CT装置の一例の説明図である。
図1に示すように、X線CT装置1は、ガントリ(gantry)2、テーブル(table)4、カメラ(camera)6、及び操作コンソール(console)8を備えている。
FIG. 1 is an explanatory diagram of an example of the X-ray CT apparatus of the first embodiment.
As shown in FIG. 1, the X-ray CT apparatus 1 includes a
スキャンルーム100には、ガントリ2及びテーブル4が設置されている。スキャンルーム100の天井101にはカメラ6が設置されている。操作ルーム200には、操作コンソール8が設置されている。
A
次に、ガントリ2、テーブル4、および操作コンソール8について、図2を参照しながら説明する。
Next, the
図2は、ガントリ2、テーブル4、および操作コンソール8の説明図である。
ガントリ2は、患者40が移動可能な空間であるボア21を画定する内壁を有している。
FIG. 2 is an explanatory diagram of the
The
また、ガントリ2は、X線管22、アパーチャ(aperture)23、コリメータ24、X線検出器25、データ収集部(data acquisition system)26、回転部27、高電圧電源28、アパーチャ駆動装置29、回転部駆動装置30、GT(Gantry Table)制御部31などを有している。
The
X線管22、アパーチャ23、コリメータ24、X線検出器25、およびデータ収集部26は、回転部27に搭載されている。
The
X線管22は患者40にX線を照射する。X線検出器25は、X線管22から照射されたX線を検出する。X線検出器25は、ボア21に対してX線管22とは反対側に設けられている。
アパーチャ23は、X線管22とボア21との間に配置されている。アパーチャ23は、X線管22のX線焦点からX線検出器25に向けて放射されるX線をファンビーム(fan beam)やコーンビーム(cone beam)に成形する。
X線検出器25は、患者40を透過したX線を検出する。
コリメータ24は、X線検出器25に対してX線入射側に配置されており、散乱X線を除去する。
The
高電圧電源28は、X線管22に高電圧及び電流を供給する。
アパーチャ駆動装置29はアパーチャ23を駆動しその開口を変形させる。
回転部駆動装置30は回転部27を回転駆動する。
A high
The rotating
テーブル4は、クレードル(cradle)41、クレードル支持台42、および駆動装置43を有している。クレードル41は撮影対象である患者40を支持するものである。クレードル支持台42は、クレードル41をy方向およびz方向に移動可能に支持するものである。駆動装置43は、クレードル41およびクレードル支持台42を駆動するものである。尚、ここでは、クレードル41の長手方向をz方向、テーブル4の高さ方向をy方向、z方向およびy方向に垂直な水平方向をx方向とする。
The table 4 has a
GT制御部31は、ガントリ2内の各装置・各部、およびテーブル4の駆動装置43等を制御する。
The
操作コンソール8は、入力部81、表示部82、記憶部83、処理部84、コンソール制御部85などを有している。
The
入力部81は、オペレータからの指示や情報の入力を受け付けたり、各種の操作を行うためのキーボード(keyboard)およびポインティングデバイス(pointing device)などを含んでいる。表示部82は、スキャン条件を設定するための設定画面、CT画像などを表示するものであり、例えば、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイなどである。
The
記憶部83は、プロセッサで各種処理を実行させるためのプログラムが記憶されている。また、記憶部83は、各種データや各種ファイルなども記憶する。記憶部83は、HDD(Hard Disk Drive:ハードディスクドライブ)、SSD(Solid State Drive:ソリッドステートドライブ)、DRAM(Dynamic Random Access Memory)、およびROM(Read Only Memory)等を有している。また、記憶部83は、CD(Compact Disk)やDVD(Digital Versatile Disk)などの可搬性の記憶媒体90を含んでいてもよい。
The
処理部84は、ガントリ2により取得された患者40のデータ(data)に基づいて画像再構成処理を行ったり、その他の各種の演算を行う。処理部84は一つ以上のプロセッサを有しており、一つ以上のプロセッサが、記憶部83に記憶されているプログラムの各種処理を実行する。尚、処理部84は、本発明の推論装置に相当する。
The
図3は、処理部84の主な機能ブロックを示す図である。
処理部84は再構成部841および推論部842を有している。
FIG. 3 is a diagram showing main functional blocks of the
The
再構成部841は、スキャンにより得られた投影データに基づいて、CT画像(例えば、スカウト画像、非造影CT画像、および造影CT画像)を再構成する。
The
推論部842は、学習済みモデルにCT画像を入力し、患者の撮影部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する。
The
また、記憶部83には、1つ以上のプロセッサによる実行が可能な1つ以上の命令が格納されている。この一つ以上の命令は、1つ以上のプロセッサに、以下の動作(a1)および(a2)を実行させる。
(a1)投影データに基づいてCT画像を再構成する(再構成部841)。
(a2)学習済みモデルにCT画像を入力し、患者40の撮影部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する(推論部842)。
The
(a1) Reconstruct a CT image based on the projection data (reconstruction unit 841).
(a2) Input a CT image to the trained model, and perform inference for discriminating between a region in which the contrast agent is taken and a region in which the contrast medium is not taken in the imaging region of the patient 40 (inference unit 842). .
操作コンソール8の処理部84は、記憶部83に格納されている命令を読み出し、上記の動作(a1)-(a2)を実行することができる。
The
コンソール制御部85は、入力部81からの入力に基づいて、表示部82を制御したり、処理部84を制御する。
X線CT装置1は上記のように構成されている。
The
The X-ray CT apparatus 1 is configured as described above.
近年、デュアルエネルギーCTを使って、腫瘍の良性、悪性の鑑別をすることが行われている。しかし、CT装置によってはデュアルエネルギーCTが使用できない装置がある。この問題に対処するため、DNN(Deep Neural Network)にデュアルエネルギーCTのデータを用いた学習を行わせて学習済みのDNNを生成し、この学習済みのDNNにシングルエネルギーCTのデータを入力してデュアルエネルギー情報を推論する研究が行われている。しかし、この方法では、撮影部位内において、造影剤が取り込まれていないにも関わらず、他の組織よりも明るく描出される領域が現れることがある。例えば、撮影部位に、胃の中の食べ物や石灰化した部分が含まれている場合、食べ物や石灰化した部分が明るく描出されることがある。したがって、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別することが難しい場合ある。 In recent years, dual-energy CT has been used to distinguish between benign and malignant tumors. However, some CT systems cannot use dual energy CT. In order to deal with this problem, a DNN (Deep Neural Network) is trained using dual-energy CT data to generate a trained DNN, and the single-energy CT data is input to this trained DNN. Research has been conducted to infer dual-energy information. However, with this method, there may appear areas within the imaged region that are rendered brighter than other tissues even though the contrast medium is not incorporated. For example, if the imaged region includes food and calcified parts in the stomach, the food and calcified parts may be depicted brightly. Therefore, it may be difficult to discriminate between areas in which the contrast agent has been incorporated and areas in which the contrast agent has not been incorporated.
そこで、本形態では、この問題に対処するために、DL(深層学習)を利用して、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別するための学習済みモデルを生成している。
以下に、この学習済みモデルの生成方法について、図4~図8を参照しながら説明する。
Therefore, in the present embodiment, in order to deal with this problem, DL (deep learning) is used to determine a region in which the contrast agent is taken and a region in which the contrast agent is not taken. is generating
A method of generating this trained model will be described below with reference to FIGS. 4 to 8. FIG.
図4は学習フェーズのフローチャートを示す図である。
ステップST1では、学習フェーズで使用される複数のCT画像を用意する。図5は、学習フェーズで使用されるCT画像の説明図である。本形態では、学習フェーズで使用されるCT画像は以下のとおりである。
(1)肝臓を含む胸部の非造影CT画像
(2)肝臓を含む胸部の造影CT画像
FIG. 4 is a diagram showing a flow chart of the learning phase.
At step ST1, a plurality of CT images to be used in the learning phase are prepared. FIG. 5 is an explanatory diagram of CT images used in the learning phase. In this embodiment, the CT images used in the learning phase are as follows.
(1) Non-enhanced CT image of chest including liver (2) Contrast-enhanced CT image of chest including liver
図5では、非造影CT画像は符号CNi(1≦i≦n)で示されている。また、造影CT画像は、符号CPi(1≦i≦n)、CQi(1≦i≦n)、およびCRi(1≦i≦n)で示されている。造影CT画像CPi、CQi、およびCRiは、マルチフェーズの造影撮影により得られた画像である。造影CT画像CPiは第1の時相の造影CT画像であり、造影CT画像CQiは第2の時相の造影CT画像であり、造影CT画像CRiは第3の時相の造影CT画像である。第1の時相、第2の時相、および第3の時相は、例えば、動脈相、実質相、および静脈相である。肝臓に腫瘍がある場合、造影撮影を行うと、腫瘍の種類によって腫瘍の染まり具合が時間とともに変化する。したがって、マルチフェーズのCT画像は、腫瘍を鑑別するのに有益な画像となる。 In FIG. 5, the non-contrast CT images are denoted by CNi (1≤i≤n). Contrast-enhanced CT images are denoted by CPi (1≤i≤n), CQi (1≤i≤n), and CRi (1≤i≤n). The contrast-enhanced CT images CPi, CQi, and CRi are images obtained by multiphase contrast-enhanced imaging. The contrast-enhanced CT image CPi is a contrast-enhanced CT image of a first phase, the contrast-enhanced CT image CQi is a contrast-enhanced CT image of a second time phase, and the contrast-enhanced CT image CRi is a contrast-enhanced CT image of a third time phase. . The first phase, the second phase, and the third phase are, for example, an arterial phase, a parenchymal phase, and a venous phase. If there is a tumor in the liver, contrast-enhanced imaging shows that the degree of staining of the tumor changes over time depending on the type of tumor. Therefore, multiphase CT images are useful images for differentiating tumors.
図6は、図5に示す非造影CT画像CNi並びに造影CT画像CPi、CQi、およびCRiの一例を概略的に示した図である。
図6では、i=1の画像、すなわち、非造影CT画像CN1、造影CT画像CP1、CQ1、およびCR1が示されている。
FIG. 6 is a diagram schematically showing an example of the non-contrast CT image CNi and the contrast CT images CPi, CQi, and CRi shown in FIG.
FIG. 6 shows images with i=1, ie, non-contrast CT image CN1, contrast CT images CP1, CQ1, and CR1.
図6では、説明の便宜上、各画像CN1、CP1、CQ1、およびCR1には、体内の肝臓、腫瘍、および胃の中の食べ物のみが簡略化されて示されている。 In FIG. 6, for convenience of explanation, each image CN1, CP1, CQ1, and CR1 shows only the liver, tumor, and food in the stomach in a simplified manner.
非造影CT画像CN1では、腫瘍に造影剤が取り込まれていないので、腫瘍は暗く描出される(画素値が小さい)。一方、造影CT画像CP1、CQ1、およびCR1では、腫瘍に造影剤が取り込まれているので、腫瘍は明るく描出される。一方、説明を簡略化するため、肝臓のうち腫瘍を除く領域は、画像CN1、CP1、CQ1、およびCR1の間で、同じ明るさで描出されているとする。図6では、肝臓のうち腫瘍を除く領域は、斜線で示してある。 In the non-contrast-enhanced CT image CN1, the tumor is rendered dark (pixel value is small) because the tumor does not contain the contrast agent. On the other hand, in the contrast-enhanced CT images CP1, CQ1, and CR1, the tumor is depicted brightly because the contrast agent is incorporated into the tumor. On the other hand, in order to simplify the explanation, it is assumed that the regions of the liver excluding the tumor are depicted with the same brightness among the images CN1, CP1, CQ1, and CR1. In FIG. 6, the area of the liver excluding the tumor is shaded.
胃の中の食べ物は、周囲の組織よりも明るく描出される。図6では、説明を簡略化するため、食べ物は、画像CN1、CP1、CQ1、およびCR1の間で、同じ明るさで描出されているとする。 Food in the stomach appears brighter than the surrounding tissue. In FIG. 6, in order to simplify the explanation, it is assumed that the food is rendered with the same brightness among the images CN1, CP1, CQ1, and CR1.
尚、図6では、学習フェーズで使用される画像として、食べ物が描出された画像が示されている。しかし、食べ物以外で腫瘍と混同する恐れがあるもの(例えば、石灰化した部分)が描出された画像も、学習フェーズで使用される画像として用意することができる。また、学習フェーズで使用される画像は、人間の体動(例えば、呼吸による体動、心臓による体動)に起因した位置ずれが補正されていない画像でもよいし、体動に起因した位置ずれが補正された画像でもよい。 In addition, in FIG. 6, an image depicting food is shown as an image used in the learning phase. However, images depicting objects other than food that may be confused with tumors (for example, calcified parts) can also be prepared as images to be used in the learning phase. In addition, the images used in the learning phase may be images in which positional displacement caused by human body motion (for example, body motion due to breathing, body motion due to heart) have not been corrected, or images in which positional deviation due to body motion has not been corrected. may be an image in which the is corrected.
図5に戻って説明を続ける。
また、複数の正解データも用意する。正解データは符号GPi(1≦i≦n)、符号GQi(1≦i≦n)、および符号GRi(1≦i≦n)で示されている。以下に、正解データの生成方法について説明する。
Returning to FIG. 5, the description continues.
In addition, a plurality of correct data are also prepared. Correct data are denoted by GPi (1≤i≤n), GQi (1≤i≤n), and GRi (1≤i≤n). A method for generating correct data will be described below.
図7は、正解データの作成方法の一例の説明図である。
図7の上段には、図6に示したi=1の画像、すなわち非造影CT画像CN1、並びに第1の時相の造影CT画像CP1、第2の時相の造影CT画像CQ1、および第3の時相の造影CT画像CR1が再掲されている。
FIG. 7 is an explanatory diagram of an example of a method for creating correct answer data.
7, the image of i=1 shown in FIG. 6, that is, the non-contrast CT image CN1, the first phase contrast CT image CP1, the second phase contrast CT image CQ1, and the 3 phase contrast-enhanced CT image CR1 is reproduced.
図7では、非造影CT画像CN1、第1の時相の造影CT画像CP1、第2の時相の造影CT画像CQ1、および第3の時相の造影CT画像CR1から、正解データとして、差分画像GP1、GQ1、およびGR1を生成する例が示されている。 In FIG. 7, from the non-contrast CT image CN1, the first phase contrast CT image CP1, the second phase contrast CT image CQ1, and the third phase contrast CT image CR1, the difference An example is shown for generating images GP1, GQ1 and GR1.
差分画像GP1は、非造影CT画像CN1と第1の時相の造影CT画像CP1との差分画像であり、差分画像GQ1は、非造影CT画像CN1と第2の時相の造影CT画像CQ1との差分画像であり、差分画像GR1は、非造影CT画像CN1と第3の時相の造影CT画像CR1との差分画像である。 A difference image GP1 is a difference image between the non-contrast CT image CN1 and the first phase contrast CT image CP1, and a difference image GQ1 is a difference image between the non-contrast CT image CN1 and the second phase contrast CT image CQ1. The difference image GR1 is a difference image between the non-contrast CT image CN1 and the contrast CT image CR1 of the third time phase.
先ず、差分画像GP1について説明する。
腫瘍について着目すると、非造影CT画像CN1の腫瘍は、第1の時相の造影CT画像CP1の腫瘍よりも暗く描出されている。したがって、非造影CT画像CN1と第1の時相の造影CT画像CP1とを比較すると、腫瘍の明るさに大きな差がある。一方、食べ物について着目すると、非造影CT画像CN1の食べ物は、第1の時相の造影CT画像CP1の食べ物と比較して、明るさにあまり大きな差が見られない。したがって、非造影CT画像CN1と、第1の時相の造影CT画像CP1とを差分すると、腫瘍の領域(造影剤が取り込まれた領域)の差分値は比較的大きい値になるが、食べ物の領域(造影剤が取り込まれていない領域)の差分値は比較的小さい値になる。このため、非造影CT画像CN1と、第1の時相の造影CT画像CP1とを差分することにより、食べ物と腫瘍との違いが強調された差分画像GP1を得ることができる。尚、
また、他の2つの差分画像GQ1およびGR1についても、差分画像GP1と同様に説明することができる。したがって、非造影CT画像CN1と、第2の時相の造影CT画像CQ1とを差分することにより、食べ物と腫瘍との違いが強調された差分画像GQ1を得ることができる。同様に、非造影CT画像CN1と、第3の時相の造影CT画像CR1とを差分することにより、食べ物と腫瘍との違いが強調された差分画像GR1を得ることができる。
First, the difference image GP1 will be explained.
Focusing on the tumor, the tumor in the non-contrast CT image CN1 is rendered darker than the tumor in the first phase contrast CT image CP1. Therefore, when the non-contrast CT image CN1 and the first phase contrast CT image CP1 are compared, there is a large difference in the brightness of the tumor. On the other hand, focusing on food, the food in the non-contrast CT image CN1 does not show a large difference in brightness compared to the food in the contrast CT image CP1 of the first time phase. Therefore, when the difference between the non-contrast CT image CN1 and the contrast CT image CP1 of the first time phase is obtained, the difference value of the tumor region (the region into which the contrast agent is taken) becomes a relatively large value. The difference value of the area (the area where the contrast agent is not taken) is a relatively small value. Therefore, by subtracting the non-contrast-enhanced CT image CN1 and the contrast-enhanced CT image CP1 in the first phase, it is possible to obtain a differential image GP1 in which the difference between the food and the tumor is emphasized. still,
Also, the other two difference images GQ1 and GR1 can be explained in the same manner as the difference image GP1. Therefore, by subtracting the non-contrast-enhanced CT image CN1 and the contrast-enhanced CT image CQ1 in the second time phase, a differential image GQ1 in which the difference between the food and the tumor is emphasized can be obtained. Similarly, by subtracting the non-contrast-enhanced CT image CN1 and the contrast-enhanced CT image CR1 in the third time phase, it is possible to obtain a subtraction image GR1 in which the difference between the food and the tumor is emphasized.
上記のように、差分画像GP1、GQ1、およびGR1は、食べ物と腫瘍との違いが強調された画像であるので、これらの差分画像GP1、GQ1、およびGR1を、腫瘍と食べ物とを区別するための正解データとして使用することができる。 As described above, the difference images GP1, GQ1, and GR1 are images in which the difference between food and tumor is emphasized. can be used as correct data for
図7では、i=1の画像CN1、CP1、CQ1、およびCR1のセットから差分画像GP1、GQ1、およびGR1を生成する例について説明したが、i≧2の画像についても、同様にして、差分画像を生成する。 In FIG. 7, an example of generating difference images GP1, GQ1, and GR1 from a set of images CN1, CP1, CQ1, and CR1 with i=1 has been described. Generate an image.
上記のようにして、図5に示す正解データ、すなわち、差分画像GP1~GPn、差分画像GQ1~GQn、および差分画像GR1~GRnを用意することができる。尚、差分画像GP1~GPn、差分画像GQ1~GQn、および差分画像GR1~GRnに対して所定の画像処理を実行し、所定の画像処理が実行された後の差分画像GP1’~GPn’、差分画像GQ1’~GQn’、および差分画像GR1’~GRn’を、正解データとして用意してもよい。ここでは、説明を簡略にするため、差分画像GP1~GPn、差分画像GQ1~GQn、および差分画像GR1~GRnが、正解データとして用意されたとする。 As described above, the correct data shown in FIG. 5, that is, the difference images GP1 to GPn, the difference images GQ1 to GQn, and the difference images GR1 to GRn can be prepared. Predetermined image processing is performed on the difference images GP1 to GPn, the difference images GQ1 to GQn, and the difference images GR1 to GRn. Images GQ1' to GQn' and differential images GR1' to GRn' may be prepared as correct data. Here, to simplify the explanation, it is assumed that difference images GP1 to GPn, difference images GQ1 to GQn, and difference images GR1 to GRn are prepared as correct data.
各差分画像(正解データ)は、非造影CT画像と造影CT画像とのセットにラベリングされている。具体的には、差分画像GPiは、非造影CT画像CNiと第1の時相の造影CT画像CPiとにラベリングされており、差分画像GQiは、非造影CT画像CNiと第2の時相の造影CT画像CQiとにラベリングされており、差分画像GRiは、非造影CT画像CNiと第3の時相の造影CT画像CRiとにラベリングされている。
これらのCT画像および差分画像を用意したら、ステップST2に進む。
Each differential image (correct data) is labeled as a set of non-contrast CT images and contrast-enhanced CT images. Specifically, the differential image GPi is labeled with the non-contrast CT image CNi and the contrast-enhanced CT image CPi of the first phase, and the differential image GQi is labeled with the non-contrast CT image CNi and the second phase CT image CNi. The contrast-enhanced CT image CQi is labeled, and the difference image GRi is labeled with the non-contrast-enhanced CT image CNi and the third phase contrast-enhanced CT image CRi.
After preparing these CT images and differential images, the process proceeds to step ST2.
図8はステップST2の説明図である。
ステップST2では、ニューラルネットワーク(NN)91が、非造影CT画像CNi、造影CT画像CPi、CQi、CRi、および差分画像(正解データ)GPi、GQi、およびGRiを用いた学習を実行する。これによって、学習済みモデル91aを生成することができる。
このようにして生成された学習済みモデル91aは、CT装置の記憶部83に記憶される。
FIG. 8 is an explanatory diagram of step ST2.
In step ST2, the neural network (NN) 91 performs learning using the non-contrast CT image CNi, the contrast CT images CPi, CQi, CRi, and the differential images (correct data) GPi, GQi, and GRi. This allows the trained
The trained
上記の学習フェーズにより得られた学習済みモデル91aは、患者の造影検査において、造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を行うときに使用される。以下に、患者の造影検査フローについて説明する。
The learned
図9は、造影検査フローを示す図である。
ステップST10では、オペレータが撮影対象者である患者40をスキャンルームへと案内し、図1に示すように、患者40をテーブル4に寝かせる。そして、患者40の胸部の非造影スキャンを実行し、さらに、患者に造影剤を投与し、マルチフェーズの造影スキャンを実行する。
FIG. 9 is a diagram showing an imaging examination flow.
In step ST10, the operator guides the
ステップST20では、再構成部841が、ステップST10のスキャンにより得られた投影データに基づいて、CT画像を再構成する。図10は、再構成画像の一例を示す図である。
In step ST20, the
再構成部841(図3参照)は、非造影スキャンにより得られた投影データに基づいて、患者40の胸部を含む非造影CT画像CN0を再構成する。また、再構成部841は、マルチフェーズの造影スキャンにより得られた投影データに基づいて、患者40の胸部を含むマルチフェーズの造影CT画像CP0、CQ0、およびCR0を再構成する。
The reconstruction unit 841 (see FIG. 3) reconstructs a non-contrast CT image CN0 including the chest of the patient 40 based on the projection data obtained by the non-contrast scanning. The
本形態では、マルチフェーズの造影スキャンは、3つの時相(第1の時相、第2の時相、第3の時相)のCT画像を取得するためのスキャンであり、造影CT画像CP0、CQ0、およびCR0は、それぞれ、第1の時相、第2の時相、および第3の時相の造影CT画像を表している。 In this embodiment, the multiphase contrast scan is a scan for acquiring CT images in three time phases (first time phase, second time phase, and third time phase). , CQ0, and CR0 represent contrast-enhanced CT images of the first, second, and third phases, respectively.
図10では、説明の便宜上、図6と同様に、画像CN0、CP0、CQ0、およびCR0には、体内の肝臓、腫瘍、および胃の中の食べ物のみが簡略化されて示されている。
画像を再構成した後、ステップST30に進む。
In FIG. 10, for convenience of explanation, images CN0, CP0, CQ0, and CR0 simply show only the liver, tumor, and food in the stomach in the same manner as in FIG.
After reconstructing the image, the process proceeds to step ST30.
ステップST30では、推論部842が、患者40の胸部において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する。図11は、推論フェーズの説明図である。
In step ST30, the
推論部842は、ステップST20で再構成された非造影CT画像CN0、および造影CT画像CP0、CQ0、およびCR0を学習済みモデル91aに入力する。学習済みモデル91aは、入力されたこれらの画像CN0、CP0、CQ0、およびCR0に基づいて、患者40の胸部において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を行い、判別結果を表す差分画像GP0、GQ0、GR0を出力する。
The
図11を参照すると、学習済みモデル91aに入力される造影CT画像CP0、CQ0、およびCR0は、造影剤を取り込んでいる腫瘍だけでなく、造影剤を取り込んでいない胃の中の食べ物も明るく描出されている。しかし、学習済みモデル91aが出力した結果では、胃の中の食べ物は暗く描出されており、腫瘍と食べ物とを識別できていることが分かる。これらの差分画像GP0、GQ0、GR0には、造影剤が取り込まれた領域の位置を表す位置データと、造影剤が取り込まれていない領域の位置を表す位置データとが含まれている。したがって、患者40の胸部において、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別することができる。
このようにして、図9に示すフローが終了する。
Referring to FIG. 11, the contrast-enhanced CT images CP0, CQ0, and CR0 input to the trained
Thus, the flow shown in FIG. 9 ends.
本形態では、造影剤が取り込まれた領域(例えば、腫瘍)と、造影剤が取り込まれていない領域(例えば、胃の中の食べ物)とを判別するための学習済みモデル91aが生成されている。したがって、検査で得られた患者のCT画像の中に、胃の中の食べ物など、造影剤が取り込まれていないにも関わらず明るく描出されてしまう領域が現れた場合であっても、学習済みモデル91aを使用することにより、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別することができる。したがって、腫瘍の良性、悪性の鑑別精度を向上させることができる。
In this embodiment, a trained
尚、第1の形態では、マルチフェーズの造影CT画像として、3つの時相を考えている。しかし、3つの時相の代わりに、2つの時相であってもよいし、4つ以上の時相であってもよい。また、マルチフェーズの造影CT画像の代わりに、単時相の造影CT画像とすることもできる。 In the first mode, three time phases are considered as a multiphase contrast-enhanced CT image. However, instead of three phases, there may be two phases, or four or more phases. Also, instead of the multi-phase contrast-enhanced CT image, a single-phase contrast-enhanced CT image may be used.
尚、学習済みモデル91aに入力されるCT画像CN0、CP0、CQ0、およびCR0(図11参照)は、腫瘍だけでなく食べ物も明るく描出されているので、CT画像CN0、CP0、CQ0、およびCR0を見ただけでは、食べ物と腫瘍とを判別することは難しい。そこで、診断に適した画像を得るために、ステップST30で推論結果を出力した後、以下のステップAおよびステップBを実行することができる。
In the CT images CN0, CP0, CQ0, and CR0 (see FIG. 11) input to the trained
ステップA:ステップST30の推論結果に基づいて、造影剤が取り込まれていない領域の位置を特定するステップ。このステップAは、処理部84に、この特定を実行する特定部を設けることにより実行することができる。
Step A: A step of identifying the position of the area where the contrast medium is not taken in based on the inference result of step ST30. This step A can be executed by providing the
ステップB:ステップAで特定した位置と、ステップST10のスキャンにより得られた投影データとに基づいて、造影剤が取り込まれていない領域は暗くなるように画像を再構成するステップ。このステップBは、処理部84の再構成部841(図3参照)で実行することができる。
Step B: A step of reconstructing an image based on the positions identified in step A and the projection data obtained by scanning in step ST10 so that areas where the contrast medium is not incorporated are dark. This step B can be executed by the reconstruction unit 841 (see FIG. 3) of the
上記のステップAおよびBを実行することにより、オペレータや読影医に、腫瘍の良性、悪性の鑑別に適したCT画像を提供することができる。 By executing steps A and B above, it is possible to provide the operator and radiologist with a CT image suitable for distinguishing between benign and malignant tumors.
(第2の形態)
第2の形態では、第1の形態で作成した学習済みモデルの出力結果を、デュアルエネルギー情報の信頼性向上に利用する例について説明する。
(Second form)
In the second embodiment, an example will be described in which the output result of the learned model created in the first embodiment is used to improve the reliability of dual energy information.
第2の形態では、処理部84は、以下の機能ブロックを有している。
図12は、第2の形態における処理部84の機能ブロックを示す図である。
第2の形態の処理部84は、主な機能ブロックとして、再構成部841、推論部842、および判定部843を有している。
In the second form, the
FIG. 12 is a diagram showing functional blocks of the
The
再構成部841は、スキャンにより得られた投影データに基づいて、CT画像(例えば、スカウト画像、非造影CT画像、および造影CT画像)を再構成する。
The
推論部842は、第1の形態の学習済みモデル91aにCT画像を入力し、患者40の撮影部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する。また、推論部842は、後述する学習済みDNN92a(図14参照)にCT画像を入力し、デュアルエネルギー情報を推論する。
The
判定部843は、第1の形態の学習済みモデル91aの推論結果に基づいて、学習済みDNN92aの推論結果が正しいか否かを判定する。
The
また、記憶部83には、1つ以上のプロセッサによる実行が可能な1つ以上の命令が格納されている。この一つ以上の命令は、1つ以上のプロセッサに、以下の動作(b1)-(b4)を実行させる。
The
(b1)投影データに基づいてCT画像を再構成する(再構成部841)。
(b2)学習済みモデル91aにCT画像を入力し、患者40の撮影部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する(推論部842)。
(b3)学習済みDNN92aにCT画像を入力し、デュアルエネルギー情報を推論する(推論部842)。
(b4)学習済みモデル91aの推論結果に基づいて、学習済みDNN92a(図14参照)の推論結果が正しいか否かを判定する(判定部843)。
(b1) Reconstruct a CT image based on the projection data (reconstruction unit 841).
(b2) Input a CT image to the trained
(b3) Input a CT image to the learned
(b4) Based on the inference result of the trained
以下、第2の形態の造影検査フローについて、図13および図14を参照しながら説明する。 The contrast examination flow of the second mode will be described below with reference to FIGS. 13 and 14. FIG.
図13は、第2の形態における造影検査フローを示す図である。
ステップST10およびST20は、第1の形態と同じであるので説明は省略する。画像再構成した後、ステップST30に進む。
FIG. 13 is a diagram showing a contrast examination flow in the second embodiment.
Steps ST10 and ST20 are the same as those in the first mode, so description thereof will be omitted. After image reconstruction, the process proceeds to step ST30.
図14は、ステップST30の説明図である。
ステップST30では、推論部842が、ステップST20で得られた非造影CT画像CN0並びに造影CT画像CP0、CQ0、およびCR0を学習済みモデル91aに入力する。学習済みモデル91aは、第1の形態で説明したように、差分画像GP0、GQ0、およびGR0を出力する。
FIG. 14 is an explanatory diagram of step ST30.
In step ST30, the
また、ステップST30では、推論部842は、ステップST20で得られたCT画像CN0、CP0、CQ0、およびCR0を学習済みDNN92aにも入力する。学習済みDNN92aは、ニューラルネットワークがデュアルエネルギーデータを学習することにより生成された学習済みモデルであり、学習済みDNN92aは、シングルエネルギーデータが入力されると、造影剤が取り込まれた領域の位置情報を含むデュアルエネルギー情報DIを推論するものである。
In step ST30, the
CT画像CN0、CP0、CQ0、およびCR0は、シングルエネルギーCTで得られた画像であるので、これらのCT画像CN0、CP0、CQ0、およびCR0が学習済みDNN92aに入力されると、学習済みDNN92aは、造影剤が取り込まれた領域の位置情報を含むデュアルエネルギー情報DIを出力する。
Since CT images CN0, CP0, CQ0, and CR0 are images obtained by single-energy CT, when these CT images CN0, CP0, CQ0, and CR0 are input to trained
ステップST40では、判定部843が、学習済みモデル91aにより推論された結果(差分画像GP0、GQ0、およびGR0)と、学習済みDNN92aにより推論された結果(デュアルエネルギー情報DI)とを比較する。判定部843は、この比較結果に基づいて、学習済みDNN92aにより造影剤が取り込まれたと推論された領域が、実際に造影剤が取り込まれた領域なのか、それとも、実際には造影剤が取り込まれていないのに造影剤が取り込まれたと誤って推論された領域なのかを判定する。
このようにしてフローが終了する。
In step ST40, the
Thus the flow ends.
第2の形態では、学習済みモデル91aの推定結果と、学習済みDNN92aの推定結果とを比較し、学習済みDNN92aによって造影剤が取り込まれたと推論された領域が、実際に造影剤が取り込まれた領域であるのか否かを判定することができる。したがって、学習済みモデル91aの推論結果を、学習済みDNN92aの推論精度を向上させるために使用することができる。
In the second form, the estimation result of the learned
第1および第2の形態では、肝臓を撮影部位としているが、撮影部位は必ずしも肝臓に限定されることは無く、肝臓以外の臓器を含む部位を撮影部位としてもよい。 In the first and second embodiments, the liver is the imaged region, but the imaged region is not necessarily limited to the liver, and a region including organs other than the liver may be the imaged region.
尚、第1および第2の形態では、非造影CT画像と造影CT画像とを用いて学習済みモデルを生成する例について説明した。しかし、非造影CT画像を使用せずに、マルチフェーズの造影CT画像のみを用いて学習済みモデルを生成してもよい。この学習済みモデルは、例えば、以下のステップ(1)-(4)を実行することにより生成することができる。 In addition, in the first and second embodiments, an example of generating a trained model using non-contrast CT images and contrast-enhanced CT images has been described. However, a trained model may be generated using only multi-phase contrast-enhanced CT images without using non-contrast-enhanced CT images. This trained model can be generated, for example, by executing the following steps (1)-(4).
(1)人間の所定の部位を複数の時相で造影撮影することにより、複数の造影CT画像を用意する。 (1) A plurality of contrast-enhanced CT images are prepared by contrast-enhanced imaging of a predetermined part of a human being at a plurality of time phases.
(2)複数の正解データを用意する。各正解データは、複数の時相のうちの一つの時相で撮影された造影CT画像と、複数の時相のうちの他の時相で撮影された造影CT画像とを差分することにより生成される。 (2) Prepare a plurality of correct data. Each correct data is generated by subtracting a contrast-enhanced CT image captured in one of a plurality of time phases and a contrast-enhanced CT image captured in another time phase of the plurality of time phases. be done.
(3)正解データを造影CT画像にラベリングする。 (3) Labeling the correct answer data on the contrast-enhanced CT image.
(4)コンピュータが、ニューラルネットワークに、複数の造影CT画像と複数の正解データとを用いた学習を実行させる
このようにして、学習済みモデルを生成する。この学習済みモデルは、造影CT画像が入力されることにより、患者の撮影部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する。
(4) The computer causes the neural network to perform learning using a plurality of contrast-enhanced CT images and a plurality of correct data. Thus, a trained model is generated. This trained model executes inference for discriminating regions in which the contrast agent is taken in and regions in which the contrast agent is not taken in the imaging region of the patient by inputting the contrast-enhanced CT image.
推論フェーズでは、複数の時相で撮影された患者の造影CT画像を、上記の学習済みモデルに入力し、造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する。この方法では、非造影CT画像を使わずに、腫瘍の鑑別をすることが可能となる。 In the inference phase, the patient's contrast-enhanced CT images taken at multiple time phases are input to the above-described trained model, and a method for discriminating between areas in which the contrast agent is incorporated and areas in which the contrast agent is not incorporated is performed. perform inference. This method makes it possible to differentiate tumors without using non-enhanced CT images.
尚、第1および第2の形態では、DL(深層学習)により学習済みモデルを作成したが、DL以外の他の機械学習により学習済みモデルを生成してもよい。 In addition, in the first and second forms, the learned model is created by DL (deep learning), but the learned model may be created by machine learning other than DL.
1 CT装置
4 テーブル
6 カメラ
8 操作コンソール
21 ボア
22 X線管
23 アパーチャ
24 コリメータ
25 X線検出器
26 データ収集部
27 回転部
28 高電圧電源
29 アパーチャ駆動装置
30 回転部駆動装置
31 GT制御部
40 患者
41 クレードル
42 クレードル支持台
43 駆動装置
81 入力部
82 表示部
83 記憶部
84 処理部
85 コンソール制御部
90 記憶媒体
91 ニューラルネットワーク
91a 学習済みモデル
92a 学習済みDNN
100 スキャンルーム
101 天井
200 操作ルーム
841 再構成部
842 推論部
843 判定部
1
100
Claims (8)
コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、
を用いた学習を実行することにより前記学習済みモデルを生成する、学習済みモデル生成方法。 By inputting a non-contrast-enhanced CT image including a predetermined part of an imaging subject and a contrast-enhanced CT image including a predetermined part of the imaging subject, a contrast agent is taken in the predetermined part of the imaging subject. A trained model generation method for generating a trained model that performs inference to discriminate between regions and non-contrast loaded regions, comprising:
the computer
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with
A trained model generation method, wherein the trained model is generated by performing learning using
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、
を用いた学習を実行することにより生成されている、推論装置。 By inputting a non-contrast-enhanced CT image including a predetermined part of an imaging subject and a contrast-enhanced CT image including a predetermined part of the imaging subject, a contrast agent is taken in the predetermined part of the imaging subject. An inference device that includes a trained model that performs inference to discriminate between regions and non-contrast uptake regions,
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with
A reasoning device generated by executing learning using
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、
を用いた学習を実行することにより生成されている、医用装置。 By inputting a non-contrast-enhanced CT image including a predetermined part of an imaging subject and a contrast-enhanced CT image including a predetermined part of the imaging subject, a contrast agent is taken in the predetermined part of the imaging subject. A medical device that includes a trained model that performs inference to discriminate between regions and non-contrast uptake regions,
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with
A medical device that has been generated by performing learning using
前記学習済みモデルの推論結果に基づいて、前記学習済みDNNの推論結果が正しいか否かを判定する判定部と
を含む、請求項1から5のうちのいずれか一項に記載の医用装置。 A learned DNN generated by performing learning using dual-energy CT data, wherein the DNN infers dual-energy information from single-energy CT data;
The medical apparatus according to any one of claims 1 to 5, further comprising a determination unit that determines whether the inference result of the learned DNN is correct based on the inference result of the learned model.
撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像を学習済みモデルに入力し、前記学習済みモデルに、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行させること
を含む動作を実行させるプログラムであって、
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、
を用いた学習を実行することにより生成されている、プログラム。 to one or more processors,
A non-contrast-enhanced CT image including a predetermined part of an imaging subject and a contrast-enhanced CT image including a predetermined part of the imaging subject are input to a trained model, and the predetermined part of the imaging subject is input to the learned model. A program for executing an operation including executing inference for distinguishing between a region in which a contrast agent is taken and a region in which a contrast agent is not taken in,
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with
A program generated by performing learning using
コンピュータが、
(1)人間の所定の部位を前記複数の時相で造影撮影することにより得られた複数の造影CT画像、および
(2)前記複数の造影CT画像にラベリングされた複数の正解データであって、各正解データが、前記複数の時相のうちの一つの時相で撮影された造影CT画像と、前記複数の時相のうちの他の時相で撮影された造影CT画像とを差分することにより生成された差分画像に基づいて生成されたものである、複数の正解データ、
を用いた学習を実行することにより生成される、学習済みモデル生成方法。
A region in which a contrast agent is incorporated in the predetermined part of the subject by inputting a plurality of contrast-enhanced CT images obtained by contrast-enhanced imaging of the predetermined part of the subject in a plurality of time phases. A trained model generation method for generating a trained model that performs inference for discriminating between a region and a region where no contrast agent is captured,
the computer
(1) a plurality of contrast-enhanced CT images obtained by contrast-enhanced imaging of a predetermined part of a human at the plurality of time phases; and (2) a plurality of correct data labeled on the plurality of contrast-enhanced CT images, , each correct data is a difference between a contrast-enhanced CT image captured in one of the plurality of time phases and a contrast-enhanced CT image captured in another time phase of the plurality of time phases. A plurality of correct data generated based on the difference image generated by
A trained model generation method that is generated by performing learning using
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021075364A JP7167239B1 (en) | 2021-04-27 | 2021-04-27 | Trained model generation method, reasoning device, medical device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021075364A JP7167239B1 (en) | 2021-04-27 | 2021-04-27 | Trained model generation method, reasoning device, medical device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7167239B1 JP7167239B1 (en) | 2022-11-08 |
JP2022172417A true JP2022172417A (en) | 2022-11-16 |
Family
ID=83944959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021075364A Active JP7167239B1 (en) | 2021-04-27 | 2021-04-27 | Trained model generation method, reasoning device, medical device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7167239B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013017781A (en) * | 2011-07-14 | 2013-01-31 | Aze Ltd | Medical image extraction apparatus and medical image extraction program |
JP2015100699A (en) * | 2013-11-20 | 2015-06-04 | 株式会社東芝 | Medical image processor and medical image processing method |
JP2017159180A (en) * | 2017-06-27 | 2017-09-14 | 東芝メディカルシステムズ株式会社 | X-ray ct apparatus and image display method |
US20200294288A1 (en) * | 2019-03-13 | 2020-09-17 | The Uab Research Foundation | Systems and methods of computed tomography image reconstruction |
CN112529897A (en) * | 2020-12-24 | 2021-03-19 | 上海商汤智能科技有限公司 | Image detection method and device, computer equipment and storage medium |
-
2021
- 2021-04-27 JP JP2021075364A patent/JP7167239B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013017781A (en) * | 2011-07-14 | 2013-01-31 | Aze Ltd | Medical image extraction apparatus and medical image extraction program |
JP2015100699A (en) * | 2013-11-20 | 2015-06-04 | 株式会社東芝 | Medical image processor and medical image processing method |
JP2017159180A (en) * | 2017-06-27 | 2017-09-14 | 東芝メディカルシステムズ株式会社 | X-ray ct apparatus and image display method |
US20200294288A1 (en) * | 2019-03-13 | 2020-09-17 | The Uab Research Foundation | Systems and methods of computed tomography image reconstruction |
CN112529897A (en) * | 2020-12-24 | 2021-03-19 | 上海商汤智能科技有限公司 | Image detection method and device, computer equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP7167239B1 (en) | 2022-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2469404C2 (en) | Image reconstruction method and apparatus | |
JP5491914B2 (en) | Image display apparatus and X-ray diagnostic apparatus | |
JP2010201157A (en) | Radiodiagnostic apparatus, x-ray computer tomographic apparatus, and image processing method | |
US20080317195A1 (en) | Medical-diagnosis assisting apparatus, medical-diagnosis assisting method, and radiodiagnosis apparatus | |
EP3143936B1 (en) | Iterative x-ray imaging optimization method | |
JP5156863B2 (en) | X-ray CT system | |
WO2012099222A1 (en) | X-ray diagnostic apparatus, image processing apparatus and image processing program | |
JP2016146904A (en) | Radiation diagnostic device | |
JP5390449B2 (en) | Medical image processing apparatus and method, and program | |
JP2010154982A (en) | X-ray computer tomographic imaging apparatus and image processor | |
JP2008537892A (en) | Cardiopulmonary screening using feedback from analysis to acquisition | |
JP6479919B2 (en) | Reconstruction of flow data | |
JP7167239B1 (en) | Trained model generation method, reasoning device, medical device, and program | |
Bluemke et al. | Cardiac imaging 2040 | |
Fleischmann et al. | Peripheral CT angiography for interventional treatment planning | |
JP2006223333A (en) | Image diagnostic apparatus | |
US20150164450A1 (en) | System and Method for Real Time 4D Quantification | |
JP2012176283A (en) | Medical image processor | |
JP6873831B2 (en) | Medical image diagnostic equipment, medical image processing equipment and medical image processing program | |
JP5591555B2 (en) | X-ray diagnostic apparatus, image processing apparatus, and X-ray diagnostic system | |
JP5727653B2 (en) | Radiation diagnostic apparatus and X-ray computed tomography apparatus | |
US20230230243A1 (en) | Methods, devices, and systems for dynamic fluoroscopy of c-shaped arm devices | |
JP2020096757A (en) | Medical image processing device, medical image diagnostic device and image processing program | |
US20230165554A1 (en) | Medical image processing apparatus, x-ray diagnosis apparatus, and non-volatile computer-readable storage medium storing therein medical image processing program | |
JP7322262B1 (en) | Apparatus for inferring virtual monochromatic X-ray image, CT system, method for creating trained neural network, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210514 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210526 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7167239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |