JP2022172417A - Generation method of learned model, deduction apparatus, medical apparatus and program - Google Patents

Generation method of learned model, deduction apparatus, medical apparatus and program Download PDF

Info

Publication number
JP2022172417A
JP2022172417A JP2021075364A JP2021075364A JP2022172417A JP 2022172417 A JP2022172417 A JP 2022172417A JP 2021075364 A JP2021075364 A JP 2021075364A JP 2021075364 A JP2021075364 A JP 2021075364A JP 2022172417 A JP2022172417 A JP 2022172417A
Authority
JP
Japan
Prior art keywords
contrast
enhanced
images
image
predetermined part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021075364A
Other languages
Japanese (ja)
Other versions
JP7167239B1 (en
Inventor
靖浩 今井
Yasuhiro Imai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Precision Healthcare LLC
Original Assignee
GE Precision Healthcare LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Precision Healthcare LLC filed Critical GE Precision Healthcare LLC
Priority to JP2021075364A priority Critical patent/JP7167239B1/en
Application granted granted Critical
Publication of JP7167239B1 publication Critical patent/JP7167239B1/en
Publication of JP2022172417A publication Critical patent/JP2022172417A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technique for highly accurately distinguishing between an area where a contrast agent is taken and an area where the contrast agent is not taken when contrast imaging is executed.SOLUTION: There is provided a learned model generation method for generating a learned model 91a which executes deduction for distinguishing between an area where a contrast agent is taken and an area where the contrast agent is not taken in the chest of an imaging object person by receiving input of a non-contrast CT image including the chest of the imaging object person and a contrast CT image including the chest of the imaging object person. A computer generates a learned model 91a by causing a neural network 91 to execute learning using a plurality of non-contrast CT images CN1 to CNn including the chest of a person, contrast CT images CP1 to CPn in a first time phase including the chest of the person, contrast CT images CQ1 to CQn in a second time phase, contrast CT images CQ1 to CQn in a third time phase, and a plurality of pieces of correct answer data GP1 to GPn, GQ1 to GQn and GR1 to GRn.SELECTED DRAWING: Figure 8

Description

本発明は、学習済みモデルの生成方法、学習済みモデルを用いて推論を行う推論装置、当該推論装置を有する医用装置、および学習済みモデルを用いて推論を行うためのプログラムに関する。 The present invention relates to a method of generating a trained model, an inference device that performs inference using the trained model, a medical device having the inference device, and a program for performing inference using the trained model.

被検体の体内の画像を非侵襲的に撮影する医用装置として、X線CT装置が知られている。X線CT装置は、撮影部位を短時間で撮影することができるので、病院等の医療施設に普及している。 2. Description of the Related Art An X-ray CT apparatus is known as a medical apparatus that noninvasively captures images of the inside of a subject's body. The X-ray CT apparatus is widely used in medical facilities such as hospitals because it can image a region to be imaged in a short period of time.

X線CT装置を用いて被検体を撮影する場合、様々なスキャン条件で被検体をスキャンすることにより、臨床目的に応じた様々なCT画像を取得することができる。読影医などの医師は、取得されたCT画像の読影を行い、読影の結果に基づいて、診断を行うことができる。 When imaging a subject using an X-ray CT apparatus, various CT images can be acquired according to clinical purposes by scanning the subject under various scanning conditions. A doctor such as a radiologist can interpret the acquired CT image and make a diagnosis based on the result of the interpretation.

特開2016-87469号公報JP 2016-87469 A

CT装置を使用した撮影方法として、シングルエネルギーCTが知られている。シングルエネルギーCTは、1つの管電圧(通常120kVp)で撮影を行いCT値の情報を得る方法であるが、この方法は、X線高吸収物質(骨や金属、造影剤)に起因するアーチファクト(ビームハードニングアーチファクト)が発生しやすいなどの問題がある。この問題に対処する技術として、デュアルエネルギーCTの技術が研究、開発されており(特許文献1参照)、デュアルエネルギーCTは、シングルエネルギーCTの欠点を克服する撮影方法として期待されている。 Single energy CT is known as an imaging method using a CT apparatus. Single-energy CT is a method of obtaining CT value information by imaging with one tube voltage (usually 120 kVp), but this method has artifacts ( beam hardening artifact) is likely to occur. Dual-energy CT technology has been researched and developed as a technology for coping with this problem (see Patent Document 1), and dual-energy CT is expected as an imaging method that overcomes the shortcomings of single-energy CT.

例えば、造影撮影によって腫瘍の良性、悪性を鑑別する場合、組織に取り込まれた造影剤を定量的に評価することが重要であるが、デュアルエネルギーCTは、組織に取り込まれた造影剤の定量評価に適した手法である。したがって、デュアルエネルギーCTは、腫瘍の良性、悪性の鑑別の精度を向上させることが可能である。しかし、CT装置によってはデュアルエネルギーCTが使用できない装置がある。この問題に対処するため、DNN(Deep Neural Network)がデュアルエネルギーCTのデータを用いた学習を行うことにより学習済みDNNを生成し、この生成した学習済みDNNにシングルエネルギーCTのデータを入力してデュアルエネルギー情報を推論する研究が行われている。しかし、この方法では、撮影部位内において、造影剤が取り込まれていないにも関わらず、他の組織よりも明るく描出される部分が現れることがある。例えば、撮影部位に、胃の中の食べ物や石灰化した部分が含まれている場合、食べ物や石灰化した部分が明るく描出されることがある。したがって、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別することが難しい場合ある。 For example, when distinguishing between benign and malignant tumors by contrast imaging, it is important to quantitatively evaluate the contrast agent taken into the tissue. This method is suitable for Therefore, dual-energy CT can improve the accuracy of distinguishing between benign and malignant tumors. However, some CT systems cannot use dual energy CT. In order to deal with this problem, a DNN (Deep Neural Network) performs learning using dual-energy CT data to generate a learned DNN, and inputs single-energy CT data to the generated trained DNN. Research has been conducted to infer dual-energy information. However, with this method, there are cases where a portion of the imaged region appears brighter than other tissues even though the contrast agent is not incorporated. For example, if the imaged region includes food and calcified parts in the stomach, the food and calcified parts may be depicted brightly. Therefore, it may be difficult to discriminate between areas in which the contrast agent has been incorporated and areas in which the contrast agent has not been incorporated.

したがって、造影撮影を実行した場合、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを高い精度で判別することができる技術が望まれている。 Therefore, there is a demand for a technique capable of distinguishing with high accuracy a region in which a contrast medium has been taken and a region in which no contrast medium has been taken, when contrast imaging is performed.

本発明の第1の観点は、撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを生成する学習済みモデル生成方法であって、
コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、

を用いた学習を実行することにより前記学習済みモデルを生成する、学習済みモデル生成方法である。
According to a first aspect of the present invention, a non-contrast-enhanced CT image including a predetermined portion of an imaging subject and a contrast-enhanced CT image including a predetermined portion of the imaging subject are input, whereby the predetermined A trained model generation method for generating a trained model that performs inference for discriminating between a region in which a contrast agent has been taken and a region in which no contrast agent has been taken in a part of
the computer
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with

is a learned model generation method for generating the learned model by executing learning using

本発明の第2の観点は、撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを含む推論装置であって、
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、

を用いた学習を実行することにより生成されている、推論装置である。
According to a second aspect of the present invention, by inputting a non-contrast CT image including a predetermined portion of a subject and a contrast-enhanced CT image including a predetermined portion of the subject, the predetermined An inference device that includes a trained model that performs inference for discriminating between a region in which a contrast agent is taken up and a region in which a contrast agent is not taken up in a part of
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with

is an inference device generated by executing learning using

本発明の第3の観点は、撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを含む医用装置であって、
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、

を用いた学習を実行することにより生成されている、医用装置である。
In a third aspect of the present invention, a non-contrast-enhanced CT image including a predetermined portion of a subject and a contrast-enhanced CT image including a predetermined portion of the subject are input to obtain the predetermined portion of the subject. A medical device that includes a trained model that performs inference to discriminate between contrast agent uptake regions and contrast agent non-uptake regions at a site of
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with

is a medical device generated by performing learning using

本発明の第4の観点は、1つ以上のプロセッサに、
撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像を学習済みモデルに入力し、前記学習済みモデルに、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行させること
を含む動作を実行させるプログラムであって、
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、

を用いた学習を実行することにより生成されている、プログラムである。
A fourth aspect of the present invention provides one or more processors with:
A non-contrast-enhanced CT image including a predetermined part of an imaging subject and a contrast-enhanced CT image including a predetermined part of the imaging subject are input to a trained model, and the predetermined part of the imaging subject is input to the learned model. A program for executing an operation including executing inference for distinguishing between a region in which a contrast agent is taken and a region in which a contrast agent is not taken in,
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with

It is a program generated by executing learning using

本発明の第5の観点は、撮影対象者の所定の部位を複数の時相で造影撮影することにより得られた複数の造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを生成する学習済みモデル生成方法であって、
コンピュータが、
(1)人間の所定の部位を前記複数の時相で造影撮影することにより得られた複数の造影CT画像、および
(2)前記複数の造影CT画像にラベリングされた複数の正解データであって、各正解データが、前記複数の時相のうちの一つの時相で撮影された造影CT画像と、前記複数の時相のうちの他の時相で撮影された造影CT画像とを差分することにより生成された差分画像に基づいて生成されたものである、複数の正解データ、

を用いた学習を実行することにより生成される、学習済みモデル生成方法である。
According to a fifth aspect of the present invention, a plurality of contrast-enhanced CT images obtained by contrast-enhanced imaging of a predetermined part of a subject person in a plurality of time phases are input, thereby obtaining the predetermined region of the subject person. A trained model generation method for generating a trained model that performs inference for discriminating between a region in which a contrast agent is taken and a region in which no contrast agent is taken in a part,
the computer
(1) a plurality of contrast-enhanced CT images obtained by contrast-enhanced imaging of a predetermined part of a human at the plurality of time phases; and (2) a plurality of correct data labeled on the plurality of contrast-enhanced CT images, , each correct data is a difference between a contrast-enhanced CT image captured in one of the plurality of time phases and a contrast-enhanced CT image captured in another time phase of the plurality of time phases. A plurality of correct data generated based on the difference image generated by

It is a trained model generation method that is generated by executing learning using

撮影部位に腫瘍が含まれる場合、非造影CT画像に描出される腫瘍の明るさと、造影CT画像Cに描出される腫瘍の明るさには大きな違いがある。一方、胃の中の食べ物や石灰化した部分について着目すると、非造影CT画像に描出される食べ物や石灰化部分は、造影CT画像に描出される食べ物や石灰化部分と比較して、明るさにあまり大きな差が見られない。したがって、非造影CT画像と造影CT画像とを差分すると、腫瘍の領域(造影剤が取り込まれた領域)の差分値は比較的大きい値になるが、食べ物や石灰化部分の領域(造影剤が取り込まれていない領域)の差分値は比較的小さい値になる。このため、非造影CT画像と造影CT画像とを差分することにより、食べ物や石灰化部分など、造影剤が取り込まれていないにも拘らず明るく描出される領域と、腫瘍に造影剤が取り込まれることにより明るく描出される領域とをの違いが強調された差分画像を得ることができる。 When a tumor is included in the imaging region, there is a large difference between the brightness of the tumor depicted in the non-contrast CT image and the brightness of the tumor depicted in the contrast-enhanced CT image C. On the other hand, when focusing on food and calcified parts in the stomach, the food and calcified parts visualized on non-contrast CT images are brighter than the food and calcified parts visualized on contrast-enhanced CT images. does not show much difference. Therefore, when the non-contrast CT image and the contrast CT image are subtracted, the difference value in the tumor region (the region in which the contrast agent is taken) becomes a relatively large value, but the difference value in the food and calcification region (the region where the contrast agent is taken in) is relatively large. The difference value of the non-captured area) is a relatively small value. For this reason, by subtracting the non-contrast CT image and the contrast CT image, regions such as food and calcified areas that are brightly rendered even though the contrast agent is not taken in and tumors in which the contrast agent is taken in are detected. Thus, a difference image can be obtained in which the difference from the brightly drawn area is emphasized.

本発明では、このような差分画像を使用して学習済みモデルを生成している。したがって、非造影CT画像および造影CT画像に、食べ物や石灰化部分など、造影剤が取り込まれていないにも拘らず明るく描出される領域が含まれていても、非造影CT画像および造影CT画像を学習済みモデルに入力することにより、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別することができる。 In the present invention, such difference images are used to generate a trained model. Therefore, even if the non-contrast-enhanced CT image and the contrast-enhanced CT image include areas such as food and calcified areas that are brightly rendered even though the contrast agent is not incorporated, the non-contrast-enhanced CT image and the contrast-enhanced CT image is input into the trained model, it is possible to discriminate between regions in which the contrast agent is incorporated and regions in which the contrast agent is not incorporated.

本形態のX線CT装置の説明図である。1 is an explanatory diagram of an X-ray CT apparatus of this embodiment; FIG. ガントリ2、テーブル4、および操作コンソール8の説明図である。4 is an explanatory diagram of the gantry 2, the table 4, and the operation console 8; FIG. 処理部84の主な機能ブロックを示す図である。3 is a diagram showing main functional blocks of a processing unit 84; FIG. 学習フェーズのフローチャートを示す図である。FIG. 10 is a diagram showing a flow chart of a learning phase; 学習フェーズで使用されるCT画像の説明図である。FIG. 4 is an explanatory diagram of CT images used in the learning phase; 非造影CT画像CNi並びに造影CT画像CPi、CQi、およびCRiの一例を概略的に示した図である。FIG. 2 schematically shows an example of a non-contrast CT image CNi and contrast CT images CPi, CQi, and CRi; 正解データの作成方法の一例の説明図である。It is explanatory drawing of an example of the preparation method of correct data. ステップST2の説明図である。It is explanatory drawing of step ST2. 造影検査フローを示す図である。It is a figure which shows a contrast examination flow. 再構成画像の一例を示す図である。FIG. 4 is a diagram showing an example of a reconstructed image; FIG. 推論フェーズの説明図である。FIG. 4 is an explanatory diagram of an inference phase; 第2の形態における処理部84の機能ブロックを示す図である。FIG. 9 is a diagram showing functional blocks of a processing unit 84 in a second form; 第2の形態における造影検査フローを示す図である。FIG. 10 is a diagram showing a contrast imaging examination flow in the second embodiment; ステップST30の説明図である。It is explanatory drawing of step ST30.

以下、発明を実施するための形態について説明するが、本発明は、以下の形態に限定されることはない。 BEST MODE FOR CARRYING OUT THE INVENTION Embodiments for carrying out the invention will be described below, but the invention is not limited to the following embodiments.

図1は、第1の形態のX線CT装置の一例の説明図である。
図1に示すように、X線CT装置1は、ガントリ(gantry)2、テーブル(table)4、カメラ(camera)6、及び操作コンソール(console)8を備えている。
FIG. 1 is an explanatory diagram of an example of the X-ray CT apparatus of the first embodiment.
As shown in FIG. 1, the X-ray CT apparatus 1 includes a gantry 2, a table 4, a camera 6, and an operation console 8.

スキャンルーム100には、ガントリ2及びテーブル4が設置されている。スキャンルーム100の天井101にはカメラ6が設置されている。操作ルーム200には、操作コンソール8が設置されている。 A gantry 2 and a table 4 are installed in the scan room 100 . A camera 6 is installed on the ceiling 101 of the scan room 100 . An operation console 8 is installed in the operation room 200 .

次に、ガントリ2、テーブル4、および操作コンソール8について、図2を参照しながら説明する。 Next, the gantry 2, table 4, and operation console 8 will be described with reference to FIG.

図2は、ガントリ2、テーブル4、および操作コンソール8の説明図である。
ガントリ2は、患者40が移動可能な空間であるボア21を画定する内壁を有している。
FIG. 2 is an explanatory diagram of the gantry 2, the table 4, and the operation console 8. FIG.
The gantry 2 has inner walls defining a bore 21 in which the patient 40 can move.

また、ガントリ2は、X線管22、アパーチャ(aperture)23、コリメータ24、X線検出器25、データ収集部(data acquisition system)26、回転部27、高電圧電源28、アパーチャ駆動装置29、回転部駆動装置30、GT(Gantry Table)制御部31などを有している。 The gantry 2 also includes an X-ray tube 22, an aperture 23, a collimator 24, an X-ray detector 25, a data acquisition system 26, a rotating part 27, a high voltage power supply 28, an aperture drive device 29, It has a rotating part driving device 30, a GT (Gantry Table) control part 31, and the like.

X線管22、アパーチャ23、コリメータ24、X線検出器25、およびデータ収集部26は、回転部27に搭載されている。 The X-ray tube 22 , aperture 23 , collimator 24 , X-ray detector 25 and data acquisition section 26 are mounted on rotating section 27 .

X線管22は患者40にX線を照射する。X線検出器25は、X線管22から照射されたX線を検出する。X線検出器25は、ボア21に対してX線管22とは反対側に設けられている。 X-ray tube 22 irradiates patient 40 with X-rays. The X-ray detector 25 detects X-rays emitted from the X-ray tube 22 . The X-ray detector 25 is provided on the opposite side of the bore 21 from the X-ray tube 22 .

アパーチャ23は、X線管22とボア21との間に配置されている。アパーチャ23は、X線管22のX線焦点からX線検出器25に向けて放射されるX線をファンビーム(fan beam)やコーンビーム(cone beam)に成形する。 Aperture 23 is arranged between X-ray tube 22 and bore 21 . The aperture 23 shapes the X-rays emitted from the X-ray focus of the X-ray tube 22 toward the X-ray detector 25 into a fan beam or a cone beam.

X線検出器25は、患者40を透過したX線を検出する。
コリメータ24は、X線検出器25に対してX線入射側に配置されており、散乱X線を除去する。
X-ray detector 25 detects X-rays that have passed through patient 40 .
The collimator 24 is arranged on the X-ray incident side with respect to the X-ray detector 25 and removes scattered X-rays.

高電圧電源28は、X線管22に高電圧及び電流を供給する。
アパーチャ駆動装置29はアパーチャ23を駆動しその開口を変形させる。
回転部駆動装置30は回転部27を回転駆動する。
A high voltage power supply 28 supplies high voltage and current to the x-ray tube 22 .
Aperture driver 29 drives aperture 23 to deform its opening.
The rotating portion driving device 30 rotates the rotating portion 27 .

テーブル4は、クレードル(cradle)41、クレードル支持台42、および駆動装置43を有している。クレードル41は撮影対象である患者40を支持するものである。クレードル支持台42は、クレードル41をy方向およびz方向に移動可能に支持するものである。駆動装置43は、クレードル41およびクレードル支持台42を駆動するものである。尚、ここでは、クレードル41の長手方向をz方向、テーブル4の高さ方向をy方向、z方向およびy方向に垂直な水平方向をx方向とする。 The table 4 has a cradle 41 , a cradle support base 42 and a driving device 43 . A cradle 41 supports a patient 40 to be imaged. The cradle support base 42 supports the cradle 41 so as to be movable in the y and z directions. The driving device 43 drives the cradle 41 and the cradle support base 42 . Here, the longitudinal direction of the cradle 41 is the z-direction, the height direction of the table 4 is the y-direction, and the horizontal direction perpendicular to the z-direction and the y-direction is the x-direction.

GT制御部31は、ガントリ2内の各装置・各部、およびテーブル4の駆動装置43等を制御する。 The GT control unit 31 controls each device and each part in the gantry 2, the driving device 43 of the table 4, and the like.

操作コンソール8は、入力部81、表示部82、記憶部83、処理部84、コンソール制御部85などを有している。 The operation console 8 has an input section 81, a display section 82, a storage section 83, a processing section 84, a console control section 85, and the like.

入力部81は、オペレータからの指示や情報の入力を受け付けたり、各種の操作を行うためのキーボード(keyboard)およびポインティングデバイス(pointing device)などを含んでいる。表示部82は、スキャン条件を設定するための設定画面、CT画像などを表示するものであり、例えば、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイなどである。 The input unit 81 includes a keyboard, a pointing device, and the like for receiving instructions and information input from the operator and for performing various operations. The display unit 82 displays a setting screen for setting scanning conditions, a CT image, and the like, and is, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display.

記憶部83は、プロセッサで各種処理を実行させるためのプログラムが記憶されている。また、記憶部83は、各種データや各種ファイルなども記憶する。記憶部83は、HDD(Hard Disk Drive:ハードディスクドライブ)、SSD(Solid State Drive:ソリッドステートドライブ)、DRAM(Dynamic Random Access Memory)、およびROM(Read Only Memory)等を有している。また、記憶部83は、CD(Compact Disk)やDVD(Digital Versatile Disk)などの可搬性の記憶媒体90を含んでいてもよい。 The storage unit 83 stores programs for causing the processor to execute various processes. The storage unit 83 also stores various data and various files. The storage unit 83 has a HDD (Hard Disk Drive), an SSD (Solid State Drive), a DRAM (Dynamic Random Access Memory), a ROM (Read Only Memory), and the like. The storage unit 83 may also include a portable storage medium 90 such as a CD (Compact Disk) or a DVD (Digital Versatile Disk).

処理部84は、ガントリ2により取得された患者40のデータ(data)に基づいて画像再構成処理を行ったり、その他の各種の演算を行う。処理部84は一つ以上のプロセッサを有しており、一つ以上のプロセッサが、記憶部83に記憶されているプログラムの各種処理を実行する。尚、処理部84は、本発明の推論装置に相当する。 The processing unit 84 performs image reconstruction processing based on data of the patient 40 acquired by the gantry 2, and performs various other calculations. The processing unit 84 has one or more processors, and the one or more processors execute various processes of programs stored in the storage unit 83 . Note that the processing unit 84 corresponds to the inference device of the present invention.

図3は、処理部84の主な機能ブロックを示す図である。
処理部84は再構成部841および推論部842を有している。
FIG. 3 is a diagram showing main functional blocks of the processing unit 84. As shown in FIG.
The processing unit 84 has a reconstruction unit 841 and an inference unit 842 .

再構成部841は、スキャンにより得られた投影データに基づいて、CT画像(例えば、スカウト画像、非造影CT画像、および造影CT画像)を再構成する。 The reconstruction unit 841 reconstructs a CT image (for example, a scout image, a non-contrast CT image, and a contrast CT image) based on projection data obtained by scanning.

推論部842は、学習済みモデルにCT画像を入力し、患者の撮影部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する。 The inference unit 842 inputs a CT image to the trained model, and performs inference for distinguishing regions in which the contrast medium is taken in and regions in which the contrast medium is not taken in the imaging region of the patient.

また、記憶部83には、1つ以上のプロセッサによる実行が可能な1つ以上の命令が格納されている。この一つ以上の命令は、1つ以上のプロセッサに、以下の動作(a1)および(a2)を実行させる。
(a1)投影データに基づいてCT画像を再構成する(再構成部841)。
(a2)学習済みモデルにCT画像を入力し、患者40の撮影部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する(推論部842)。
The storage unit 83 also stores one or more instructions that can be executed by one or more processors. The one or more instructions cause one or more processors to perform the following actions (a1) and (a2).
(a1) Reconstruct a CT image based on the projection data (reconstruction unit 841).
(a2) Input a CT image to the trained model, and perform inference for discriminating between a region in which the contrast agent is taken and a region in which the contrast medium is not taken in the imaging region of the patient 40 (inference unit 842). .

操作コンソール8の処理部84は、記憶部83に格納されている命令を読み出し、上記の動作(a1)-(a2)を実行することができる。 The processing unit 84 of the operation console 8 can read the commands stored in the storage unit 83 and execute the above operations (a1) to (a2).

コンソール制御部85は、入力部81からの入力に基づいて、表示部82を制御したり、処理部84を制御する。
X線CT装置1は上記のように構成されている。
The console control section 85 controls the display section 82 and the processing section 84 based on the input from the input section 81 .
The X-ray CT apparatus 1 is configured as described above.

近年、デュアルエネルギーCTを使って、腫瘍の良性、悪性の鑑別をすることが行われている。しかし、CT装置によってはデュアルエネルギーCTが使用できない装置がある。この問題に対処するため、DNN(Deep Neural Network)にデュアルエネルギーCTのデータを用いた学習を行わせて学習済みのDNNを生成し、この学習済みのDNNにシングルエネルギーCTのデータを入力してデュアルエネルギー情報を推論する研究が行われている。しかし、この方法では、撮影部位内において、造影剤が取り込まれていないにも関わらず、他の組織よりも明るく描出される領域が現れることがある。例えば、撮影部位に、胃の中の食べ物や石灰化した部分が含まれている場合、食べ物や石灰化した部分が明るく描出されることがある。したがって、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別することが難しい場合ある。 In recent years, dual-energy CT has been used to distinguish between benign and malignant tumors. However, some CT systems cannot use dual energy CT. In order to deal with this problem, a DNN (Deep Neural Network) is trained using dual-energy CT data to generate a trained DNN, and the single-energy CT data is input to this trained DNN. Research has been conducted to infer dual-energy information. However, with this method, there may appear areas within the imaged region that are rendered brighter than other tissues even though the contrast medium is not incorporated. For example, if the imaged region includes food and calcified parts in the stomach, the food and calcified parts may be depicted brightly. Therefore, it may be difficult to discriminate between areas in which the contrast agent has been incorporated and areas in which the contrast agent has not been incorporated.

そこで、本形態では、この問題に対処するために、DL(深層学習)を利用して、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別するための学習済みモデルを生成している。
以下に、この学習済みモデルの生成方法について、図4~図8を参照しながら説明する。
Therefore, in the present embodiment, in order to deal with this problem, DL (deep learning) is used to determine a region in which the contrast agent is taken and a region in which the contrast agent is not taken. is generating
A method of generating this trained model will be described below with reference to FIGS. 4 to 8. FIG.

図4は学習フェーズのフローチャートを示す図である。
ステップST1では、学習フェーズで使用される複数のCT画像を用意する。図5は、学習フェーズで使用されるCT画像の説明図である。本形態では、学習フェーズで使用されるCT画像は以下のとおりである。
(1)肝臓を含む胸部の非造影CT画像
(2)肝臓を含む胸部の造影CT画像
FIG. 4 is a diagram showing a flow chart of the learning phase.
At step ST1, a plurality of CT images to be used in the learning phase are prepared. FIG. 5 is an explanatory diagram of CT images used in the learning phase. In this embodiment, the CT images used in the learning phase are as follows.
(1) Non-enhanced CT image of chest including liver (2) Contrast-enhanced CT image of chest including liver

図5では、非造影CT画像は符号CNi(1≦i≦n)で示されている。また、造影CT画像は、符号CPi(1≦i≦n)、CQi(1≦i≦n)、およびCRi(1≦i≦n)で示されている。造影CT画像CPi、CQi、およびCRiは、マルチフェーズの造影撮影により得られた画像である。造影CT画像CPiは第1の時相の造影CT画像であり、造影CT画像CQiは第2の時相の造影CT画像であり、造影CT画像CRiは第3の時相の造影CT画像である。第1の時相、第2の時相、および第3の時相は、例えば、動脈相、実質相、および静脈相である。肝臓に腫瘍がある場合、造影撮影を行うと、腫瘍の種類によって腫瘍の染まり具合が時間とともに変化する。したがって、マルチフェーズのCT画像は、腫瘍を鑑別するのに有益な画像となる。 In FIG. 5, the non-contrast CT images are denoted by CNi (1≤i≤n). Contrast-enhanced CT images are denoted by CPi (1≤i≤n), CQi (1≤i≤n), and CRi (1≤i≤n). The contrast-enhanced CT images CPi, CQi, and CRi are images obtained by multiphase contrast-enhanced imaging. The contrast-enhanced CT image CPi is a contrast-enhanced CT image of a first phase, the contrast-enhanced CT image CQi is a contrast-enhanced CT image of a second time phase, and the contrast-enhanced CT image CRi is a contrast-enhanced CT image of a third time phase. . The first phase, the second phase, and the third phase are, for example, an arterial phase, a parenchymal phase, and a venous phase. If there is a tumor in the liver, contrast-enhanced imaging shows that the degree of staining of the tumor changes over time depending on the type of tumor. Therefore, multiphase CT images are useful images for differentiating tumors.

図6は、図5に示す非造影CT画像CNi並びに造影CT画像CPi、CQi、およびCRiの一例を概略的に示した図である。
図6では、i=1の画像、すなわち、非造影CT画像CN1、造影CT画像CP1、CQ1、およびCR1が示されている。
FIG. 6 is a diagram schematically showing an example of the non-contrast CT image CNi and the contrast CT images CPi, CQi, and CRi shown in FIG.
FIG. 6 shows images with i=1, ie, non-contrast CT image CN1, contrast CT images CP1, CQ1, and CR1.

図6では、説明の便宜上、各画像CN1、CP1、CQ1、およびCR1には、体内の肝臓、腫瘍、および胃の中の食べ物のみが簡略化されて示されている。 In FIG. 6, for convenience of explanation, each image CN1, CP1, CQ1, and CR1 shows only the liver, tumor, and food in the stomach in a simplified manner.

非造影CT画像CN1では、腫瘍に造影剤が取り込まれていないので、腫瘍は暗く描出される(画素値が小さい)。一方、造影CT画像CP1、CQ1、およびCR1では、腫瘍に造影剤が取り込まれているので、腫瘍は明るく描出される。一方、説明を簡略化するため、肝臓のうち腫瘍を除く領域は、画像CN1、CP1、CQ1、およびCR1の間で、同じ明るさで描出されているとする。図6では、肝臓のうち腫瘍を除く領域は、斜線で示してある。 In the non-contrast-enhanced CT image CN1, the tumor is rendered dark (pixel value is small) because the tumor does not contain the contrast agent. On the other hand, in the contrast-enhanced CT images CP1, CQ1, and CR1, the tumor is depicted brightly because the contrast agent is incorporated into the tumor. On the other hand, in order to simplify the explanation, it is assumed that the regions of the liver excluding the tumor are depicted with the same brightness among the images CN1, CP1, CQ1, and CR1. In FIG. 6, the area of the liver excluding the tumor is shaded.

胃の中の食べ物は、周囲の組織よりも明るく描出される。図6では、説明を簡略化するため、食べ物は、画像CN1、CP1、CQ1、およびCR1の間で、同じ明るさで描出されているとする。 Food in the stomach appears brighter than the surrounding tissue. In FIG. 6, in order to simplify the explanation, it is assumed that the food is rendered with the same brightness among the images CN1, CP1, CQ1, and CR1.

尚、図6では、学習フェーズで使用される画像として、食べ物が描出された画像が示されている。しかし、食べ物以外で腫瘍と混同する恐れがあるもの(例えば、石灰化した部分)が描出された画像も、学習フェーズで使用される画像として用意することができる。また、学習フェーズで使用される画像は、人間の体動(例えば、呼吸による体動、心臓による体動)に起因した位置ずれが補正されていない画像でもよいし、体動に起因した位置ずれが補正された画像でもよい。 In addition, in FIG. 6, an image depicting food is shown as an image used in the learning phase. However, images depicting objects other than food that may be confused with tumors (for example, calcified parts) can also be prepared as images to be used in the learning phase. In addition, the images used in the learning phase may be images in which positional displacement caused by human body motion (for example, body motion due to breathing, body motion due to heart) have not been corrected, or images in which positional deviation due to body motion has not been corrected. may be an image in which the is corrected.

図5に戻って説明を続ける。
また、複数の正解データも用意する。正解データは符号GPi(1≦i≦n)、符号GQi(1≦i≦n)、および符号GRi(1≦i≦n)で示されている。以下に、正解データの生成方法について説明する。
Returning to FIG. 5, the description continues.
In addition, a plurality of correct data are also prepared. Correct data are denoted by GPi (1≤i≤n), GQi (1≤i≤n), and GRi (1≤i≤n). A method for generating correct data will be described below.

図7は、正解データの作成方法の一例の説明図である。
図7の上段には、図6に示したi=1の画像、すなわち非造影CT画像CN1、並びに第1の時相の造影CT画像CP1、第2の時相の造影CT画像CQ1、および第3の時相の造影CT画像CR1が再掲されている。
FIG. 7 is an explanatory diagram of an example of a method for creating correct answer data.
7, the image of i=1 shown in FIG. 6, that is, the non-contrast CT image CN1, the first phase contrast CT image CP1, the second phase contrast CT image CQ1, and the 3 phase contrast-enhanced CT image CR1 is reproduced.

図7では、非造影CT画像CN1、第1の時相の造影CT画像CP1、第2の時相の造影CT画像CQ1、および第3の時相の造影CT画像CR1から、正解データとして、差分画像GP1、GQ1、およびGR1を生成する例が示されている。 In FIG. 7, from the non-contrast CT image CN1, the first phase contrast CT image CP1, the second phase contrast CT image CQ1, and the third phase contrast CT image CR1, the difference An example is shown for generating images GP1, GQ1 and GR1.

差分画像GP1は、非造影CT画像CN1と第1の時相の造影CT画像CP1との差分画像であり、差分画像GQ1は、非造影CT画像CN1と第2の時相の造影CT画像CQ1との差分画像であり、差分画像GR1は、非造影CT画像CN1と第3の時相の造影CT画像CR1との差分画像である。 A difference image GP1 is a difference image between the non-contrast CT image CN1 and the first phase contrast CT image CP1, and a difference image GQ1 is a difference image between the non-contrast CT image CN1 and the second phase contrast CT image CQ1. The difference image GR1 is a difference image between the non-contrast CT image CN1 and the contrast CT image CR1 of the third time phase.

先ず、差分画像GP1について説明する。
腫瘍について着目すると、非造影CT画像CN1の腫瘍は、第1の時相の造影CT画像CP1の腫瘍よりも暗く描出されている。したがって、非造影CT画像CN1と第1の時相の造影CT画像CP1とを比較すると、腫瘍の明るさに大きな差がある。一方、食べ物について着目すると、非造影CT画像CN1の食べ物は、第1の時相の造影CT画像CP1の食べ物と比較して、明るさにあまり大きな差が見られない。したがって、非造影CT画像CN1と、第1の時相の造影CT画像CP1とを差分すると、腫瘍の領域(造影剤が取り込まれた領域)の差分値は比較的大きい値になるが、食べ物の領域(造影剤が取り込まれていない領域)の差分値は比較的小さい値になる。このため、非造影CT画像CN1と、第1の時相の造影CT画像CP1とを差分することにより、食べ物と腫瘍との違いが強調された差分画像GP1を得ることができる。尚、
また、他の2つの差分画像GQ1およびGR1についても、差分画像GP1と同様に説明することができる。したがって、非造影CT画像CN1と、第2の時相の造影CT画像CQ1とを差分することにより、食べ物と腫瘍との違いが強調された差分画像GQ1を得ることができる。同様に、非造影CT画像CN1と、第3の時相の造影CT画像CR1とを差分することにより、食べ物と腫瘍との違いが強調された差分画像GR1を得ることができる。
First, the difference image GP1 will be explained.
Focusing on the tumor, the tumor in the non-contrast CT image CN1 is rendered darker than the tumor in the first phase contrast CT image CP1. Therefore, when the non-contrast CT image CN1 and the first phase contrast CT image CP1 are compared, there is a large difference in the brightness of the tumor. On the other hand, focusing on food, the food in the non-contrast CT image CN1 does not show a large difference in brightness compared to the food in the contrast CT image CP1 of the first time phase. Therefore, when the difference between the non-contrast CT image CN1 and the contrast CT image CP1 of the first time phase is obtained, the difference value of the tumor region (the region into which the contrast agent is taken) becomes a relatively large value. The difference value of the area (the area where the contrast agent is not taken) is a relatively small value. Therefore, by subtracting the non-contrast-enhanced CT image CN1 and the contrast-enhanced CT image CP1 in the first phase, it is possible to obtain a differential image GP1 in which the difference between the food and the tumor is emphasized. still,
Also, the other two difference images GQ1 and GR1 can be explained in the same manner as the difference image GP1. Therefore, by subtracting the non-contrast-enhanced CT image CN1 and the contrast-enhanced CT image CQ1 in the second time phase, a differential image GQ1 in which the difference between the food and the tumor is emphasized can be obtained. Similarly, by subtracting the non-contrast-enhanced CT image CN1 and the contrast-enhanced CT image CR1 in the third time phase, it is possible to obtain a subtraction image GR1 in which the difference between the food and the tumor is emphasized.

上記のように、差分画像GP1、GQ1、およびGR1は、食べ物と腫瘍との違いが強調された画像であるので、これらの差分画像GP1、GQ1、およびGR1を、腫瘍と食べ物とを区別するための正解データとして使用することができる。 As described above, the difference images GP1, GQ1, and GR1 are images in which the difference between food and tumor is emphasized. can be used as correct data for

図7では、i=1の画像CN1、CP1、CQ1、およびCR1のセットから差分画像GP1、GQ1、およびGR1を生成する例について説明したが、i≧2の画像についても、同様にして、差分画像を生成する。 In FIG. 7, an example of generating difference images GP1, GQ1, and GR1 from a set of images CN1, CP1, CQ1, and CR1 with i=1 has been described. Generate an image.

上記のようにして、図5に示す正解データ、すなわち、差分画像GP1~GPn、差分画像GQ1~GQn、および差分画像GR1~GRnを用意することができる。尚、差分画像GP1~GPn、差分画像GQ1~GQn、および差分画像GR1~GRnに対して所定の画像処理を実行し、所定の画像処理が実行された後の差分画像GP1’~GPn’、差分画像GQ1’~GQn’、および差分画像GR1’~GRn’を、正解データとして用意してもよい。ここでは、説明を簡略にするため、差分画像GP1~GPn、差分画像GQ1~GQn、および差分画像GR1~GRnが、正解データとして用意されたとする。 As described above, the correct data shown in FIG. 5, that is, the difference images GP1 to GPn, the difference images GQ1 to GQn, and the difference images GR1 to GRn can be prepared. Predetermined image processing is performed on the difference images GP1 to GPn, the difference images GQ1 to GQn, and the difference images GR1 to GRn. Images GQ1' to GQn' and differential images GR1' to GRn' may be prepared as correct data. Here, to simplify the explanation, it is assumed that difference images GP1 to GPn, difference images GQ1 to GQn, and difference images GR1 to GRn are prepared as correct data.

各差分画像(正解データ)は、非造影CT画像と造影CT画像とのセットにラベリングされている。具体的には、差分画像GPiは、非造影CT画像CNiと第1の時相の造影CT画像CPiとにラベリングされており、差分画像GQiは、非造影CT画像CNiと第2の時相の造影CT画像CQiとにラベリングされており、差分画像GRiは、非造影CT画像CNiと第3の時相の造影CT画像CRiとにラベリングされている。
これらのCT画像および差分画像を用意したら、ステップST2に進む。
Each differential image (correct data) is labeled as a set of non-contrast CT images and contrast-enhanced CT images. Specifically, the differential image GPi is labeled with the non-contrast CT image CNi and the contrast-enhanced CT image CPi of the first phase, and the differential image GQi is labeled with the non-contrast CT image CNi and the second phase CT image CNi. The contrast-enhanced CT image CQi is labeled, and the difference image GRi is labeled with the non-contrast-enhanced CT image CNi and the third phase contrast-enhanced CT image CRi.
After preparing these CT images and differential images, the process proceeds to step ST2.

図8はステップST2の説明図である。
ステップST2では、ニューラルネットワーク(NN)91が、非造影CT画像CNi、造影CT画像CPi、CQi、CRi、および差分画像(正解データ)GPi、GQi、およびGRiを用いた学習を実行する。これによって、学習済みモデル91aを生成することができる。
このようにして生成された学習済みモデル91aは、CT装置の記憶部83に記憶される。
FIG. 8 is an explanatory diagram of step ST2.
In step ST2, the neural network (NN) 91 performs learning using the non-contrast CT image CNi, the contrast CT images CPi, CQi, CRi, and the differential images (correct data) GPi, GQi, and GRi. This allows the trained model 91a to be generated.
The trained model 91a generated in this manner is stored in the storage unit 83 of the CT apparatus.

上記の学習フェーズにより得られた学習済みモデル91aは、患者の造影検査において、造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を行うときに使用される。以下に、患者の造影検査フローについて説明する。 The learned model 91a obtained by the above learning phase is used when making inferences for discriminating between areas in which the contrast medium is taken and areas in which the contrast medium is not taken in the imaging examination of the patient. . A patient contrast examination flow will be described below.

図9は、造影検査フローを示す図である。
ステップST10では、オペレータが撮影対象者である患者40をスキャンルームへと案内し、図1に示すように、患者40をテーブル4に寝かせる。そして、患者40の胸部の非造影スキャンを実行し、さらに、患者に造影剤を投与し、マルチフェーズの造影スキャンを実行する。
FIG. 9 is a diagram showing an imaging examination flow.
In step ST10, the operator guides the patient 40, who is the subject of imaging, to the scan room, and lays the patient 40 on the table 4 as shown in FIG. A non-contrast scan of the chest of patient 40 is then performed, the patient is administered a contrast agent, and a multi-phase contrast-enhanced scan is performed.

ステップST20では、再構成部841が、ステップST10のスキャンにより得られた投影データに基づいて、CT画像を再構成する。図10は、再構成画像の一例を示す図である。 In step ST20, the reconstruction unit 841 reconstructs a CT image based on the projection data obtained by the scanning in step ST10. FIG. 10 is a diagram showing an example of a reconstructed image.

再構成部841(図3参照)は、非造影スキャンにより得られた投影データに基づいて、患者40の胸部を含む非造影CT画像CN0を再構成する。また、再構成部841は、マルチフェーズの造影スキャンにより得られた投影データに基づいて、患者40の胸部を含むマルチフェーズの造影CT画像CP0、CQ0、およびCR0を再構成する。 The reconstruction unit 841 (see FIG. 3) reconstructs a non-contrast CT image CN0 including the chest of the patient 40 based on the projection data obtained by the non-contrast scanning. The reconstruction unit 841 also reconstructs multi-phase contrast-enhanced CT images CP0, CQ0, and CR0 including the chest of the patient 40 based on projection data obtained by multi-phase contrast-enhanced scanning.

本形態では、マルチフェーズの造影スキャンは、3つの時相(第1の時相、第2の時相、第3の時相)のCT画像を取得するためのスキャンであり、造影CT画像CP0、CQ0、およびCR0は、それぞれ、第1の時相、第2の時相、および第3の時相の造影CT画像を表している。 In this embodiment, the multiphase contrast scan is a scan for acquiring CT images in three time phases (first time phase, second time phase, and third time phase). , CQ0, and CR0 represent contrast-enhanced CT images of the first, second, and third phases, respectively.

図10では、説明の便宜上、図6と同様に、画像CN0、CP0、CQ0、およびCR0には、体内の肝臓、腫瘍、および胃の中の食べ物のみが簡略化されて示されている。
画像を再構成した後、ステップST30に進む。
In FIG. 10, for convenience of explanation, images CN0, CP0, CQ0, and CR0 simply show only the liver, tumor, and food in the stomach in the same manner as in FIG.
After reconstructing the image, the process proceeds to step ST30.

ステップST30では、推論部842が、患者40の胸部において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する。図11は、推論フェーズの説明図である。 In step ST30, the inference unit 842 performs inference for distinguishing regions in the chest of the patient 40 in which the contrast medium has been taken and regions in which the contrast medium has not been taken. FIG. 11 is an explanatory diagram of the inference phase.

推論部842は、ステップST20で再構成された非造影CT画像CN0、および造影CT画像CP0、CQ0、およびCR0を学習済みモデル91aに入力する。学習済みモデル91aは、入力されたこれらの画像CN0、CP0、CQ0、およびCR0に基づいて、患者40の胸部において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を行い、判別結果を表す差分画像GP0、GQ0、GR0を出力する。 The inference unit 842 inputs the non-contrast-enhanced CT image CN0 and the contrast-enhanced CT images CP0, CQ0, and CR0 reconstructed in step ST20 to the learned model 91a. Based on these input images CN0, CP0, CQ0, and CR0, the trained model 91a discriminates regions in the chest of the patient 40 in which the contrast agent is taken and regions in which the contrast agent is not taken. and outputs differential images GP0, GQ0, and GR0 representing the discrimination results.

図11を参照すると、学習済みモデル91aに入力される造影CT画像CP0、CQ0、およびCR0は、造影剤を取り込んでいる腫瘍だけでなく、造影剤を取り込んでいない胃の中の食べ物も明るく描出されている。しかし、学習済みモデル91aが出力した結果では、胃の中の食べ物は暗く描出されており、腫瘍と食べ物とを識別できていることが分かる。これらの差分画像GP0、GQ0、GR0には、造影剤が取り込まれた領域の位置を表す位置データと、造影剤が取り込まれていない領域の位置を表す位置データとが含まれている。したがって、患者40の胸部において、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別することができる。
このようにして、図9に示すフローが終了する。
Referring to FIG. 11, the contrast-enhanced CT images CP0, CQ0, and CR0 input to the trained model 91a brightly depict not only the tumor that has taken up the contrast medium, but also the food in the stomach that has not taken up the contrast medium. It is However, in the results output by the trained model 91a, the food in the stomach is depicted dark, and it can be seen that the tumor and the food can be distinguished. These differential images GP0, GQ0, and GR0 contain position data representing the positions of the areas in which the contrast medium has been taken and position data representing the positions of the areas in which the contrast medium has not been taken. Therefore, in the chest of the patient 40, it is possible to distinguish between areas in which the contrast medium has been taken and areas in which the contrast medium has not been taken.
Thus, the flow shown in FIG. 9 ends.

本形態では、造影剤が取り込まれた領域(例えば、腫瘍)と、造影剤が取り込まれていない領域(例えば、胃の中の食べ物)とを判別するための学習済みモデル91aが生成されている。したがって、検査で得られた患者のCT画像の中に、胃の中の食べ物など、造影剤が取り込まれていないにも関わらず明るく描出されてしまう領域が現れた場合であっても、学習済みモデル91aを使用することにより、造影剤が取り込まれた領域と、造影剤が取り込まれていない領域とを判別することができる。したがって、腫瘍の良性、悪性の鑑別精度を向上させることができる。 In this embodiment, a trained model 91a is generated for discriminating between a region (for example, a tumor) in which a contrast medium is taken and a region in which no contrast medium is taken (for example, food in the stomach). . Therefore, even if an area such as food in the stomach appears brightly in the patient's CT image obtained in the examination, even if the contrast medium is not taken in, the learned By using the model 91a, it is possible to discriminate between regions that have contrast agent uptake and regions that have no contrast agent uptake. Therefore, it is possible to improve the accuracy of distinguishing between benign and malignant tumors.

尚、第1の形態では、マルチフェーズの造影CT画像として、3つの時相を考えている。しかし、3つの時相の代わりに、2つの時相であってもよいし、4つ以上の時相であってもよい。また、マルチフェーズの造影CT画像の代わりに、単時相の造影CT画像とすることもできる。 In the first mode, three time phases are considered as a multiphase contrast-enhanced CT image. However, instead of three phases, there may be two phases, or four or more phases. Also, instead of the multi-phase contrast-enhanced CT image, a single-phase contrast-enhanced CT image may be used.

尚、学習済みモデル91aに入力されるCT画像CN0、CP0、CQ0、およびCR0(図11参照)は、腫瘍だけでなく食べ物も明るく描出されているので、CT画像CN0、CP0、CQ0、およびCR0を見ただけでは、食べ物と腫瘍とを判別することは難しい。そこで、診断に適した画像を得るために、ステップST30で推論結果を出力した後、以下のステップAおよびステップBを実行することができる。 In the CT images CN0, CP0, CQ0, and CR0 (see FIG. 11) input to the trained model 91a, not only the tumor but also the food are depicted brightly, so the CT images CN0, CP0, CQ0, and CR0 It is difficult to distinguish between food and tumor just by looking at it. Therefore, in order to obtain an image suitable for diagnosis, the following steps A and B can be executed after outputting the inference result in step ST30.

ステップA:ステップST30の推論結果に基づいて、造影剤が取り込まれていない領域の位置を特定するステップ。このステップAは、処理部84に、この特定を実行する特定部を設けることにより実行することができる。 Step A: A step of identifying the position of the area where the contrast medium is not taken in based on the inference result of step ST30. This step A can be executed by providing the processing unit 84 with an identification unit that executes this identification.

ステップB:ステップAで特定した位置と、ステップST10のスキャンにより得られた投影データとに基づいて、造影剤が取り込まれていない領域は暗くなるように画像を再構成するステップ。このステップBは、処理部84の再構成部841(図3参照)で実行することができる。 Step B: A step of reconstructing an image based on the positions identified in step A and the projection data obtained by scanning in step ST10 so that areas where the contrast medium is not incorporated are dark. This step B can be executed by the reconstruction unit 841 (see FIG. 3) of the processing unit 84 .

上記のステップAおよびBを実行することにより、オペレータや読影医に、腫瘍の良性、悪性の鑑別に適したCT画像を提供することができる。 By executing steps A and B above, it is possible to provide the operator and radiologist with a CT image suitable for distinguishing between benign and malignant tumors.

(第2の形態)
第2の形態では、第1の形態で作成した学習済みモデルの出力結果を、デュアルエネルギー情報の信頼性向上に利用する例について説明する。
(Second form)
In the second embodiment, an example will be described in which the output result of the learned model created in the first embodiment is used to improve the reliability of dual energy information.

第2の形態では、処理部84は、以下の機能ブロックを有している。
図12は、第2の形態における処理部84の機能ブロックを示す図である。
第2の形態の処理部84は、主な機能ブロックとして、再構成部841、推論部842、および判定部843を有している。
In the second form, the processing section 84 has the following functional blocks.
FIG. 12 is a diagram showing functional blocks of the processing unit 84 in the second mode.
The processing unit 84 of the second form has a reconstruction unit 841, an inference unit 842, and a determination unit 843 as main functional blocks.

再構成部841は、スキャンにより得られた投影データに基づいて、CT画像(例えば、スカウト画像、非造影CT画像、および造影CT画像)を再構成する。 The reconstruction unit 841 reconstructs a CT image (for example, a scout image, a non-contrast CT image, and a contrast CT image) based on projection data obtained by scanning.

推論部842は、第1の形態の学習済みモデル91aにCT画像を入力し、患者40の撮影部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する。また、推論部842は、後述する学習済みDNN92a(図14参照)にCT画像を入力し、デュアルエネルギー情報を推論する。 The inference unit 842 inputs a CT image to the trained model 91a of the first form, and makes an inference for distinguishing a region in which the contrast medium is taken in and a region in which the contrast medium is not taken in the imaging region of the patient 40. to run. In addition, the inference unit 842 inputs the CT image to the learned DNN 92a (see FIG. 14), which will be described later, and infers dual energy information.

判定部843は、第1の形態の学習済みモデル91aの推論結果に基づいて、学習済みDNN92aの推論結果が正しいか否かを判定する。 The determination unit 843 determines whether or not the inference result of the learned DNN 92a is correct based on the inference result of the learned model 91a of the first form.

また、記憶部83には、1つ以上のプロセッサによる実行が可能な1つ以上の命令が格納されている。この一つ以上の命令は、1つ以上のプロセッサに、以下の動作(b1)-(b4)を実行させる。 The storage unit 83 also stores one or more instructions that can be executed by one or more processors. The one or more instructions cause one or more processors to perform the following actions (b1)-(b4).

(b1)投影データに基づいてCT画像を再構成する(再構成部841)。
(b2)学習済みモデル91aにCT画像を入力し、患者40の撮影部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する(推論部842)。
(b3)学習済みDNN92aにCT画像を入力し、デュアルエネルギー情報を推論する(推論部842)。
(b4)学習済みモデル91aの推論結果に基づいて、学習済みDNN92a(図14参照)の推論結果が正しいか否かを判定する(判定部843)。
(b1) Reconstruct a CT image based on the projection data (reconstruction unit 841).
(b2) Input a CT image to the trained model 91a, and perform inference for distinguishing between regions in which the contrast medium is taken and regions in which the contrast medium is not taken in the imaging region of the patient 40 (the inference unit 842 ).
(b3) Input a CT image to the learned DNN 92a and infer dual energy information (inference unit 842).
(b4) Based on the inference result of the trained model 91a, it is judged whether or not the inference result of the trained DNN 92a (see FIG. 14) is correct (judgment section 843).

以下、第2の形態の造影検査フローについて、図13および図14を参照しながら説明する。 The contrast examination flow of the second mode will be described below with reference to FIGS. 13 and 14. FIG.

図13は、第2の形態における造影検査フローを示す図である。
ステップST10およびST20は、第1の形態と同じであるので説明は省略する。画像再構成した後、ステップST30に進む。
FIG. 13 is a diagram showing a contrast examination flow in the second embodiment.
Steps ST10 and ST20 are the same as those in the first mode, so description thereof will be omitted. After image reconstruction, the process proceeds to step ST30.

図14は、ステップST30の説明図である。
ステップST30では、推論部842が、ステップST20で得られた非造影CT画像CN0並びに造影CT画像CP0、CQ0、およびCR0を学習済みモデル91aに入力する。学習済みモデル91aは、第1の形態で説明したように、差分画像GP0、GQ0、およびGR0を出力する。
FIG. 14 is an explanatory diagram of step ST30.
In step ST30, the inference unit 842 inputs the non-contrast CT image CN0 and the contrast-enhanced CT images CP0, CQ0, and CR0 obtained in step ST20 to the trained model 91a. The trained model 91a outputs difference images GP0, GQ0, and GR0, as described in the first mode.

また、ステップST30では、推論部842は、ステップST20で得られたCT画像CN0、CP0、CQ0、およびCR0を学習済みDNN92aにも入力する。学習済みDNN92aは、ニューラルネットワークがデュアルエネルギーデータを学習することにより生成された学習済みモデルであり、学習済みDNN92aは、シングルエネルギーデータが入力されると、造影剤が取り込まれた領域の位置情報を含むデュアルエネルギー情報DIを推論するものである。 In step ST30, the inference unit 842 also inputs the CT images CN0, CP0, CQ0, and CR0 obtained in step ST20 to the trained DNN 92a. The trained DNN 92a is a trained model generated by a neural network learning dual-energy data. When single-energy data is input, the trained DNN 92a obtains positional information of the region in which the contrast agent is captured. It infers the dual energy information DI containing.

CT画像CN0、CP0、CQ0、およびCR0は、シングルエネルギーCTで得られた画像であるので、これらのCT画像CN0、CP0、CQ0、およびCR0が学習済みDNN92aに入力されると、学習済みDNN92aは、造影剤が取り込まれた領域の位置情報を含むデュアルエネルギー情報DIを出力する。 Since CT images CN0, CP0, CQ0, and CR0 are images obtained by single-energy CT, when these CT images CN0, CP0, CQ0, and CR0 are input to trained DNN 92a, trained DNN 92a is , outputs dual-energy information DI that includes the location information of the area in which the contrast agent is taken.

ステップST40では、判定部843が、学習済みモデル91aにより推論された結果(差分画像GP0、GQ0、およびGR0)と、学習済みDNN92aにより推論された結果(デュアルエネルギー情報DI)とを比較する。判定部843は、この比較結果に基づいて、学習済みDNN92aにより造影剤が取り込まれたと推論された領域が、実際に造影剤が取り込まれた領域なのか、それとも、実際には造影剤が取り込まれていないのに造影剤が取り込まれたと誤って推論された領域なのかを判定する。
このようにしてフローが終了する。
In step ST40, the determination unit 843 compares the result (difference images GP0, GQ0, and GR0) inferred by the trained model 91a and the result (dual energy information DI) inferred by the trained DNN 92a. Based on the result of this comparison, the determining unit 843 determines whether the area inferred by the learned DNN 92a that the contrast agent has been taken in is actually the area in which the contrast agent has been taken in, or whether the contrast medium has actually been taken in. determine if it is an area that was incorrectly inferred to have contrast agent uptake when it was not there.
Thus the flow ends.

第2の形態では、学習済みモデル91aの推定結果と、学習済みDNN92aの推定結果とを比較し、学習済みDNN92aによって造影剤が取り込まれたと推論された領域が、実際に造影剤が取り込まれた領域であるのか否かを判定することができる。したがって、学習済みモデル91aの推論結果を、学習済みDNN92aの推論精度を向上させるために使用することができる。 In the second form, the estimation result of the learned model 91a and the estimation result of the learned DNN 92a are compared, and the area inferred that the contrast agent is taken in by the learned DNN 92a is actually taken in. It can be determined whether or not it is an area. Therefore, the inference results of the trained model 91a can be used to improve the inference accuracy of the trained DNN 92a.

第1および第2の形態では、肝臓を撮影部位としているが、撮影部位は必ずしも肝臓に限定されることは無く、肝臓以外の臓器を含む部位を撮影部位としてもよい。 In the first and second embodiments, the liver is the imaged region, but the imaged region is not necessarily limited to the liver, and a region including organs other than the liver may be the imaged region.

尚、第1および第2の形態では、非造影CT画像と造影CT画像とを用いて学習済みモデルを生成する例について説明した。しかし、非造影CT画像を使用せずに、マルチフェーズの造影CT画像のみを用いて学習済みモデルを生成してもよい。この学習済みモデルは、例えば、以下のステップ(1)-(4)を実行することにより生成することができる。 In addition, in the first and second embodiments, an example of generating a trained model using non-contrast CT images and contrast-enhanced CT images has been described. However, a trained model may be generated using only multi-phase contrast-enhanced CT images without using non-contrast-enhanced CT images. This trained model can be generated, for example, by executing the following steps (1)-(4).

(1)人間の所定の部位を複数の時相で造影撮影することにより、複数の造影CT画像を用意する。 (1) A plurality of contrast-enhanced CT images are prepared by contrast-enhanced imaging of a predetermined part of a human being at a plurality of time phases.

(2)複数の正解データを用意する。各正解データは、複数の時相のうちの一つの時相で撮影された造影CT画像と、複数の時相のうちの他の時相で撮影された造影CT画像とを差分することにより生成される。 (2) Prepare a plurality of correct data. Each correct data is generated by subtracting a contrast-enhanced CT image captured in one of a plurality of time phases and a contrast-enhanced CT image captured in another time phase of the plurality of time phases. be done.

(3)正解データを造影CT画像にラベリングする。 (3) Labeling the correct answer data on the contrast-enhanced CT image.

(4)コンピュータが、ニューラルネットワークに、複数の造影CT画像と複数の正解データとを用いた学習を実行させる
このようにして、学習済みモデルを生成する。この学習済みモデルは、造影CT画像が入力されることにより、患者の撮影部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する。
(4) The computer causes the neural network to perform learning using a plurality of contrast-enhanced CT images and a plurality of correct data. Thus, a trained model is generated. This trained model executes inference for discriminating regions in which the contrast agent is taken in and regions in which the contrast agent is not taken in the imaging region of the patient by inputting the contrast-enhanced CT image.

推論フェーズでは、複数の時相で撮影された患者の造影CT画像を、上記の学習済みモデルに入力し、造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する。この方法では、非造影CT画像を使わずに、腫瘍の鑑別をすることが可能となる。 In the inference phase, the patient's contrast-enhanced CT images taken at multiple time phases are input to the above-described trained model, and a method for discriminating between areas in which the contrast agent is incorporated and areas in which the contrast agent is not incorporated is performed. perform inference. This method makes it possible to differentiate tumors without using non-enhanced CT images.

尚、第1および第2の形態では、DL(深層学習)により学習済みモデルを作成したが、DL以外の他の機械学習により学習済みモデルを生成してもよい。 In addition, in the first and second forms, the learned model is created by DL (deep learning), but the learned model may be created by machine learning other than DL.

1 CT装置
4 テーブル
6 カメラ
8 操作コンソール
21 ボア
22 X線管
23 アパーチャ
24 コリメータ
25 X線検出器
26 データ収集部
27 回転部
28 高電圧電源
29 アパーチャ駆動装置
30 回転部駆動装置
31 GT制御部
40 患者
41 クレードル
42 クレードル支持台
43 駆動装置
81 入力部
82 表示部
83 記憶部
84 処理部
85 コンソール制御部
90 記憶媒体
91 ニューラルネットワーク
91a 学習済みモデル
92a 学習済みDNN
100 スキャンルーム
101 天井
200 操作ルーム
841 再構成部
842 推論部
843 判定部
1 CT device 4 Table 6 Camera 8 Operation console 21 Bore 22 X-ray tube 23 Aperture 24 Collimator 25 X-ray detector 26 Data acquisition part 27 Rotating part 28 High voltage power supply 29 Aperture driving device 30 Rotating part driving device 31 GT control part 40 Patient 41 Cradle 42 Cradle support base 43 Driving device 81 Input unit 82 Display unit 83 Storage unit 84 Processing unit 85 Console control unit 90 Storage medium 91 Neural network 91a Trained model 92a Trained DNN
100 Scan room 101 Ceiling 200 Operation room 841 Reconstruction unit 842 Inference unit 843 Determination unit

Claims (8)

撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを生成する学習済みモデル生成方法であって、
コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、

を用いた学習を実行することにより前記学習済みモデルを生成する、学習済みモデル生成方法。
By inputting a non-contrast-enhanced CT image including a predetermined part of an imaging subject and a contrast-enhanced CT image including a predetermined part of the imaging subject, a contrast agent is taken in the predetermined part of the imaging subject. A trained model generation method for generating a trained model that performs inference to discriminate between regions and non-contrast loaded regions, comprising:
the computer
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with

A trained model generation method, wherein the trained model is generated by performing learning using
前記複数の造影CT画像は、複数の時相で撮影された複数の造影CT画像を含む、請求項1に記載の学習済みモデル生成方法。 2. The method of generating a learned model according to claim 1, wherein said plurality of contrast-enhanced CT images include a plurality of contrast-enhanced CT images taken at a plurality of time phases. 前記コンピュータが、ニューラルネットワークに、前記学習を実行させることにより、前記学習済みモデルを生成する、請求項1又は2に記載の学習済みモデル生成方法。 3. The method of generating a trained model according to claim 1, wherein said computer generates said trained model by causing a neural network to perform said learning. 撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを含む推論装置であって、
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、

を用いた学習を実行することにより生成されている、推論装置。
By inputting a non-contrast-enhanced CT image including a predetermined part of an imaging subject and a contrast-enhanced CT image including a predetermined part of the imaging subject, a contrast agent is taken in the predetermined part of the imaging subject. An inference device that includes a trained model that performs inference to discriminate between regions and non-contrast uptake regions,
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with

A reasoning device generated by executing learning using
撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを含む医用装置であって、
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、

を用いた学習を実行することにより生成されている、医用装置。
By inputting a non-contrast-enhanced CT image including a predetermined part of an imaging subject and a contrast-enhanced CT image including a predetermined part of the imaging subject, a contrast agent is taken in the predetermined part of the imaging subject. A medical device that includes a trained model that performs inference to discriminate between regions and non-contrast uptake regions,
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with

A medical device that has been generated by performing learning using
DNNがデュアルエネルギーCTのデータを用いた学習を行うことにより生成された学習済みDNNであって、シングルエネルギーCTのデータからデュアルエネルギー情報を推論する学習済みDNNと、
前記学習済みモデルの推論結果に基づいて、前記学習済みDNNの推論結果が正しいか否かを判定する判定部と
を含む、請求項1から5のうちのいずれか一項に記載の医用装置。
A learned DNN generated by performing learning using dual-energy CT data, wherein the DNN infers dual-energy information from single-energy CT data;
The medical apparatus according to any one of claims 1 to 5, further comprising a determination unit that determines whether the inference result of the learned DNN is correct based on the inference result of the learned model.
1つ以上のプロセッサに、
撮影対象者の所定の部位を含む非造影CT画像および前記撮影対象者の所定の部位を含む造影CT画像を学習済みモデルに入力し、前記学習済みモデルに、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行させること
を含む動作を実行させるプログラムであって、
前記学習済みモデルは、コンピュータが、
(1)人間の前記所定の部位を含む複数の非造影CT画像、
(2)人間の前記所定の部位を含む複数の造影CT画像、および
(3)複数の正解データであって、各正解データが、前記複数の非造影CT画像のうちの一つの非造影CT画像と、前記複数の造影CT画像のうちの一つの造影CT画像との差分画像に基づいて生成されたものであり、各正解データが、前記一つの非造影CT画像と前記一つの造影CT画像とにラベリングされている、複数の正解データ、

を用いた学習を実行することにより生成されている、プログラム。
to one or more processors,
A non-contrast-enhanced CT image including a predetermined part of an imaging subject and a contrast-enhanced CT image including a predetermined part of the imaging subject are input to a trained model, and the predetermined part of the imaging subject is input to the learned model. A program for executing an operation including executing inference for distinguishing between a region in which a contrast agent is taken and a region in which a contrast agent is not taken in,
The learned model is a computer,
(1) a plurality of non-contrast CT images containing the predetermined part of a human;
(2) a plurality of contrast-enhanced CT images including the predetermined part of a human; and (3) a plurality of correct data, each correct data being one non-contrast-enhanced CT image among the plurality of non-contrast-enhanced CT images. and one contrast-enhanced CT image out of the plurality of contrast-enhanced CT images. Multiple correct data, labeled with

A program generated by performing learning using
撮影対象者の所定の部位を複数の時相で造影撮影することにより得られた複数の造影CT画像が入力されることにより、前記撮影対象者の前記所定の部位において造影剤が取り込まれた領域と造影剤が取り込まれていない領域とを判別するための推論を実行する学習済みモデルを生成する学習済みモデル生成方法であって、
コンピュータが、
(1)人間の所定の部位を前記複数の時相で造影撮影することにより得られた複数の造影CT画像、および
(2)前記複数の造影CT画像にラベリングされた複数の正解データであって、各正解データが、前記複数の時相のうちの一つの時相で撮影された造影CT画像と、前記複数の時相のうちの他の時相で撮影された造影CT画像とを差分することにより生成された差分画像に基づいて生成されたものである、複数の正解データ、

を用いた学習を実行することにより生成される、学習済みモデル生成方法。
A region in which a contrast agent is incorporated in the predetermined part of the subject by inputting a plurality of contrast-enhanced CT images obtained by contrast-enhanced imaging of the predetermined part of the subject in a plurality of time phases. A trained model generation method for generating a trained model that performs inference for discriminating between a region and a region where no contrast agent is captured,
the computer
(1) a plurality of contrast-enhanced CT images obtained by contrast-enhanced imaging of a predetermined part of a human at the plurality of time phases; and (2) a plurality of correct data labeled on the plurality of contrast-enhanced CT images, , each correct data is a difference between a contrast-enhanced CT image captured in one of the plurality of time phases and a contrast-enhanced CT image captured in another time phase of the plurality of time phases. A plurality of correct data generated based on the difference image generated by

A trained model generation method that is generated by performing learning using
JP2021075364A 2021-04-27 2021-04-27 Trained model generation method, reasoning device, medical device, and program Active JP7167239B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021075364A JP7167239B1 (en) 2021-04-27 2021-04-27 Trained model generation method, reasoning device, medical device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021075364A JP7167239B1 (en) 2021-04-27 2021-04-27 Trained model generation method, reasoning device, medical device, and program

Publications (2)

Publication Number Publication Date
JP7167239B1 JP7167239B1 (en) 2022-11-08
JP2022172417A true JP2022172417A (en) 2022-11-16

Family

ID=83944959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021075364A Active JP7167239B1 (en) 2021-04-27 2021-04-27 Trained model generation method, reasoning device, medical device, and program

Country Status (1)

Country Link
JP (1) JP7167239B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013017781A (en) * 2011-07-14 2013-01-31 Aze Ltd Medical image extraction apparatus and medical image extraction program
JP2015100699A (en) * 2013-11-20 2015-06-04 株式会社東芝 Medical image processor and medical image processing method
JP2017159180A (en) * 2017-06-27 2017-09-14 東芝メディカルシステムズ株式会社 X-ray ct apparatus and image display method
US20200294288A1 (en) * 2019-03-13 2020-09-17 The Uab Research Foundation Systems and methods of computed tomography image reconstruction
CN112529897A (en) * 2020-12-24 2021-03-19 上海商汤智能科技有限公司 Image detection method and device, computer equipment and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013017781A (en) * 2011-07-14 2013-01-31 Aze Ltd Medical image extraction apparatus and medical image extraction program
JP2015100699A (en) * 2013-11-20 2015-06-04 株式会社東芝 Medical image processor and medical image processing method
JP2017159180A (en) * 2017-06-27 2017-09-14 東芝メディカルシステムズ株式会社 X-ray ct apparatus and image display method
US20200294288A1 (en) * 2019-03-13 2020-09-17 The Uab Research Foundation Systems and methods of computed tomography image reconstruction
CN112529897A (en) * 2020-12-24 2021-03-19 上海商汤智能科技有限公司 Image detection method and device, computer equipment and storage medium

Also Published As

Publication number Publication date
JP7167239B1 (en) 2022-11-08

Similar Documents

Publication Publication Date Title
RU2469404C2 (en) Image reconstruction method and apparatus
JP5491914B2 (en) Image display apparatus and X-ray diagnostic apparatus
JP2010201157A (en) Radiodiagnostic apparatus, x-ray computer tomographic apparatus, and image processing method
US20080317195A1 (en) Medical-diagnosis assisting apparatus, medical-diagnosis assisting method, and radiodiagnosis apparatus
EP3143936B1 (en) Iterative x-ray imaging optimization method
JP5156863B2 (en) X-ray CT system
WO2012099222A1 (en) X-ray diagnostic apparatus, image processing apparatus and image processing program
JP2016146904A (en) Radiation diagnostic device
JP5390449B2 (en) Medical image processing apparatus and method, and program
JP2010154982A (en) X-ray computer tomographic imaging apparatus and image processor
JP2008537892A (en) Cardiopulmonary screening using feedback from analysis to acquisition
JP6479919B2 (en) Reconstruction of flow data
JP7167239B1 (en) Trained model generation method, reasoning device, medical device, and program
Bluemke et al. Cardiac imaging 2040
Fleischmann et al. Peripheral CT angiography for interventional treatment planning
JP2006223333A (en) Image diagnostic apparatus
US20150164450A1 (en) System and Method for Real Time 4D Quantification
JP2012176283A (en) Medical image processor
JP6873831B2 (en) Medical image diagnostic equipment, medical image processing equipment and medical image processing program
JP5591555B2 (en) X-ray diagnostic apparatus, image processing apparatus, and X-ray diagnostic system
JP5727653B2 (en) Radiation diagnostic apparatus and X-ray computed tomography apparatus
US20230230243A1 (en) Methods, devices, and systems for dynamic fluoroscopy of c-shaped arm devices
JP2020096757A (en) Medical image processing device, medical image diagnostic device and image processing program
US20230165554A1 (en) Medical image processing apparatus, x-ray diagnosis apparatus, and non-volatile computer-readable storage medium storing therein medical image processing program
JP7322262B1 (en) Apparatus for inferring virtual monochromatic X-ray image, CT system, method for creating trained neural network, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210514

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210526

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221026

R150 Certificate of patent or registration of utility model

Ref document number: 7167239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150