JP2021104195A - CT image diagnosis support device, CT image diagnosis support method, and CT image diagnosis support program - Google Patents
CT image diagnosis support device, CT image diagnosis support method, and CT image diagnosis support program Download PDFInfo
- Publication number
- JP2021104195A JP2021104195A JP2019236752A JP2019236752A JP2021104195A JP 2021104195 A JP2021104195 A JP 2021104195A JP 2019236752 A JP2019236752 A JP 2019236752A JP 2019236752 A JP2019236752 A JP 2019236752A JP 2021104195 A JP2021104195 A JP 2021104195A
- Authority
- JP
- Japan
- Prior art keywords
- image
- contrast
- enhanced
- diagnosis support
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003745 diagnosis Methods 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013528 artificial neural network Methods 0.000 claims abstract description 59
- 210000000056 organ Anatomy 0.000 claims description 63
- 238000003384 imaging method Methods 0.000 claims description 40
- 230000008569 process Effects 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 18
- 238000013459 approach Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 230000000694 effects Effects 0.000 abstract description 12
- 238000011156 evaluation Methods 0.000 abstract description 6
- 230000004936 stimulating effect Effects 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 23
- 206010028980 Neoplasm Diseases 0.000 description 22
- 238000004891 communication Methods 0.000 description 13
- 239000002872 contrast media Substances 0.000 description 12
- 238000013135 deep learning Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 210000003734 kidney Anatomy 0.000 description 5
- 238000002347 injection Methods 0.000 description 4
- 239000007924 injection Substances 0.000 description 4
- 230000029058 respiratory gaseous exchange Effects 0.000 description 4
- 206010020751 Hypersensitivity Diseases 0.000 description 3
- 208000008839 Kidney Neoplasms Diseases 0.000 description 3
- 230000007815 allergy Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 210000004185 liver Anatomy 0.000 description 3
- 210000004072 lung Anatomy 0.000 description 3
- 210000000496 pancreas Anatomy 0.000 description 3
- 206010002198 Anaphylactic reaction Diseases 0.000 description 2
- 208000001647 Renal Insufficiency Diseases 0.000 description 2
- 238000009557 abdominal ultrasonography Methods 0.000 description 2
- 208000003455 anaphylaxis Diseases 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000013170 computed tomography imaging Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 201000006370 kidney failure Diseases 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 208000005623 Carcinogenesis Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 206010062237 Renal impairment Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 208000026935 allergic disease Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000036952 cancer formation Effects 0.000 description 1
- 231100000504 carcinogenesis Toxicity 0.000 description 1
- 229940039231 contrast media Drugs 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- ZGNITFSDLCMLGI-UHFFFAOYSA-N flubendiamide Chemical compound CC1=CC(C(F)(C(F)(F)F)C(F)(F)F)=CC=C1NC(=O)C1=CC=CC(I)=C1C(=O)NC(C)(C)CS(C)(=O)=O ZGNITFSDLCMLGI-UHFFFAOYSA-N 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 231100000857 poor renal function Toxicity 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008085 renal dysfunction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、CT画像診断において医師への診断支援と、患者のX線被曝量の軽減に関するものである。 The present invention relates to diagnostic support to a doctor in CT image diagnosis and reduction of X-ray exposure dose of a patient.
健康診断などのスクリーニング検査において腹部超音波検査は優れているが、疾患の有無の診断確定には腹部造影CT検査が有用である。例えば、3cm以下の小径腎腫瘍の診断には、腹部超音波検査よりもCT検査が優れている。さらに、病変を明確にするために、造影剤を体内に注入してCT撮影(造影CT)が行われる。 Although abdominal ultrasonography is excellent in screening tests such as health examinations, abdominal contrast CT examination is useful for confirming the presence or absence of a disease. For example, CT examination is superior to abdominal ultrasonography for diagnosing small-diameter renal tumors of 3 cm or less. Further, in order to clarify the lesion, a contrast medium is injected into the body and CT imaging (contrast CT) is performed.
CT検査における造影剤を用いた撮影の懸念は、造影剤アレルギー、被曝と腎機能障害である。造影剤投与の副作用として、ショック(0.1%未満)、アナフィラキシー様症状(0.1%未満)、腎不全(頻度不明)が知られている。診断的価値がこれらを上回る患者に造影剤を使用するが、アナフィラキシー様症状などアレルギーを事前に予見する方法はなく、投与した後に急変することもある。 Contrast-enhanced imaging concerns in CT examinations are contrast agent allergies, radiation exposure and renal dysfunction. Known side effects of contrast medium administration include shock (less than 0.1%), anaphylaxis-like symptoms (less than 0.1%), and renal failure (incidence unknown). Contrast media are used in patients whose diagnostic value exceeds these, but there is no way to predict allergies such as anaphylaxis-like symptoms in advance, and they may change suddenly after administration.
腎機能低下患者においては、造影CT後の腎不全をきたす懸念により検査を回避するのが実情である。これらの理由により、造影CTを撮影できない患者は、代替えとしてMRI検査を行うが、CT検査に比較するとその画像解像度、診断能は低下する。 In patients with impaired renal function, the actual situation is to avoid the examination due to concerns about renal failure after contrast-enhanced CT. For these reasons, patients who cannot take contrast-enhanced CT perform an MRI examination as an alternative, but their image resolution and diagnostic ability are lower than those of the CT examination.
OECDデータ(https://stats.oecd.org/)によると100万人あたりのCT装置台数は、2014年において、日本は107台で1位、オーストラリアは56台で2位、アメリカは41台で3位であり、日本は世界最大の保有国である。また、救急医療の現場でも、CT画像を撮影する機会は増加している。しかし、前述のアレルギー問題などにより、救急を含めたスクリーニングで用いるCT画像の多くは、造影剤を使用しない画像(単純CT画像)である。さらに、CT検査では被曝は避けられず、CTの撮影回数、被爆量を減らすことも期待される。1000人あたりの日本のCT線検査回数は多く、発がんに伴う相対的なリスクも他国に比較して高い。 According to OECD data (https://stats.oecd.org/), the number of CT devices per million people in 2014 was 107 in Japan, the first in Australia, 56 in Australia, and 41 in the United States. Japan is the largest holding country in the world. Also, in the field of emergency medical care, opportunities to take CT images are increasing. However, due to the above-mentioned allergy problems and the like, most of the CT images used in screening including emergency are images that do not use a contrast medium (simple CT images). Furthermore, exposure is unavoidable in CT examinations, and it is expected that the number of CT scans and the amount of radiation exposure will be reduced. The number of CT scans in Japan per 1,000 people is high, and the relative risk associated with carcinogenesis is higher than in other countries.
特許文献1、非特許文献1〜3における開示のように、機械学習による処理が進み、画像処理分野において人間認識機能以上の成果を収める報告が見られ、画像認識、画像生成、データの分類など多くの各種の分野でニューラルネットによる報告がなされている。 As disclosed in Patent Document 1 and Non-Patent Documents 1 to 3, there are reports that processing by machine learning progresses and results in more than human recognition function in the field of image processing, such as image recognition, image generation, and data classification. Neural net reports have been made in many different fields.
副作用の懸念のある造影CT画像ではなく、単純CT画像から臓器の腫瘍有無を判断する指標を提供することが求められている。前述した機械学習を用いて、模擬的な造影CTや判断の根拠画像などを作成することで、医師の診断を支援するとともに患者のX線被曝量を軽減することが期待されている。そして、CT画像を撮像する際に、例えば呼吸によって臓器(例えば、腎臓、肝臓、膵臓、肺など)の位置が変化する場合であっても、精度の高い判断材料を提供することが求められている。 It is required to provide an index for determining the presence or absence of a tumor in an organ from a simple CT image instead of a contrast-enhanced CT image which may have side effects. It is expected that the above-mentioned machine learning will be used to create simulated contrast-enhanced CT and images of the basis of judgment to support the diagnosis of doctors and reduce the X-ray exposure dose of patients. Then, when capturing a CT image, it is required to provide highly accurate judgment material even when the position of an organ (for example, kidney, liver, pancreas, lung, etc.) changes due to respiration, for example. There is.
本発明は、ニューラルネットワークの学習効果を高めつつ、単純CT画像から造影CT画像に近い模擬造影画像を生成し得る技術を提供することを解決すべき課題としている。 An object to be solved by the present invention is to provide a technique capable of generating a simulated contrast image close to a contrast CT image from a simple CT image while enhancing the learning effect of a neural network.
深層学習により単純CT画像および造影CT画像のデータから造影CT作成ニューラルネットワークを構築する。構築されたニューラルネットワークを用い、単純CT画像から、模擬造影CT画像を提供するとともに、その作成過程を説明する情報を提供する。また、位置的に連続する複数の単純CT画像を入力として用いることで、立体的な情報も提供でき、医師に立体的な病変部の情報を提供できる利点がある。また、医師からの評価をニューラルネットの学習にフィードバックすることで、造影CT画像の作成能力を改善することができる。 A neural network for creating contrast-enhanced CT is constructed from data of a simple CT image and a contrast-enhanced CT image by deep learning. Using the constructed neural network, a simulated contrast CT image is provided from a simple CT image, and information for explaining the creation process is provided. Further, by using a plurality of simple CT images that are continuous in position as input, it is possible to provide three-dimensional information, and there is an advantage that information on a three-dimensional lesion can be provided to a doctor. In addition, the ability to create a contrast-enhanced CT image can be improved by feeding back the evaluation from the doctor to the learning of the neural network.
第1発明のCT画像診断支援装置は、
人体の所定部位を所定の撮像間隔で撮像して得られた複数の単純CT画像と、前記所定部位と同一部位を前記単純CT画像よりも短い撮像間隔で撮像して得られた複数の造影CT画像と、を取得する取得部と、
前記取得部によって取得された前記単純CT画像に対して最も類似度の高い前記造影CT画像を選択する選択部と、
前記取得部によって取得された前記単純CT画像と、前記選択部によって選択された前記造影CT画像とを入力して、出力される模擬造影CT画像が前記選択部によって選択された前記造影CT画像に近づくようにニューラルネットワークに学習させる学習部と、
評価対象の単純CT画像を学習済みの前記学習部に入力して出力される前記模擬造影CT画像を表示する表示部と、
を備えることを特徴とする。
The CT image diagnosis support device of the first invention is
A plurality of simple CT images obtained by imaging a predetermined part of the human body at a predetermined imaging interval, and a plurality of contrast-enhanced CT images obtained by imaging the same part as the predetermined part at a shorter imaging interval than the simple CT image. The image, the acquisition part to acquire, and
A selection unit that selects the contrast-enhanced CT image having the highest degree of similarity to the simple CT image acquired by the acquisition unit, and a selection unit.
The simple CT image acquired by the acquisition unit and the contrast CT image selected by the selection unit are input, and the output simulated contrast CT image is used as the contrast CT image selected by the selection unit. A learning unit that lets the neural network learn to approach
A display unit that displays the simulated contrast CT image that is output by inputting the simple CT image to be evaluated into the trained learning unit, and
It is characterized by having.
このように、第1発明のCT画像診断支援装置は、評価対象の単純CT画像から造影CT画像に近い模擬造影CT画像を生成することができる。そのため、造影CT画像の代わりに模擬造影CT画像をCT画像診断に用いることで、被験者の診断における負担を低減することができる。その上で、学習部に入力される造影CT画像として、単純CT画像に対して類似度の最も高い造影CT画像を選択することで、学習部に入力される単純CT画像と造影CT画像の対応精度を向上させることができる。これにより、ニューラルネットワークの学習効果を高めることができる。 As described above, the CT image diagnosis support device of the first invention can generate a simulated contrast CT image close to the contrast CT image from the simple CT image to be evaluated. Therefore, by using a simulated contrast CT image for CT image diagnosis instead of the contrast CT image, it is possible to reduce the burden on the subject's diagnosis. Then, by selecting the contrast-enhanced CT image having the highest degree of similarity to the simple CT image as the contrast-enhanced CT image input to the learning unit, the correspondence between the simple CT image and the contrast-enhanced CT image input to the learning unit The accuracy can be improved. As a result, the learning effect of the neural network can be enhanced.
第1発明のCT画像診断支援装置において、
前記取得部によって取得された前記単純CT画像および前記造影CT画像から、それぞれ所定の臓器を抽出した臓器領域画像を生成する抽出部を備え、
前記学習部は、前記抽出部によって生成された前記臓器領域画像を入力してもよい。
In the CT image diagnosis support device of the first invention
An extraction unit for generating an organ region image obtained by extracting a predetermined organ from the simple CT image and the contrast-enhanced CT image acquired by the acquisition unit is provided.
The learning unit may input the organ region image generated by the extraction unit.
このような構成によって、学習部に入力される単純CT画像および造影CT画像として、抽出部によって所定の臓器を抽出した臓器領域画像が生成される。そのため、所定の臓器とは異なる臓器の影響を受けることなく、所定の臓器に着目したニューラルネットワークによる処理を行うことができる。これにより、表示部は、所定の臓器を抽出した模擬造影CT画像を表示することができる。 With such a configuration, an organ region image obtained by extracting a predetermined organ by the extraction unit is generated as a simple CT image and a contrast CT image input to the learning unit. Therefore, it is possible to perform processing by a neural network focusing on a predetermined organ without being affected by an organ different from the predetermined organ. As a result, the display unit can display a simulated contrast-enhanced CT image extracted from a predetermined organ.
第2発明のCT画像診断支援方法は、
人体の所定部位を所定の撮像間隔で撮像して得られた複数の単純CT画像と、前記所定部位と同一部位を前記単純CT画像よりも短い撮像間隔で撮像して得られた複数の造影CT画像と、を取得する取得工程と、
前記取得工程で取得された前記単純CT画像に対して最も類似度の高い前記造影CT画像を選択する選択工程と、
前記取得工程で取得された前記単純CT画像と、前記選択工程で選択された前記造影CT画像とを入力して、出力される模擬造影CT画像が前記選択工程で選択された前記造影CT画像に近づくようにニューラルネットワークに学習させる学習工程と、
評価対象の単純CT画像を学習済みの前記ニューラルネットワークに入力して出力される前記模擬造影CT画像を表示する表示工程と、
を含むことを特徴とする。
The CT image diagnosis support method of the second invention is
A plurality of simple CT images obtained by imaging a predetermined part of the human body at a predetermined imaging interval, and a plurality of contrast-enhanced CT images obtained by imaging the same part as the predetermined part at a shorter imaging interval than the simple CT image. The image, the acquisition process to acquire, and
A selection step of selecting the contrast-enhanced CT image having the highest degree of similarity to the simple CT image acquired in the acquisition step, and
The simple CT image acquired in the acquisition step and the contrast CT image selected in the selection step are input, and the output simulated contrast CT image is used as the contrast CT image selected in the selection step. A learning process that trains a neural network to get closer,
A display step of inputting a simple CT image to be evaluated into the trained neural network and displaying the simulated contrast CT image output.
It is characterized by including.
このように、第2発明のCT画像診断支援方法は、評価対象の単純CT画像から造影CT画像に近い模擬造影CT画像を生成することができる。そのため、造影CT画像の代わりに模擬造影CT画像をCT画像診断に用いることで、被験者の診断における負担を低減することができる。その上で、ニューラルネットワークに入力される造影CT画像として、単純CT画像に対して類似度の最も高い造影CT画像を選択することで、ニューラルネットワークに入力される単純CT画像と造影CT画像の対応精度を向上させることができる。これにより、ニューラルネットワークの学習効果を高めることができる。 As described above, the CT image diagnosis support method of the second invention can generate a simulated contrast CT image close to the contrast CT image from the simple CT image to be evaluated. Therefore, by using a simulated contrast CT image for CT image diagnosis instead of the contrast CT image, it is possible to reduce the burden on the subject's diagnosis. Then, by selecting the contrast-enhanced CT image having the highest degree of similarity to the simple CT image as the contrast-enhanced CT image input to the neural network, the correspondence between the simple CT image and the contrast-enhanced CT image input to the neural network The accuracy can be improved. As a result, the learning effect of the neural network can be enhanced.
第2発明のCT画像診断支援方法において、
前記取得工程で取得された前記単純CT画像および前記造影CT画像から、それぞれ所定の臓器を抽出した臓器領域画像を生成する抽出工程を含み、
前記学習工程では、前記抽出工程で生成された前記臓器領域画像を前記ニューラルネットワークに入力してもよい。
In the CT image diagnosis support method of the second invention,
It includes an extraction step of generating an organ region image obtained by extracting a predetermined organ from the simple CT image and the contrast CT image acquired in the acquisition step.
In the learning step, the organ region image generated in the extraction step may be input to the neural network.
このような構成によって、ニューラルネットワークに入力される単純CT画像および造影CT画像として、抽出工程で所定の臓器を抽出した臓器領域画像が生成される。そのため、所定の臓器とは異なる臓器の影響を受けることなく、所定の臓器に着目したニューラルネットワークによる処理を行うことができる。これにより、表示工程で、所定の臓器を抽出した模擬造影CT画像を表示することができる。 With such a configuration, an organ region image obtained by extracting a predetermined organ in the extraction step is generated as a simple CT image and a contrast CT image input to the neural network. Therefore, it is possible to perform processing by a neural network focusing on a predetermined organ without being affected by an organ different from the predetermined organ. This makes it possible to display a simulated contrast-enhanced CT image extracted from a predetermined organ in the display step.
第3発明のCT画像診断支援プログラムは、
コンピュータを、
人体の所定部位を所定の撮像間隔で撮像して得られた複数の単純CT画像と、前記所定部位と同一部位を前記単純CT画像よりも短い撮像間隔で撮像して得られた複数の造影CT画像と、を取得する取得手段、
前記取得手段によって取得された前記単純CT画像に対して最も類似度の高い前記造影CT画像を選択する選択手段、
前記取得手段によって取得された前記単純CT画像と、前記選択手段によって選択された前記造影CT画像とを入力して、出力される模擬造影CT画像が前記選択手段によって選択された前記造影CT画像に近づくようにニューラルネットワークに学習させる学習手段、
評価対象の単純CT画像を学習済みの前記ニューラルネットワークに入力して出力される前記模擬造影CT画像を表示する表示手段、
として機能させることを特徴とする。
The CT image diagnosis support program of the third invention is
Computer,
A plurality of simple CT images obtained by imaging a predetermined part of the human body at a predetermined imaging interval, and a plurality of contrast-enhanced CT images obtained by imaging the same part as the predetermined part at a shorter imaging interval than the simple CT image. Image and acquisition method,
A selection means for selecting the contrast-enhanced CT image having the highest degree of similarity to the simple CT image acquired by the acquisition means.
The simple CT image acquired by the acquisition means and the contrast CT image selected by the selection means are input, and the output simulated contrast CT image is used as the contrast CT image selected by the selection means. A learning method that trains a neural network to approach
A display means for displaying the simulated contrast CT image output by inputting the simple CT image to be evaluated into the trained neural network.
It is characterized by functioning as.
このように、第3発明のCT画像診断支援プログラムは、評価対象の単純CT画像から造影CT画像に近い模擬造影CT画像を生成することができる。そのため、造影CT画像の代わりに模擬造影CT画像をCT画像診断に用いることで、被験者の診断における負担を低減することができる。その上で、ニューラルネットワークに入力される造影CT画像として、単純CT画像に対して類似度の最も高い造影CT画像を選択することで、ニューラルネットワークに入力される単純CT画像と造影CT画像の対応精度を向上させることができる。これにより、ニューラルネットワークの学習効果を高めることができる。 As described above, the CT image diagnosis support program of the third invention can generate a simulated contrast CT image close to the contrast CT image from the simple CT image to be evaluated. Therefore, by using a simulated contrast CT image for CT image diagnosis instead of the contrast CT image, it is possible to reduce the burden on the subject's diagnosis. Then, by selecting the contrast-enhanced CT image having the highest degree of similarity to the simple CT image as the contrast-enhanced CT image input to the neural network, the correspondence between the simple CT image and the contrast-enhanced CT image input to the neural network The accuracy can be improved. As a result, the learning effect of the neural network can be enhanced.
第3発明のCT画像診断支援プログラムにおいて、
前記コンピュータを、
前記取得手段で取得された前記単純CT画像および前記造影CT画像から、それぞれ所定の臓器を抽出した臓器領域画像を生成する抽出手段として機能させ、
前記学習手段は、前記抽出手段によって生成された前記臓器領域画像を入力してもよい。
In the CT image diagnosis support program of the third invention
The computer
It is made to function as an extraction means for generating an organ region image obtained by extracting a predetermined organ from the simple CT image and the contrast CT image acquired by the acquisition means.
The learning means may input the organ region image generated by the extraction means.
このような構成によって、ニューラルネットワークに入力される単純CT画像および造影CT画像として、抽出手段によって所定の臓器を抽出した臓器領域画像が生成される。そのため、所定の臓器とは異なる臓器の影響を受けることなく、所定の臓器に着目したニューラルネットワークによる処理を行うことができる。これにより、表示手段は、所定の臓器を抽出した模擬造影CT画像を表示することができる。 With such a configuration, an organ region image obtained by extracting a predetermined organ by an extraction means is generated as a simple CT image and a contrast CT image input to the neural network. Therefore, it is possible to perform processing by a neural network focusing on a predetermined organ without being affected by an organ different from the predetermined organ. As a result, the display means can display a simulated contrast-enhanced CT image extracted from a predetermined organ.
したがって、第1発明のCT画像診断支援装置、第2発明のCT画像診断支援方法、第3発明のCT画像診断支援プログラムは、ニューラルネットワークの学習効果を高めつつ、単純CT画像から造影CT画像に近い模擬造影画像を生成することができる。 Therefore, the CT image diagnosis support device of the first invention, the CT image diagnosis support method of the second invention, and the CT image diagnosis support program of the third invention change from a simple CT image to a contrast CT image while enhancing the learning effect of the neural network. A close simulated contrast image can be generated.
次に、本発明のCT画像診断支援装置、CT画像診断支援方法、およびCT画像診断支援プログラムを具体化した実施例1について、図面を参照しつつ説明する。 Next, Example 1 that embodies the CT image diagnosis support device, the CT image diagnosis support method, and the CT image diagnosis support program of the present invention will be described with reference to the drawings.
<実施例1>
(CT画像診断支援装置の概略)
実施例1のCT画像診断支援装置10は、図1に示す学習処理および診断支援処理を行う。CT画像診断支援装置10は、本発明のCT画像診断支援プログラムに基づく深層学習により、単純CT画像および造影CT画像から造影CT画像の作成ニューラルネットワーク(造影CTニューラルネットワーク)を構築する。そして、CT画像診断支援装置10は、構築された造影CTニューラルネットワークを用い、単純CT画像から、模擬造影CT画像を提供する。
<Example 1>
(Outline of CT image diagnosis support device)
The CT image
具体的には、図1に示すように、CT画像診断支援装置10は、単純CT画像、腫瘍情報、造影CT画像、および撮影情報が入力される。単純CT画像および造影CT画像は、被験者を連続した異なる断層像位置でX線走査して得られる複数の画像である。単純CT画像、被験者に造影剤を投与することなく得られる画像である。造影CT画像は、被験者に造影剤を投与して得られる画像である。腫瘍情報は、例えば、過去に診断された所定の臓器における腫瘍の有無、腫瘍の形態・位置・範囲等を特定する情報である。撮影情報は、撮影の種類(単純CT画像又は造影CT画像)、スライス厚さ、その他の撮影条件等の情報である。
Specifically, as shown in FIG. 1, the CT image
そして、CT画像診断支援装置10は、入力された各種情報に基づいて、前処理(後述する位置合わせ、マスク処理)を行う。CT画像診断支援装置10は、前処理した情報を学習用データとして、深層学習を行う。深層学習では、造影CTを作成するためのニューラルネットワーク(造影CTニューラルネットワーク)に学習用データを入力して学習させ、学習済みニューラルネットワークを構築する。学習済みニューラルネットワークは、造影CTを作成するためのプログラム(造影CT画像作成プログラム)に用いられる。造影CT画像作成プログラムは、単純CT画像を入力として、造影CT画像に近い模擬造影CT画像を出力させる。例えば、図2に示すように、(A)の単純CT画像に基づいて、(C)の造影CT画像に近い(B)の模擬造影CT画像を生成することができる。
Then, the CT image
(CT画像診断支援装置の構成)
図3に示すCT画像診断支援装置10は、例えばコンピュータなどの情報処理装置として構成されている。図3に示すように、CT画像診断支援装置10は、制御部11と、記憶部12と、通信部13と、入力部14と、表示部15と、を有している。
(Configuration of CT image diagnosis support device)
The CT image
制御部11は、例えばマイクロコンピュータなどの情報処理を行う装置として構成され、CPUなどの演算装置及び他の周辺回路などを備えてなり、様々な制御や演算を行い得る。制御部11は、記憶部12に格納されているプログラムに従った各種処理を実行する。制御部11は、本発明の「取得部」「取得手段」に相当し、同一部位を撮像した単純CT画像および造影CT画像を取得するように機能する。制御部11は、本発明の「選択部」「選択手段」に相当し、単純CT画像に対して最も類似度の高い造影CT画像を選択するように機能する。また、制御部11は、本発明の「学習部」「学習手段」に相当し、取得した単純CT画像と、選択した造影CT画像とを入力して、出力される模擬造影CT画像が選択された造影CT画像に近づくようにニューラルネットワークに学習させるように機能する。制御部11は、本発明の「抽出部」「抽出手段」に相当し、単純CT画像および造影CT画像から、それぞれ所定の臓器を抽出した臓器領域画像を生成するように機能する。
The
記憶部12は、例えば半導体メモリ装置などの公知の記憶装置によって構成されており、例えばRAM、ROM、不揮発性メモリなどがこれに相当する。記憶部12は、各プログラム等を格納している。記憶部12は、格納するプログラム等を、後述する通信部13を介してサーバから受信してもよい。記憶部12は、例えば、後述する通信部13を介して病院内のデータサーバから入手したデータ等を、学習用データとして記憶する。
The
通信部13は、サーバ等と無線通信又は有線通信を行う通信装置である。通信部13は、病院内のデータサーバ等と通信可能になっている。通信部13は、本発明の「取得部」「取得手段」に相当する。入力部14は、例えば、キーボード、マウス、スキャナ等によって構成され、データを入力する装置である。表示部15は、例えば、液晶ディスプレイや有機エレクトロルミネッセンスディスプレイなどの公知の画像表示装置として構成されている。表示部15は、本発明の「表示手段」に相当する。
The
(CT画像診断支援装置の学習制御)
次に、CT画像診断支援装置10の学習制御について、図4等を参照して説明する。図4は、制御部11で行われる処理である。
まず、制御部11は、図4に示すように、通信部13を介して複数の単純CT画像、および複数の造影CT画像を取得する(ステップS11、「取得工程」)。CT画像は、DICOM (Digital Imaging and COmmunication in Medicine) 規格に準じているものを使用する。図5に示すように、単純CT画像は、造影剤の注射前に撮像されるCT画像である。造影CT画像は、造影剤を注射した後、例えば動脈層(造影剤注射から30秒経過後)、静脈層(造影剤注射から1分30秒経過後)、排泄層(造影剤注射から3分〜5分経過後)において撮像される。単純CT画像は、人体の所定部位を所定の撮像間隔で撮像して得られた画像である。単純CT画像は、図5に示すように、z方向(検出器のスライド方向)スライス厚さが例えば5mm間隔で撮像される。造影CT画像は、単純CT画像の撮像範囲と同一の範囲(所定部位と同一部位)を撮像して得られた画像である。造影CT画像は、単純CT画像よりも短い撮像間隔(z方向スライス厚さが例えば1mm間隔)で撮像して得られる。
(Learning control of CT image diagnosis support device)
Next, the learning control of the CT image
First, as shown in FIG. 4, the
ここで、CT撮影時において、被験者は検査台に仰向けに寝かせられ、腹部および胸部をはじめ呼吸の影響を受ける部位を撮影する時は呼吸を止める。後に続くステップでは、同じ部位を撮像した単純CT画像と造影CT画像のペアを入力画像として、ニューラルネットワークの学習が行われる。その際、検査台の位置を基準として、単純CT画像と造影CT画像の対応をとることになるが、背骨など固定的な部位と異なり呼吸により体内の位置が変わる部位には、単純CT画像と造影CT画像との間の位置関係にずれが生じる。そこで、ステップS12の処理を行う。 Here, at the time of CT imaging, the subject is laid on his / her back on the examination table, and when imaging the abdomen, chest, and other parts affected by breathing, the subject stops breathing. In the steps that follow, the neural network is trained using a pair of a simple CT image and a contrast CT image that capture the same part as an input image. At that time, the simple CT image and the contrast-enhanced CT image are associated with each other based on the position of the examination table. There is a deviation in the positional relationship with the contrast-enhanced CT image. Therefore, the process of step S12 is performed.
ステップS12では、制御部11は、ステップS11で取得した単純CT画像に対して、ステップS11で取得した最も類似度の高い造影CT画像を選択する(位置合わせ、「選択工程」)。具体的には、制御部11は、造影CT画像は1mm刻み(z方向スライス厚さである1mm間隔)で撮影されているので、5mm刻み(z方向スライス厚さである5mm間隔)の単純CT画像に対して最も類似度の高い造影CT画像を選択する。すなわち、各単純CT画像に対して、それぞれ最も類似度の高い造影CT画像を抽出する。類似度の判定は、公知の様々な方法を用いることができ、例えば各画像のCT値の分布を比較する方法や、画像内の特徴点を抽出して比較する方法等がある。ここで、x方向(z方向に直交する水平方向)、およびy方向(z方向およびx方向に直交する方向(鉛直方向))についても調整して類似度を判定する。なお、CT画像において、x方向は検査台に仰向けになった人体の左右方向に相当し、y方向は検査台に仰向けになった人体の前後方向に相当し、z方向は画像断面に直交する方向である。具体的には、造影CT画像を単純CT画像と比較する際に、単純CT画像に対して造影CT画像をx方向およびy方向にずらしながら類似度を判定する。なお、類似度の判定において、呼吸によって位置が変動する臓器(例えば、腎臓、肝臓、膵臓、肺など)に対して、その周囲にある位置が変動しない臓器を基準にすることや、位置が変動する臓器の形状等を基準にすることができる。このようにして、単純CT画像と造影CT画像の対応精度を向上させ、ニューラルネットの学習効果を高めることができる。
In step S12, the
なお、例えばCT検査の対象となる小径腎腫瘍診断では、5mm刻みの単純CT画像は数枚しか存在しないことになる。そこで、造影CT画像が1mm刻みで撮影されているため、5mm刻みの単純CT画像についても補間(公知の線形補間)して1mm刻みの単純CT画像を作成することで、学習効果を高めることができる。 For example, in the diagnosis of small-diameter renal tumor that is the target of CT examination, there are only a few simple CT images in 5 mm increments. Therefore, since the contrast-enhanced CT image is taken in 1 mm increments, the learning effect can be enhanced by interpolating the simple CT image in 5 mm increments (known linear interpolation) to create a simple CT image in 1 mm increments. can.
続いて、ステップS13では、制御部11は、CT画像のマスク処理を行う(「抽出工程」)。具体的には、制御部11は、ステップS11で取得した単純CT画像、およびステップS12で選択した造影CT画像から、それぞれ所定の臓器を抽出した臓器領域画像を生成する。CT画像から臓器領域を抽出する方法は、公知の方法を用いることができる。例えば、制御部11は、各CT画像において、CT値の濃度値ヒストグラムを求め、濃度値ヒストグラムのピーク値に基づいて所定の臓器(例えば腎臓)の臓器候補領域を抽出する。正常な所定の臓器のCT値に基づいて、濃度値ヒストグラムのピーク値近傍を所定の臓器の臓器候補領域とすることができる。このような処理は、例えば、FUJIFILM社の3次元画像解析システムボリュームアナライザー SYNAPSE VINCENTを用いて行う。そして、制御部11は、CT画像から、臓器候補領域以外の臓器領域の差分処理を行うことで、臓器領域画像を生成する。なお、制御部11は、CT画像に対して、公知のノイズ除去処理や、平滑処理等を行ってもよい。このようにすることで、制御部11は、対象部位だけを取り出した画像(マスク画像)に対した処理を行うことができ、腫瘍のある部位に着目した後述するニューラルネットワークによる処理ができるようになる。そのため、周りの臓器の影響を低減し、模擬造影CT画像の精度を高めることができる。
Subsequently, in step S13, the
続いて、ステップS14では、制御部11は、学習処理を行う(「学習工程」)。制御部11は、ステップS11で取得した単純CT画像、およびステップS12で選択した造影CT画像を入力して、出力される模擬造影CT画像がステップS12で選択した造影CT画像に近づくように造影CTニューラルネットワークに学習させる。造影CTニューラルネットワークは、例えば、処理対象画像(単純CT画像および造影CT画像)を入力する入力層と、一つ以上の中間層と、模擬造影CT画像を出力する出力層とから成る三層構造となっている。各層は所要とする数のニューロン素子で構成され、各層間が結合重み係数により結合されている。この造影CTニューラルネットワークに学習用データを与えて学習させることで、造影CT画像作成プログラムに用いられる学習済みニューラルネットワークを構築することができる。ステップS14の処理後、制御部11は、図4の学習処理を終了する。
Subsequently, in step S14, the
(模擬造影CT画像生成制御)
次に、CT画像診断支援装置10の模擬造影CT画像生成制御について、図6等を参照して説明する。図6は、制御部11で行われる処理である。
まず、ステップS21では、制御部11は、通信部13を介して評価対象の単純CT画像を取得する。続いて、ステップS22では、制御部11は、ステップS21で取得した評価対象の単純CT画像を、学習済みのニューラルネットワークに入力する。そして、制御部11は、造影CT画像作成プログラムに基づく制御により、学習済みのニューラルネットワークの出力部から模擬造影CT画像を出力させる。続いて、ステップS23では、制御部11は、ステップS22で出力された模擬造影CT画像を表示部15に表示させる(「表示工程」)。ステップS23の処理後、制御部11は、図6の模擬造影CT画像生成制御を終了する。
(Simulated contrast CT image generation control)
Next, the simulated contrast CT image generation control of the CT image
First, in step S21, the
(模擬造影CT画像の評価)
次に、模擬造影CT画像生成制御によって生成された模擬造影CT画像の評価について説明する。
図7は、位置合わせを行わない場合(上段)、位置合わせを行った場合(中段)、および画像補間を行った場合(下段)における、単純CT画像、模擬造影CT画像、および造影CT画像の一例である。単純CT画像と造影CT画像は、同じ対象部位(腎臓及びその周辺)を撮像した画像である。位置合わせを行わない場合であっても、図7(B)の模擬造影CT画像は、図7(C)の造影CT画像に近い画像になっている。また、マスク処理を行い(図7(D)の模擬造影CT画像、図7(E)の造影CT画像)、その差分を取ると、図7(F)のようにわずかに誤差が生じている。
(Evaluation of simulated contrast CT image)
Next, the evaluation of the simulated contrast CT image generated by the simulated contrast CT image generation control will be described.
FIG. 7 shows the simple CT image, the simulated contrast CT image, and the contrast CT image when the alignment is not performed (upper row), the alignment is performed (middle row), and the image interpolation is performed (lower row). This is an example. The simple CT image and the contrast-enhanced CT image are images obtained by capturing the same target site (kidney and its surroundings). Even when the alignment is not performed, the simulated contrast CT image of FIG. 7 (B) is an image close to the contrast CT image of FIG. 7 (C). Further, when mask processing is performed (simulated contrast CT image of FIG. 7 (D) and contrast CT image of FIG. 7 (E)) and the difference is taken, a slight error occurs as shown in FIG. 7 (F). ..
位置合わせを行った場合、位置合わせを行わない場合に比べて、図7(H)の模擬造影CT画像は、図7(I)の造影CT画像により一層近い画像になっている。また、マスク処理を行い(図7(J)の模擬造影CT画像、図7(K)の造影CT画像)、その差分を取ると、位置合わせを行わない場合に比べて、図7(L)のように誤差が大きく低減している。 When the alignment is performed, the simulated contrast CT image of FIG. 7 (H) is closer to the contrast CT image of FIG. 7 (I) than the case where the alignment is not performed. Further, when mask processing is performed (simulated contrast CT image of FIG. 7 (J) and contrast CT image of FIG. 7 (K)) and the difference is taken, FIG. 7 (L) is compared with the case where the alignment is not performed. The error is greatly reduced as shown in.
単純CT画像の補間を行った場合、単純CT画像の補間を行わない場合(図7(A)〜(L))に比べて、図7(N)の模擬造影CT画像は、図7(O)の造影CT画像により一層近い画像になっている。また、マスク処理を行い(図7(P)の模擬造影CT画像、図7(Q)の造影CT画像)、その差分を取ると、補間を行わない場合に比べて、図7(R)のように誤差がさらに大きく低減している。 Compared with the case where the simple CT image is interpolated and the case where the simple CT image is not interpolated (FIGS. 7 (A) to (L)), the simulated contrast CT image of FIG. 7 (N) is shown in FIG. 7 (O). ) Is closer to the contrast CT image. Further, when mask processing is performed (simulated contrast CT image of FIG. 7 (P) and contrast CT image of FIG. 7 (Q)) and the difference is taken, as compared with the case where interpolation is not performed, FIG. 7 (R) shows. As a result, the error is further reduced.
図8は、マスク処理を行った場合において、位置合わせの有無による、各種誤差および相関係数の算出結果を示す図である。
図8は、生成画像のXn,fake(模擬造影CT画像のCT値)と、実際の画像Xn,real(造影CT画像のCT値)を比較している。具体的には、平均絶対誤差は、以下の式(数1)で算出し、平均平方二乗誤差は、以下の式(数2)で算出し、相関係数は、以下の式(数3)で算出した。なお、N=6(うち4つは補間)、w=256、h=256である。
FIG. 8 is a diagram showing calculation results of various errors and correlation coefficients depending on the presence or absence of alignment when mask processing is performed.
FIG. 8 compares the Xn, fake (CT value of the simulated contrast CT image) of the generated image with the actual image Xn, real (CT value of the contrast CT image). Specifically, the mean absolute error is calculated by the following formula (Equation 1), the mean square error is calculated by the following formula (Equation 2), and the correlation coefficient is calculated by the following formula (Equation 3). Calculated in. N = 6 (four of which are interpolated), w = 256, and h = 256.
図8に示すように、全ての位置(zの値)で、位置合わせを行わない場合に比べて、位置合わせを行う場合の方が、相関係数が大きくなっている。すなわち、位置合わせを行うことで、模擬造影CT画像が造影CT画像により一層近くなっている。 As shown in FIG. 8, the correlation coefficient is larger in the case of performing the alignment than in the case of not performing the alignment at all the positions (values of z). That is, by performing the alignment, the simulated contrast CT image is closer to the contrast CT image.
(実施例1の効果)
実施例1のCT画像診断支援装置10は、評価対象の単純CT画像から造影CT画像に近い模擬造影CT画像を生成することができる。そのため、造影CT画像の代わりに模擬造影CT画像をCT画像診断に用いることで、被験者の診断における負担を低減することができる。その上で、制御部11に入力される造影CT画像として、単純CT画像に対して類似度の最も高い造影CT画像を選択することで、制御部11に入力される単純CT画像と造影CT画像の対応精度を向上させることができる。これにより、ニューラルネットワークの学習効果を高めることができる。
(Effect of Example 1)
The CT image
また、実施例1のCT画像診断支援装置10は、制御部11に入力される単純CT画像および造影CT画像として、所定の臓器を抽出した臓器領域画像が生成される。そのため、所定の臓器とは異なる臓器や骨などの影響を受けることなく、所定の臓器に着目したニューラルネットワークによる処理を行うことができる。これにより、表示部15は、所定の臓器を抽出した模擬造影CT画像を表示することができる。
Further, the CT image
<実施例2>
実施例2のCT画像診断支援装置10は、図9に示すように、実施例1で説明した模擬造影CT画像処理に加え、腫瘍判断支援処理を行う。具体的には、CT画像診断支援装置10は、腫瘍判断支援プログラムに基づく深層学習により、単純CT画像および造影CT画像から腫瘍の有無を判断する腫瘍判断ニューラルネットワークを構築する。そして、CT画像診断支援装置10は、構築された腫瘍判断ニューラルネットワークを用い、単純CT画像から、医師に腫瘍有無の判断指標を提供する。
<Example 2>
As shown in FIG. 9, the CT image
実施例2のCT画像診断支援装置10の学習処理では、制御部11は、単純CT画像、腫瘍情報、造影CT画像、および撮影情報を学習用データとして入力して、出力される腫瘍判断が腫瘍情報(腫瘍の大きさ、位置等)に近づくように腫瘍判断ニューラルネットワークに学習させる。この腫瘍判定ニューラルネットワークに学習用データを与えて学習させることで、腫瘍判断プログラムに用いられる学習済みニューラルネットワークを構築することができる。
In the learning process of the CT image
なお、実施例2のCT画像診断支援装置10では、評価対象の単純CT画像に対する腫瘍判断処理において、相対的な数値等によって評価結果を提示してもよい。また、公知の方法(例えば、非特許文献(Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization、https://arxiv.org/abs/1610.02391)に開示される方法)を用いて、評価対象の単純CT画像に対するヒートマップを提示してもよい。
In the CT image
本発明は上記記述及び図面によって説明した実施例1に限定されるものではなく、例えば次のような実施例も本発明の技術的範囲に含まれる。
実施例1では、医師から模擬造影CT画像の内容の妥当性について評価を取得し、造影CTニューラルネットにフィードバック(学習データに反映)してもよい。これにより、造影CTニューラルネットは、自動的に医師の知見に基づき学習することができる。
実施例2では、さらに、医師がその提供情報の妥当性を判断することでニューラルネットの学習にフィードバックし、常時ニューラルネットの学習に活用させることができる。これにより、より一層医師の診断に役立てることができる。
実施例2では、模擬造影CT画像処理に加え、腫瘍判断支援処理を行う構成であったが、腫瘍判断支援処理のみを行う構成であってもよい。
実施例1,2において腎臓を例に示したが、他の臓器、例えば、肝臓、膵臓、肺などにおいても同様に適用できる。
The present invention is not limited to the first embodiment described by the above description and drawings, and for example, the following examples are also included in the technical scope of the present invention.
In Example 1, the validity of the content of the simulated contrast CT image may be obtained from a doctor and fed back to the contrast CT neural net (reflected in the learning data). As a result, the contrast CT neural network can be automatically learned based on the knowledge of the doctor.
In the second embodiment, the doctor further determines the validity of the provided information, so that the information can be fed back to the learning of the neural network and can be constantly utilized for the learning of the neural network. This makes it even more useful for doctors' diagnosis.
In Example 2, in addition to the simulated contrast CT image processing, the tumor judgment support processing is performed, but the configuration may be such that only the tumor judgment support processing is performed.
Although the kidney is shown as an example in Examples 1 and 2, the same can be applied to other organs such as liver, pancreas, and lung.
10…CT画像診断支援装置
11…制御部
12…記憶部
13…通信部
14…入力部
15…表示部
10 ... CT image
Claims (6)
前記取得部によって取得された前記単純CT画像に対して最も類似度の高い前記造影CT画像を選択する選択部と、
前記取得部によって取得された前記単純CT画像と、前記選択部によって選択された前記造影CT画像とを入力して、出力される模擬造影CT画像が前記選択部によって選択された前記造影CT画像に近づくようにニューラルネットワークに学習させる学習部と、
評価対象の単純CT画像を学習済みの前記学習部に入力して出力される前記模擬造影CT画像を表示する表示部と、
を備えることを特徴とするCT画像診断支援装置。 A plurality of simple CT images obtained by imaging a predetermined part of the human body at a predetermined imaging interval, and a plurality of contrast-enhanced CT images obtained by imaging the same part as the predetermined part at a shorter imaging interval than the simple CT image. The image, the acquisition part to acquire, and
A selection unit that selects the contrast-enhanced CT image having the highest degree of similarity to the simple CT image acquired by the acquisition unit, and a selection unit.
The simple CT image acquired by the acquisition unit and the contrast CT image selected by the selection unit are input, and the output simulated contrast CT image is used as the contrast CT image selected by the selection unit. A learning unit that lets the neural network learn to approach
A display unit that displays the simulated contrast-enhanced CT image that is output by inputting a simple CT image to be evaluated into the learned unit that has already been trained.
A CT image diagnosis support device comprising.
前記学習部は、前記抽出部によって生成された前記臓器領域画像を入力することを特徴とする請求項1に記載のCT画像診断支援装置。 An extraction unit for generating an organ region image obtained by extracting a predetermined organ from the simple CT image and the contrast-enhanced CT image acquired by the acquisition unit is provided.
The CT image diagnosis support device according to claim 1, wherein the learning unit inputs an image of the organ region generated by the extraction unit.
前記取得工程で取得された前記単純CT画像に対して最も類似度の高い前記造影CT画像を選択する選択工程と、
前記取得工程で取得された前記単純CT画像と、前記選択工程で選択された前記造影CT画像とを入力して、出力される模擬造影CT画像が前記選択工程で選択された前記造影CT画像に近づくようにニューラルネットワークに学習させる学習工程と、
評価対象の単純CT画像を学習済みの前記ニューラルネットワークに入力して出力される前記模擬造影CT画像を表示する表示工程と、
を含むことを特徴とするCT画像診断支援方法。 A plurality of simple CT images obtained by imaging a predetermined part of the human body at a predetermined imaging interval, and a plurality of contrast-enhanced CT images obtained by imaging the same part as the predetermined part at a shorter imaging interval than the simple CT image. The image, the acquisition process to acquire, and
A selection step of selecting the contrast-enhanced CT image having the highest degree of similarity to the simple CT image acquired in the acquisition step, and
The simple CT image acquired in the acquisition step and the contrast CT image selected in the selection step are input, and the output simulated contrast CT image is used as the contrast CT image selected in the selection step. A learning process that trains a neural network to get closer,
A display step of inputting a simple CT image to be evaluated into the trained neural network and displaying the simulated contrast CT image output.
A CT image diagnosis support method comprising.
前記学習工程では、前記抽出工程で生成された前記臓器領域画像を前記ニューラルネットワークに入力することを特徴とする請求項3に記載のCT画像診断支援方法。 It includes an extraction step of generating an organ region image obtained by extracting a predetermined organ from the simple CT image and the contrast CT image acquired in the acquisition step.
The CT image diagnosis support method according to claim 3, wherein in the learning step, the organ region image generated in the extraction step is input to the neural network.
人体の所定部位を所定の撮像間隔で撮像して得られた複数の単純CT画像と、前記所定部位と同一部位を前記単純CT画像よりも短い撮像間隔で撮像して得られた複数の造影CT画像と、を取得する取得手段、
前記取得手段によって取得された前記単純CT画像に対して最も類似度の高い前記造影CT画像を選択する選択手段、
前記取得手段によって取得された前記単純CT画像と、前記選択手段によって選択された前記造影CT画像とを入力して、出力される模擬造影CT画像が前記選択手段によって選択された前記造影CT画像に近づくようにニューラルネットワークに学習させる学習手段、
評価対象の単純CT画像を学習済みの前記ニューラルネットワークに入力して出力される前記模擬造影CT画像を表示する表示手段、
として機能させることを特徴とするCT画像診断支援プログラム。 Computer,
A plurality of simple CT images obtained by imaging a predetermined part of the human body at a predetermined imaging interval, and a plurality of contrast-enhanced CT images obtained by imaging the same part as the predetermined part at a shorter imaging interval than the simple CT image. Image and acquisition method,
A selection means for selecting the contrast-enhanced CT image having the highest degree of similarity to the simple CT image acquired by the acquisition means.
The simple CT image acquired by the acquisition means and the contrast CT image selected by the selection means are input, and the output simulated contrast CT image is used as the contrast CT image selected by the selection means. A learning method that trains a neural network to approach
A display means for displaying the simulated contrast CT image output by inputting the simple CT image to be evaluated into the trained neural network.
A CT image diagnosis support program characterized by functioning as.
前記取得手段で取得された前記単純CT画像および前記造影CT画像から、それぞれ所定の臓器を抽出した臓器領域画像を生成する抽出手段として機能させ、
前記学習手段は、前記抽出手段によって生成された前記臓器領域画像を入力することを特徴とする請求項5に記載のCT画像診断支援プログラム。 The computer
It is made to function as an extraction means for generating an organ region image obtained by extracting a predetermined organ from the simple CT image and the contrast CT image acquired by the acquisition means.
The CT image diagnosis support program according to claim 5, wherein the learning means inputs an image of the organ region generated by the extraction means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019236752A JP2021104195A (en) | 2019-12-26 | 2019-12-26 | CT image diagnosis support device, CT image diagnosis support method, and CT image diagnosis support program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019236752A JP2021104195A (en) | 2019-12-26 | 2019-12-26 | CT image diagnosis support device, CT image diagnosis support method, and CT image diagnosis support program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021104195A true JP2021104195A (en) | 2021-07-26 |
Family
ID=76919104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019236752A Pending JP2021104195A (en) | 2019-12-26 | 2019-12-26 | CT image diagnosis support device, CT image diagnosis support method, and CT image diagnosis support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021104195A (en) |
-
2019
- 2019-12-26 JP JP2019236752A patent/JP2021104195A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Parvaiz et al. | Vision Transformers in medical computer vision—A contemplative retrospection | |
US10699410B2 (en) | Automatic change detection in medical images | |
US11328434B2 (en) | Object tracking device | |
JP7263324B2 (en) | Method and program for generating 3D brain map | |
US9662083B2 (en) | Medical image display apparatus and medical image display system | |
CN105120738B (en) | Narrow treatment is planned | |
KR20180059329A (en) | X-ray image apparatus and method for obtaining medicalimage thereof | |
Jannin et al. | Validation in medical image processing. | |
Valanarasu et al. | Learning to segment brain anatomy from 2D ultrasound with less data | |
CN113397578A (en) | Imaging system and method | |
US11200671B2 (en) | Reference image guided object detection in medical image processing | |
CN115311191A (en) | Generating reformatted views of three-dimensional anatomical scans using deep learning estimated scan scheme masks | |
Leitner et al. | A human-centered machine-learning approach for muscle-tendon junction tracking in ultrasound images | |
CN109350059A (en) | For ancon self-aligning combined steering engine and boundary mark engine | |
Woo et al. | Tissue-point motion tracking in the tongue from cine MRI and tagged MRI | |
JP6967983B2 (en) | Image processing equipment, image processing methods, and programs | |
Singh et al. | Semantic segmentation of bone structures in chest X-rays including unhealthy radiographs: A robust and accurate approach | |
JP2021104195A (en) | CT image diagnosis support device, CT image diagnosis support method, and CT image diagnosis support program | |
Derrick et al. | The Computer-Assisted Decedent Identification Method of Computer-Assisted Radiographic Identification | |
JP7097794B2 (en) | Information processing system and information processing method | |
Divyashree et al. | Smart Digital Healthcare Solutions Using Medical Imaging and Advanced AI Techniques | |
MONTEIRO | DEEP LEARNING APPROACH FOR THE SEGMENTATION OF SPINAL STRUCTURES IN ULTRASOUND IMAGES | |
Banerjee | Automatic Assessment of Scoliosis Using 3D Ultrasound Imaging and Convolutional Neural Network | |
Chen | Synthesizing a complete tomographic study with nodules from multiple radiograph views via deep generative models | |
Huang et al. | A Dual-Decomposition Spinal X-Ray Image Synthesizer Based on Three-Dimensional Spinal Ultrasonic Data for Radiation-Free Follow-Up of Scoliosis |