JP2022172850A - Medical image diagnostic device, method for determining medical imaging condition, and program - Google Patents
Medical image diagnostic device, method for determining medical imaging condition, and program Download PDFInfo
- Publication number
- JP2022172850A JP2022172850A JP2021079131A JP2021079131A JP2022172850A JP 2022172850 A JP2022172850 A JP 2022172850A JP 2021079131 A JP2021079131 A JP 2021079131A JP 2021079131 A JP2021079131 A JP 2021079131A JP 2022172850 A JP2022172850 A JP 2022172850A
- Authority
- JP
- Japan
- Prior art keywords
- medical image
- map
- subject
- imaging
- contribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 74
- 238000002059 diagnostic imaging Methods 0.000 title claims description 16
- 238000003384 imaging method Methods 0.000 claims abstract description 203
- 238000007781 pre-processing Methods 0.000 claims description 18
- 230000027455 binding Effects 0.000 claims description 4
- 238000009739 binding Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000003745 diagnosis Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 154
- 238000002591 computed tomography Methods 0.000 description 120
- 238000012545 processing Methods 0.000 description 68
- 238000010586 diagram Methods 0.000 description 47
- 238000004891 communication Methods 0.000 description 30
- 238000001514 detection method Methods 0.000 description 16
- 238000012549 training Methods 0.000 description 13
- 201000010099 disease Diseases 0.000 description 9
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 210000000038 chest Anatomy 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 239000013078 crystal Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 102100040841 C-type lectin domain family 5 member A Human genes 0.000 description 1
- 101150008824 CLEC5A gene Proteins 0.000 description 1
- 101100400452 Caenorhabditis elegans map-2 gene Proteins 0.000 description 1
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 1
- 101150064138 MAP1 gene Proteins 0.000 description 1
- 101150056111 MDL1 gene Proteins 0.000 description 1
- 101150095628 MDL2 gene Proteins 0.000 description 1
- 101100386697 Magnaporthe oryzae (strain 70-15 / ATCC MYA-4617 / FGSC 8958) DCL1 gene Proteins 0.000 description 1
- 101100062770 Magnaporthe oryzae (strain 70-15 / ATCC MYA-4617 / FGSC 8958) DCL2 gene Proteins 0.000 description 1
- 206010036618 Premenstrual syndrome Diseases 0.000 description 1
- 101100236856 Prunus serotina MDL3 gene Proteins 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 208000006673 asthma Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000005907 cancer growth Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000009351 contact transmission Effects 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 208000018578 heart valve disease Diseases 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 208000030603 inherited susceptibility to asthma Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 201000005202 lung cancer Diseases 0.000 description 1
- 208000020816 lung neoplasm Diseases 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000004165 myocardium Anatomy 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 208000008423 pleurisy Diseases 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 210000001991 scapula Anatomy 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Abstract
Description
本明細書及び図面に開示の実施形態は、医用画像診断装置、医用イメージング条件の決定方法、及びプログラムに関する。 The embodiments disclosed in the specification and drawings relate to a medical image diagnostic apparatus, a method for determining medical imaging conditions, and a program.
現在の臨床現場では、撮影スタッフは最高品質の医用画像が得られるよう撮影プロトコルを最適化させている。解析スタッフは、与えられた医用画像から診療情報を得ようとしている。すなわち、医用画像の撮影と解析は互いに独立して行われる傾向にある。このため、将来的に医用画像を解析するAI(Artificial Intelligence)が顕著な発展を遂げたとしても、撮影側には影響を及ぼしにくいことが想定される。 In today's clinical practice, imaging staff optimize imaging protocols to obtain the highest quality medical images. The analysis staff is trying to obtain medical information from given medical images. That is, the acquisition and analysis of medical images tend to be performed independently of each other. For this reason, even if AI (Artificial Intelligence) for analyzing medical images achieves remarkable development in the future, it is expected that it will hardly affect the imaging side.
一方で、医用画像を入力すると診断情報を出力するような画像解析AIの研究開発及び臨床応用が進んでいる。これに関連して、入力画像のどのあたりの情報が最終的な出力結果に高く寄与しているのかを推定する技術が知られている On the other hand, research and development and clinical application of image analysis AI, which outputs diagnostic information when a medical image is input, are progressing. In relation to this, there is known a technique for estimating which part of the information in the input image contributes greatly to the final output result.
本明細書及び図面に開示の実施形態が解決しようとする課題は、撮影及び解析を相互に影響させ合いながら、高精度な診断が可能な医用画像を得ることである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 The problem to be solved by the embodiments disclosed in this specification and drawings is to obtain a medical image that enables highly accurate diagnosis while mutually affecting imaging and analysis. However, the problems to be solved by the embodiments disclosed in this specification and drawings are not limited to the above problems. A problem corresponding to each effect of each configuration shown in the embodiments described later can be positioned as another problem.
実施形態の医用画像診断装置は、取得部と決定部とを持つ。取得部は、被検体の医用画像を取得する。決定部は、医用画像が入力されると、前記入力された医用画像に含まれる人物の診療結果、及び前記入力された医用画像上の各位置に前記診療結果への寄与度が対応付けられたマップを出力するように学習されたモデルと、前記取得部によって取得された前記被検体の医用画像とに基づいて、前記被検体の医用画像のイメージング条件を決定する。 A medical image diagnostic apparatus according to an embodiment has an acquisition unit and a determination unit. The acquisition unit acquires a medical image of the subject. When a medical image is input, the determining unit associates a medical result of a person included in the input medical image and a degree of contribution to the medical result with each position on the input medical image. Imaging conditions for the medical image of the subject are determined based on the model trained to output the map and the medical image of the subject acquired by the acquisition unit.
以下、図面を参照しながら、実施形態の医用画像診断装置、医用イメージング条件の決定方法、及びプログラムについて説明する。 A medical image diagnostic apparatus, a method for determining medical imaging conditions, and a program according to embodiments will be described below with reference to the drawings.
[医用画像診断システムの構成]
図1は、実施形態における医用画像診断システム1の構成例を表す図である。医用画像診断システム1は、例えば、一つ又は複数の医用画像撮像装置100と、学習装置200とを備える。医用画像撮像装置100及び学習装置200は、通信ネットワークNWを介して通信可能に接続される。
[Configuration of medical image diagnostic system]
FIG. 1 is a diagram showing a configuration example of a medical image
通信ネットワークNWは、電気通信技術を利用した情報通信網全般を意味する。通信ネットワークNWは、病院基幹LAN(Local Area Network)等の無線/有線LANやインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワーク等を含む。 The communication network NW means all information communication networks using telecommunication technology. The communication network NW includes a wireless/wired LAN such as a hospital backbone LAN (Local Area Network), an Internet network, a telephone communication network, an optical fiber communication network, a cable communication network, a satellite communication network, and the like.
医用画像撮像装置100は、被検体Pをスキャンすることで医用画像を生成する装置である。被検体Pは、例えば、人間の患者であるがこれに限られず、その他動物や無機物であってもよい。医用画像撮像装置100は、例えば、X線CT(Computed Tomography)装置であってよく、そのほかに、MRI(Magnetic Resonance Imaging)装置や、超音波画像診断装置、核医学診断装置などであってもよい。医用画像撮像装置100は、いわゆるモダリティである。以下、一例として、医用画像撮像装置100がX線CT装置であるものとして説明する。
The
学習装置200は、X線CT装置(医用画像撮像装置)100から医用画像を収集し、その収集した医用画像を用いて機械学習のモデルを学習したり、その学習したモデルを利用して医用画像を解析したりする。モデルの詳細については後述する。学習装置200は、モダリティであるX線CT装置100に接続されたワークステーションやクラウドサーバであってよい。
The
[X線CT装置の構成]
図2は、実施形態におけるX線CT装置100の構成例を表す図である。X線CT装置100は、例えば、架台装置110と、寝台装置130と、コンソール装置140とを備える。図2では、説明の都合上、架台装置110をZ軸方向から見た図とX軸方向から見た図の双方を掲載しているが、実際には、架台装置110は一つである。実施形態では、非チルト状態での回転フレーム117の回転軸または寝台装置130の天板133の長手方向をZ軸方向とし、Z軸方向に直交し、かつ床面に対して水平である軸をX軸方向とし、Z軸方向に直交し、かつ床面に対して垂直である方向をY軸方向とそれぞれ定義する。
[Configuration of X-ray CT apparatus]
FIG. 2 is a diagram showing a configuration example of the
架台装置110は、例えば、X線管111と、ウェッジ112と、コリメータ113と、X線高電圧装置114と、X線検出器115と、データ収集システム(以下、DAS:Data Acquisition System)116と、回転フレーム117と、制御装置118とを有する。
The
X線管111は、X線高電圧装置114からの高電圧の印加により、陰極(フィラメント)から陽極(ターゲット)に向けて熱電子を照射することでX線を発生させる。X線管111は、真空管を含む。例えば、X線管111は、回転する陽極に熱電子を照射することでX線を発生させる回転陽極型のX線管である。
The
ウェッジ112は、X線管111から被検体Pに照射されるX線量を調節するためのフィルタである。ウェッジ112は、X線管111から被検体Pに照射されるX線量の分布が予め定められた分布になるように、自身を透過するX線を減衰させる。ウェッジ112は、ウェッジフィルタ(wedge filter)、ボウタイフィルタ(bow-tie filter)とも呼ばれる。ウェッジ112は、例えば、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したものである。
The
コリメータ113は、ウェッジ112を透過したX線の照射範囲を絞り込むための機構である。コリメータ113は、例えば、複数の鉛板の組み合わせによってスリットを形成することで、X線の照射範囲を絞り込む。コリメータ113は、X線絞りと呼ばれる場合もある。
The
X線高電圧装置114は、例えば、高電圧発生装置と、X線制御装置とを有する。高電圧発生装置は、変圧器(トランス)および整流器などを含む電気回路を有し、X線管111に印加する高電圧を発生させる。X線制御装置は、X線管111に発生させるべきX線量に応じて高電圧発生装置の出力電圧を制御する。高電圧発生装置は、上述した変圧器によって昇圧を行うものであってもよいし、インバータによって昇圧を行うものであってもよい。X線高電圧装置114は、回転フレーム117に設けられてもよいし、架台装置110の固定フレーム(不図示)の側に設けられてもよい。
The X-ray
X線検出器115は、X線管111が発生させ、被検体Pを通過して入射したX線の強度を検出する。X線検出器115は、検出したX線の強度に応じた電気信号(光信号などでもよい)をDAS116に出力する。X線検出器115は、例えば、複数のX線検出素子列を有する。複数のX線検出素子列のそれぞれは、X線管111の焦点を中心とした円弧に沿ってチャネル方向に複数のX線検出素子が配列されたものである。複数のX線検出素子列は、スライス方向(列方向、row方向)に配列される。
The
X線検出器115は、例えば、グリッドと、シンチレータアレイと、光センサアレイとを有する間接型の検出器である。シンチレータアレイは、複数のシンチレータを有する。それぞれのシンチレータは、シンチレータ結晶を有する。シンチレータ結晶は、入射するX線の強度に応じた光量の光を発する。グリッドは、シンチレータアレイのX線が入射する面に配置され、散乱X線を吸収する機能を有するX線遮蔽板を有する。なお、グリッドは、コリメータ(一次元コリメータまたは二次元コリメータ)と呼ばれる場合もある。光センサアレイは、例えば、光電子増倍管(フォトマルチプライヤー:PMT)等の光センサを有する。光センサアレイは、シンチレータにより発せられる光の光量に応じた電気信号を出力する。X線検出器115は、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であってもかまわない。
DAS116は、例えば、増幅器と、積分器と、A/D変換器とを有する。増幅器は、X線検出器115の各X線検出素子により出力される電気信号に対して増幅処理を行う。積分器は、増幅処理が行われた電気信号をビュー期間(後述)に亘って積分する。A/D変換器は、積分結果を示す電気信号をデジタル信号に変換する。DAS116は、デジタル信号に基づく検出データをコンソール装置140に出力する。検出データは、生成元のX線検出素子のチャンネル番号、列番号、及び収集されたビューを示すビュー番号により識別されたX線強度のデジタル値である。ビュー番号は、回転フレーム117の回転に応じて変化する番号であり、例えば、回転フレーム117の回転に応じてインクリメントされる番号である。従って、ビュー番号は、X線管111の回転角度を示す情報である。ビュー期間とは、あるビュー番号に対応する回転角度から、次のビュー番号に対応する回転角度に到達するまでの間に収まる期間である。DAS116は、ビューの切り替わりを、制御装置118から入力されるタイミング信号によって検知してもよいし、内部のタイマーによって検知してもよいし、図示しないセンサから取得される信号によって検知してもよい。フルスキャンを行う場合においてX線管111によりX線が連続曝射されている場合、DAS116は、全周囲分(360度分)の検出データ群を収集する。ハーフスキャンを行う場合においてX線管111によりX線が連続曝射されている場合、DAS116は、半周囲分(180度分)の検出データを収集する。
回転フレーム117は、X線管111、ウェッジ112、およびコリメータ113と、X線検出器115とを対向保持した状態で回転させる円環状の回転部材である。回転フレーム117は、固定フレームによって、内部に導入された被検体Pを中心として回転自在に支持される。回転フレーム117は、更にDAS116を支持する。DAS116が出力する検出データは、回転フレーム117に設けられた発光ダイオード(LED)を有する送信機から、光通信によって、架台装置110の非回転部分(例えば固定フレーム)に設けられたフォトダイオードを有する受信機に送信され、受信機によってコンソール装置140に転送される。なお、回転フレーム117から非回転部分への検出データの送信方法として、前述の光通信を用いた方法に限らず、非接触型の任意の送信方法を採用してよい。回転フレーム117は、X線管111などを支持して回転させることができるものであれば、円環状の部材に限らず、アームのような部材であってもよい。
The
制御装置118は、例えば、CPU(Central Processing Unit)などのプロセッサを有する処理回路と、モータやアクチュエータなどを含む駆動機構とを有する。制御装置118は、コンソール装置140または架台装置110に取り付けられた入力インタフェース143からの入力信号を受け付けて、架台装置110および寝台装置130の動作を制御する。
The
制御装置118は、例えば、回転フレーム117を回転させたり、架台装置110をチルトさせたり、寝台装置130の天板133を移動させたりする。架台装置110をチルトさせる場合、制御装置118は、入力インタフェース143に入力された傾斜角度(チルト角度)に基づいて、Z軸方向に平行な軸を中心に回転フレーム117を回転させる。制御装置118は、図示しないセンサの出力等によって回転フレーム117の回転角度を把握している。また、制御装置118は、回転フレーム117の回転角度を随時、処理回路150に提供する。制御装置118は、架台装置110に設けられてもよいし、コンソール装置140に設けられてもよい。
The
制御装置118は、架台装置110を移動レールに沿って自走させ、本スキャン撮影を行ったり、本スキャン撮影の実行前に行う位置決め撮影であるスキャノ撮影を行う。
The
寝台装置130は、スキャン対象の被検体Pを載置して、架台装置110の回転フレーム117の内部に導入する装置である。寝台装置130は、例えば、基台131と、寝台駆動装置132と、天板133と、支持フレーム134とを有する。基台131は、支持フレーム134を鉛直方向(Y軸方向)に移動可能に支持する筐体を含む。寝台駆動装置132は、モータやアクチュエータを含む。寝台駆動装置132は、被検体Pが載置された天板133を、支持フレーム134に沿って、天板133の長手方向(Z軸方向)に移動させる。天板133は、被検体Pが載置される板状の部材である。
The
コンソール装置140は、例えば、メモリ141と、ディスプレイ142と、入力インタフェース143と、通信インタフェース144と、処理回路150とを有する。本実施形態では、コンソール装置140は架台装置110とは別体として説明するが、架台装置110にコンソール装置140の各構成要素の一部または全部が含まれてもよい。コンソール装置140は、「医用画像診断装置」の一例である。
メモリ141は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。また、メモリ141には、ROM(Read Only Memory)やレジスタ等の記憶媒体が含まれてもよい。また、メモリ208には、ROM(Read Only Memory)やレジスタ等の記憶媒体が含まれてもよい。
The
メモリ141は、例えば、検出データや投影データ、再構成画像等を記憶する。これらのデータは、メモリ141ではなく(或いはメモリ141に加えて)、X線CT装置100が通信可能な外部メモリ(例えばNAS(Network Attached Storage)等)に記憶されてもよい。
The
更に、メモリ141はモデル情報を記憶する。モデル情報とは、学習済みモデルMDLを定義した情報(プログラムまたはデータ構造)である。学習済みモデルMDLは、典型的には、ある被検体Pの医用画像が入力されると、その被検体Pの診療結果と、寄与度マップとを出力するように学習されたモデルである。
In addition,
診療結果とは、例えば、被検体Pが特定の疾患にあるのか、そうでないのかということを表していてもよいし、その特定の疾患である蓋然性(特定の疾患であることの尤もらしさ)を表していてもよい。例えば、撮影部位が心臓である場合、特定の疾患は心臓弁の疾患などであってよい。 The medical result may indicate, for example, whether the subject P has a specific disease or not, or the probability of having the specific disease (likelihood of having a specific disease). may be represented. For example, if the imaging region is the heart, the specific disease may be heart valve disease.
また、診療結果は上記に限定されず、例えば、がんの成長率やリハビリの成果率といった測定値を表していてもよいし、医用画像と他検査との非一致度といった比較値を表していてもよいし、予後予測や治療副作用予測といった予測結果を表していてもよいし、それらの派生解析結果を表していてもよい。つまり、本実施形態に係る診療結果には、学習済みモデルMDLが出力可能なあらゆる事象が含まれてよい。 Moreover, the diagnostic results are not limited to the above, and may represent, for example, measured values such as cancer growth rate and rehabilitation success rate, or represent comparative values such as the degree of non-matching between medical images and other examinations. Alternatively, it may represent a prediction result such as prognosis prediction or treatment side effect prediction, or may represent a derived analysis result thereof. In other words, the medical care results according to this embodiment may include all events that can be output by the learned model MDL.
寄与度マップとは、学習済みモデルMDLに入力された医用画像上の各位置に対して、診療結果への寄与度が対応付けられた二次元以上のデータである。例えば、医用画像上において、寄与度が大きい位置(領域)ほど、診療結果に大きな影響を及ぼしていることを意味している。つまり、学習済みモデルMDLから見れば、寄与度が大きい位置(領域)ほど、診療結果を判断するにあたって、より注目していることを意味している。 The contribution map is two-dimensional or more data in which the degree of contribution to the medical result is associated with each position on the medical image input to the trained model MDL. For example, on a medical image, it means that a position (area) with a higher degree of contribution has a greater influence on the medical result. In other words, from the point of view of the learned model MDL, it means that a position (area) with a higher degree of contribution is paid more attention to when judging the medical treatment result.
学習済みモデルMDLは、例えば、CNN(Convolutional Neural Network)などのDNN(Deep Neural Network(s))によって実装されてよい。このようなDNNには、上述した寄与度マップを得るためのアテンション機構が含まれる。 The trained model MDL may be implemented by, for example, a DNN (Deep Neural Network(s)) such as a CNN (Convolutional Neural Network). Such a DNN includes an attention mechanism for obtaining the contribution map described above.
アテンション機構とは、例えば、医用画像上において、各画素が画像全体のどこに位置しているのかということに応じて、その画素に対する注意のかけ方を変更するニューラルネットワークである。例えば、アテンション機構は、CNNの畳み込み層から出力された特徴マップ上の各画素に対して、互いに異なる重みを乗算することで、各画素に対する注意の度合い(つまりアテンション)を、画素ごとに決定する。 An attention mechanism is, for example, a neural network that changes how to pay attention to each pixel in a medical image according to where the pixel is located in the entire image. For example, the attention mechanism multiplies each pixel on the feature map output from the convolutional layer of the CNN by different weights to determine the degree of attention (that is, attention) for each pixel. .
また、学習済みモデルMDLは、アテンション機構を含むようなDNNに限られず、サポートベクターマシンや決定木、単純ベイズ分類器、ランダムフォレストといった他のモデルやアルゴリズムによって実装されてよい。 Also, the trained model MDL is not limited to a DNN that includes an attention mechanism, and may be implemented by other models and algorithms such as support vector machines, decision trees, naive Bayes classifiers, and random forests.
学習済みモデルMDLがDNNによって実装される場合、モデル情報には、例えば、当該DNNを構成する入力層、一以上の隠れ層(中間層)、出力層の其々に含まれるユニット(ユニットあるいはノード)が互いにどのように結合されるのかという結合情報や、結合されたユニット間で入出力されるデータに付与される結合係数がいくつであるのかという重み情報などが含まれる。結合情報は、例えば、各層に含まれるユニット数や、各ユニットの結合先のユニットの種類を指定する情報、各ユニットを実現する活性化関数、隠れ層のユニット間に設けられたゲートなどの情報を含む。ユニットを実現する活性化関数は、例えば、ReLU(Rectified Linear Unit)関数やELU(Exponential Linear Units)関数、クリッピング関数、シグモイド関数、ステップ関数、ハイパポリックタンジェント関数、恒等関数などであってよい。ゲートは、例えば、活性化関数によって返される値(例えば1または0)に応じて、ユニット間で伝達されるデータを選択的に通過させたり、重み付けたりする。結合係数は、例えば、ニューラルネットワークの隠れ層において、ある層のユニットから、より深い層のユニットにデータが出力される際に、出力データに対して付与される重みを含む。また、結合係数は、各層の固有のバイアス成分などを含んでもよい。 When the learned model MDL is implemented by a DNN, the model information includes, for example, the input layer, one or more hidden layers (intermediate layers), and the units (units or nodes ) are combined with each other, and weighting information such as how many coupling coefficients are given to data input/output between the combined units. The connection information includes, for example, the number of units included in each layer, information specifying the type of unit to which each unit is connected, an activation function that realizes each unit, information such as a gate provided between units in the hidden layer. including. The activation function that realizes the unit may be, for example, a ReLU (Rectified Linear Unit) function, an ELU (Exponential Linear Units) function, a clipping function, a sigmoid function, a step function, a hyperpolic tangent function, an identity function, or the like. . A gate selectively passes or weights data communicated between units, for example, depending on the value (eg, 1 or 0) returned by an activation function. A coupling coefficient includes, for example, a weight given to output data when data is output from a unit in a certain layer to a unit in a deeper layer in a hidden layer of a neural network. The coupling coefficients may also include bias components unique to each layer, and the like.
ディスプレイ142は、各種の情報を表示する。例えば、ディスプレイ142は、処理回路150によって生成されたCT画像や、操作者(例えば医者等)による各種操作を受け付けるGUI(Graphical User Interface)等を表示する。ディスプレイ142は、例えば、LCD(Liquid Crystal Display)や、CRT(Cathode Ray Tube)ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等である。ディスプレイ142は、架台装置110に設けられてもよい。ディスプレイ142は、デスクトップ型でもよいし、コンソール装置140の本体部と無線通信可能な表示装置(例えばタブレット端末)であってもよい。
The
入力インタフェース143は、操作者(例えば医者等)による各種の入力操作を受け付け、受け付けた入力操作の内容を示す電気信号を処理回路150に出力する。例えば、入力インタフェース143は、被検体Pを撮影する際の撮影プロトコル、CT画像を再構成する際の再構成条件、CT画像から後処理画像を生成する際の画像処理条件などの入力操作を受け付ける。例えば、入力インタフェース143は、マウスやキーボード、タッチパネル、ドラッグボール、スイッチ、ボタン、ジョイスティック、フットペダル、カメラ、赤外線センサ、マイク等により実現される。入力インタフェース143は、架台装置110に設けられてもよい。また、入力インタフェース143は、コンソール装置140の本体部と無線通信可能な表示装置(例えばタブレット端末)により実現されてもよい。なお、本明細書において入力インタフェース143はマウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インタフェース143の例に含まれる。
The
通信インタフェース144は、例えば、NIC(Network Interface Card)や無線通信モジュールなどを含む。通信インタフェース144は、通信ネットワークNWを介して、学習装置200やその他の外部装置と通信する。
The
処理回路150は、X線CT装置100の全体の動作を制御する。処理回路150は、例えば、システム制御機能151、イメージング条件決定機能152、前処理機能153、再構成処理機能154、画像処理機能155、出力制御機能156などを実行する。処理回路150は、例えば、ハードウェアプロセッサがメモリ141に記憶されたプログラムを実行することにより、これらの機能を実現するものである。前処理機能153及び再構成処理機能154は、「取得部」の一例である。イメージング条件決定機能152は、「決定部」の一例である。
ハードウェアプロセッサとは、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit; ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device; SPLD)または複合プログラマブル論理デバイス(Complex Programmable Logic Device; CPLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array; FPGA))等の回路(circuitry)を意味する。 A hardware processor is, for example, a CPU, a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (e.g., a simple programmable logic device (Simple Programmable Logic Device; SPLD) or Circuitry such as Complex Programmable Logic Device (CPLD), Field Programmable Gate Array (FPGA)).
メモリ141にプログラムを記憶させる代わりに、ハードウェアプロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、ハードウェアプロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。上記のプログラムは、予めメモリ141に格納されていてもよいし、DVDやCD-ROM等の非一時的記憶媒体に格納されており、非一時的記憶媒体がコンソール装置140のドライブ装置(不図示)に装着されることで非一時的記憶媒体からメモリ141にインストールされてもよい。ハードウェアプロセッサは、単一の回路として構成されるものに限らず、複数の独立した回路を組み合わせて1つのハードウェアプロセッサとして構成され、各機能を実現するようにしてもよい。また、複数の構成要素を1つのハードウェアプロセッサに統合して各機能を実現するようにしてもよい。
Instead of storing the program in the
コンソール装置140または処理回路150が有する各構成要素は、分散化されて複数のハードウェアにより実現されてもよい。処理回路150は、コンソール装置140が有する構成ではなく、コンソール装置140と通信可能な別体の処理装置によって実現されてもよい。処理装置は、例えば、X線CT装置100と接続されたワークステーションや、処理回路150と同等の処理を一括して実行可能なクラウドサーバであってよい。
Each component of
システム制御機能151は、入力インタフェース143が受け付けた入力操作に基づいて、処理回路150の各種機能を制御する。
The
イメージング条件決定機能152は、メモリ141のモデル情報によって定義された学習済みモデルMDLを利用して、医用画像のイメージング条件を決定する。イメージング条件は、例えば、被検体Pを撮影する際の撮影プロトコル、検出データまたは投影データの前処理条件、及びCT画像を再構成する際の再構成条件のうち少なくとも一つが含まれる。
The imaging
イメージング条件決定機能152は、入力インタフェース143に対して入力された操作に応じて、医用画像のイメージング条件を決定してもよい。
The imaging
前処理機能153は、DAS116により出力された検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を行って、投影データを生成し、生成した投影データをメモリ141に記憶させる。
The
再構成処理機能154は、前処理機能153によって生成された投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等による再構成処理を行って、医用画像の一つであるCT画像を生成し、生成したCT画像をメモリ141に記憶させる。
The
画像処理機能155は、入力インタフェース143が受け付けた入力操作に基づいて、CT画像を公知の方法により、三次元画像や任意断面の断面像データに変換する。三次元画像への変換は、前処理機能153によって行われてもよい。
The
出力制御機能156は、再構成処理機能154によって再構成処理を通じて生成されたCT画像や、画像処理機能155によって生成された画像(例えば、三次元画像や断面画像)をディスプレイ142に表示させる。また、出力制御機能156は、これら画像を、通信インタフェース144を介して学習装置200やその他外部装置に送信してもよい。
The
また、出力制御機能156は、メモリ141のモデル情報によって定義された学習済みモデルMDLを利用して、被検体Pの診療結果をディスプレイ142に表示させる。
Also, the
[学習装置の構成]
図3は、実施形態における学習装置200の構成例を表す図である。学習装置200は、例えば、通信インタフェース202と、入力インタフェース204と、ディスプレイ206と、メモリ208と、処理回路210とを備える。
[Configuration of learning device]
FIG. 3 is a diagram showing a configuration example of the
通信インタフェース202は、例えば、NICや無線通信モジュールなどを含む。通信インタフェース202は、通信ネットワークNWを介して、X線CT装置100やその他の外部装置と通信する。
The
入力インタフェース204は、操作者による各種の入力操作を受け付け、受け付けた入力操作の内容を示す電気信号を処理回路210に出力する。例えば、入力インタフェース204は、マウスやキーボード、タッチパネル、ドラッグボール、スイッチ、ボタン、ジョイスティック、フットペダル、カメラ、赤外線センサ、マイク等により実現される。なお、本明細書において入力インタフェース204はマウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インタフェース204の例に含まれる。
The input interface 204 accepts various input operations by the operator and outputs an electrical signal indicating the content of the accepted input operation to the
ディスプレイ206は、各種の情報を表示する。例えば、ディスプレイ206は、処理回路210の処理結果や、操作者による各種操作を受け付けるGUI等を表示する。ディスプレイ206は、例えば、LCDや有機ELディスプレイ等である。
The
メモリ208は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスクによって実現される。これらの記憶媒体は、NASや外部ストレージサーバ装置といった通信ネットワークNWを介して接続される他の記憶装置によって実現されてもよい。また、メモリ208には、ROMやレジスタ等の記憶媒体が含まれてもよい。
The
処理回路210は、例えば、取得機能212と、学習機能214と、出力制御機能216とを備える。処理回路210は、例えば、ハードウェアプロセッサ(コンピュータ)がメモリ208に記憶されたプログラムを実行することにより、これらの機能を実現するものである。
ハードウェアプロセッサとは、例えば、CPU、GPU、特定用途向け集積回路、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイスまたは複合プログラマブル論理デバイス、フィールドプログラマブルゲートアレイ)等の回路(circuitry)を意味する。メモリ208にプログラムを記憶させる代わりに、ハードウェアプロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、ハードウェアプロセッサは、回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。上記のプログラムは、予めメモリ208に格納されていてもよいし、DVDやCD-ROM等の非一時的記憶媒体に格納されており、非一時的記憶媒体が学習装置200のドライブ装置(不図示)に装着されることで非一時的記憶媒体からメモリ208にインストールされてもよい。ハードウェアプロセッサは、単一の回路として構成されるものに限らず、複数の独立した回路を組み合わせて1つのハードウェアプロセッサとして構成され、各機能を実現するようにしてもよい。また、複数の構成要素を1つのハードウェアプロセッサに統合して各機能を実現するようにしてもよい。
Hardware processor means circuitry such as, for example, CPUs, GPUs, application specific integrated circuits, programmable logic devices (eg, simple or complex programmable logic devices, field programmable gate arrays). Instead of storing the program in
取得機能212は、通信インタフェース202を介して、X線CT装置100からCT画像を取得する。このCT画像には、予め医師などが判断した診療結果(正解として扱われる診療結果)がラベルとして対応付けられているものとする。CT画像に対応付けられた診療結果はターゲットとも呼ばれる。つまり、取得機能212は、CT画像に対して正解の診療結果が対応付けられた教師データを取得する。
学習機能214は、取得機能212によって取得された教師データを用いて、未学習のモデルMDLを学習する。
The
出力制御機能216は、学習機能214によって学習されたモデルMDL、すなわち学習済みモデルMDLを定義したモデル情報を、通信インタフェース202を介して、X線CT装置100に送信する。
The
[医用画像診断システムの全体フロー(トレーニング)]
以下、実施形態における医用画像診断システム1の一連の処理について説明する。図4は、実施形態における医用画像診断システム1によるトレーニング時の一連の処理の流れを表すフローチャートである。
[Overall Flow of Medical Image Diagnosis System (Training)]
A series of processes of the medical image
まず、X線CT装置100のイメージング条件決定機能152は、被検体PのCT画像のイメージング条件を決定する(ステップS100)。
First, the imaging
例えば、イメージング条件決定機能152は、入力インタフェース143に対して入力された設定、つまり、撮影スタッフなどが入力インタフェース143に入力した設定に従って、被検体Pの撮影プロトコルを決定してよい。
For example, the imaging
次に、X線CT装置100のシステム制御機能151は、イメージング条件決定機能152によって決定された撮影プロトコル等のイメージング条件に基づいて、処理回路150の各種機能を制御することで、被検体Pをスキャンする(ステップS102)。
Next, the
次に、X線CT装置100の前処理機能153及び再構成処理機能154は、被検体PのCT画像を生成する(ステップS104)。例えば、前処理機能153は、DAS116により出力された検出データに基づいて、投影データを生成する。再構成処理機能154は、前処理機能153によって生成された投影データに対して再構成処理を行うことで、被検体PのCT画像を生成する。S104で生成されるCT画像は、二次元画像であってもよいし、三次元画像であってもよい。
Next, the
システム制御機能151は、入力インタフェース143を介して、被検体PのCT画像に対する診療結果を取得する(ステップS106)。例えば、システム制御機能151は、被検体PのCT画像が生成されると、そのCT画像を出力するよう出力制御機能156に指示する。これを受けて出力制御機能156は、ディスプレイ142にCT画像を表示させる。例えば、医師がディスプレイ142上のCT画像を見て、被検体Pの疾患の有無などを判断し、その情報を入力インタフェース143に入力する。システム制御機能151は、入力インタフェース143に対して入力された情報を、診療結果として取得する。そして、システム制御機能151は、被検体PのCT画像と、その被検体Pの診療結果とを組み合わせたデータセットを教師データとしてメモリ141に記憶させる。
The
次に、学習装置200の取得機能212は、通信インタフェース202を介して、一つ又は複数のX線CT装置100の其々から、教師データを取得する(ステップS108)。
Next, the
次に、学習装置200の学習機能214は、取得機能212によって教師データとして取得された複数のCT画像の位置合わせを行う(ステップS110)。
Next, the
次に、学習機能214は、教師データを用いて未学習のモデルMDLを学習する(ステップS112)。
Next, the
例えば、学習機能214は、未学習のモデルMDLに対してCT画像を入力し、そのモデルMDLによって出力された診療結果が、正解の診療結果(ターゲットの診療結果)に近づくように、モデルMDLのパラメータ(重み係数やバイアス成分等)を調整する。診療結果は、例えば、特定の疾患の有無を示すベクトルや、その蓋然性(尤度)を示すベクトルとして表現されてよい。学習機能214は、モデルMDLによって出力された診療結果のベクトルと、ターゲットである診療結果のベクトルとの差分が小さくなるように、モデルMDLのパラメータを、SGD(Stochastic Gradient Descent)、Momentum SGD、AdaGrad、RMSprop、AdaDelta、Adam(Adaptive moment estimation)などを利用して調整する。
For example, the
次に、学習機能214は、学習済みモデルMDLに対して位置合わせを行ったCT画像を入力し、学習済みモデルMDLから寄与度マップを取得する(ステップS114)。
Next, the
例えば、CT画像が二次元画像である場合、寄与度マップは、二次元データであってよく、CT画像が三次元画像である場合、寄与度マップは、三次元データであってよい。また、寄与度マップは、CT画像上の各位置に寄与度が時系列に対応付けられた時系列データであってもよい。 For example, if the CT image is a two-dimensional image, the contribution map may be two-dimensional data, and if the CT image is a three-dimensional image, the contribution map may be three-dimensional data. Also, the contribution map may be time-series data in which contribution is associated with each position on the CT image in time series.
これを受けて出力制御機能216は、通信インタフェース202を介して、X線CT装置100に、寄与度マップと学習済みモデルMDLのモデル情報を送信する。これによって本フローチャートの処理(トレーニングの処理)が終了する。
In response, the
図5は、トレーニング時における寄与度マップの取得方法を説明するための図である。例えば、被検体P1、P2、P3の三人のCT画像が得られたとする。この場合、学習機能214は、三枚のCT画像を重ねたときに、ある特徴的な部位が一致するように位置合わせを行う。例えば、全CT画像が上半身をスキャンしたときに得られた画像であるとする。この場合、学習機能214は、肩の肩甲骨といった特徴的な部位が同位置となるように三枚のCT画像の位置を合わせてよい。
FIG. 5 is a diagram for explaining a method of obtaining a contribution map during training. For example, assume that CT images of three subjects P1, P2, and P3 are obtained. In this case, the
学習機能214は、複数のCT画像の位置合わせを行うと、それら複数のCT画像を一つに合成した画像を学習済みモデルMDLに入力したり、又は複数のCT画像の中で代表的な一枚のCT画像を学習済みモデルMDLに入力したりする。上述したように、学習済みモデルMDLは、CT画像が入力されると、寄与度マップと診療結果を出力する。この寄与度マップは、後述のランタイムにおいてイメージング条件(撮影プロトコルなど)を決定する際に利用される。図中の寄与度マップにおいて、色が濃い部分(黒に近い部分)は寄与度が高い部分を表しており、色が薄い部分(白に近い部分)は寄与度が低い部分を表している。
After aligning the plurality of CT images, the
[医用画像診断システムの全体フロー(ランタイム)]
以下、実施形態における医用画像診断システム1の一連の処理について説明する。図6は、実施形態における医用画像診断システム1によるランタイムの一連の処理の流れを表すフローチャートである。ここでいうランタイムとは、学習済みモデルMDLを利用した診療結果の推定処理を実行することを意味する。
[Overall Flow of Medical Image Diagnosis System (Runtime)]
A series of processes of the medical image
まず、X線CT装置100のシステム制御機能151は、任意のイメージング条件に基づいて、処理回路150の各種機能を制御することで、これから診療する被検体P´をスキャンする(ステップS200)。ランタイムにスキャンする被検体P´は、トレーニング時にスキャンした被検体Pと同じであってもよいし、異なっていてもよい。S200のスキャンは、例えば、本スキャン撮影前に行うスキャノ撮影などであってよい。
First, the
次に、X線CT装置100の前処理機能153及び再構成処理機能154は、被検体P´のCT画像を生成する(ステップS202)。例えば、前処理機能153は、DAS116により出力された検出データに基づいて、投影データを生成する。再構成処理機能154は、前処理機能153によって生成された投影データに対して再構成処理を行うことで、被検体P´のCT画像を生成する。S202で生成されるCT画像は、寄与度マップとの位置合わせに利用されるためのものであり、学習済みモデルMDLに入力して診療結果を得るためのものでない。従って、学習済みモデルMDLに入力するCT画像が三次元画像であっても、S202の処理では、二次元画像(二次元投影静止画像)のCT画像が生成されてよい。
Next, the
次に、X線CT装置100のイメージング条件決定機能152は、トレーニング時に学習装置200により送信された寄与度マップに基づいて、被検体P´のCT画像に対して寄与度マップの位置合わせを行う(ステップS204)。
Next, the imaging
例えば、イメージング条件決定機能152は、被検体P´のCT画像上の特徴的な部位に対して寄与度マップ上の特徴的な部位が一致するように、寄与度マップに対して拡大、縮小、回転、シフト移動といった画像処理を行う。これによって被検体P´のCT画像に対して寄与度マップの位置合わせが行われる。以下、被検体P´のCT画像に対して位置合わせを行った寄与度マップのことを「位置補正後寄与度マップ」と称して説明する。
For example, the imaging
次に、イメージング条件決定機能152は、位置補正後寄与度マップに基づいて、被検体P´のCT画像の新たなイメージング条件を決定する(ステップS206)。
Next, the imaging
例えば、イメージング条件決定機能152は、寄与度が低い領域についてはX線の線量を低くし、寄与度が高い領域についてはX線の線量を高くするような撮影プロトコルを決定してよい。これによって、被検体P´の被ばく量を低減させながら、被検体P´のCT画像の品質(SN比)を向上させることができる。
For example, the imaging
また、例えば、イメージング条件決定機能152は、寄与度が低い領域についてはX線の照射時間を短くし、寄与度が高い領域についてはX線の照射時間を長くするような撮影プロトコルを決定してよい。照射時間は、例えば、X線の照射パルスの幅であってもよいし、積分時間であってもよい。これによって、被検体P´の被ばく量を低減させながら、被検体P´のCT画像の品質(SN比)を向上させることができる。
Further, for example, the imaging
また、例えば、イメージング条件決定機能152は、寄与度が高い領域に対して照射したX線については高精細なX線検出器115によって検出させるような撮影プロトコルを決定してよい。これによって、寄与度が高い領域の空間分解能が向上する。
Also, for example, the imaging
また、例えば、イメージング条件決定機能152は、寄与度が高い領域と低い領域との境界に空間フィルタ(例えばメディアンフィルタ等)を入れるような撮影プロトコルを決定してよい。これによって、画像ノイズを低減することができるため、被検体P´のCT画像の品質を向上させることができる。
Also, for example, the imaging
また、例えば、イメージング条件決定機能152は、寄与度が低い領域についてはフォトンカウンティングにおけるエネルギーBINを荒くし、寄与度が高い領域についてはエネルギーBINを細かくするような撮影プロトコルを決定してよい。これによって、エネルギー分解能を向上させることができる。
Also, for example, the imaging
また、例えば、イメージング条件決定機能152は、寄与度が低い領域についてはX線管111の電流又は電圧を小さくし、寄与度が高い領域についてはX線管111の電流又は電圧を大きくするような撮影プロトコルを決定してよい。これによって、被検体P´のCT画像の品質(SN比)を向上させることができる。
Further, for example, the imaging
次に、システム制御機能151は、イメージング条件決定機能152によって決定されたイメージング条件に基づいて処理回路150の各種機能を制御することで、被検体P´を再度スキャンする(ステップS208)。S208のスキャンは、本スキャンであってよい。
Next, the
次に、前処理機能153及び再構成処理機能154は、被検体P´のCT画像を生成する(ステップS210)。
Next, the
次に、出力制御機能156は、S210で生成された被検体P´のCT画像を、学習済みモデルMDLに入力する(ステップS212)。
Next, the
次に、出力制御機能156は、被検体P´のCT画像を入力した学習済みモデルMDLから、被検体P´の診療結果と寄与度マップを取得する(ステップS214)。
Next, the
次に、出力制御機能156は、撮影プロトコルなどを参照して、被検体P´のスキャンが継続されるか否かを判定し(ステップS216)、被検体P´のスキャンが継続されない場合、被検体P´の診療結果をディスプレイ142に表示させて、本フローチャートの処理(ランタイムの処理)を終了させる。
Next, the
図7から図9は、寄与度マップを用いたイメージング条件の決定方法を模式的に表す図である。例えば、イメージング条件決定機能152は、図7に表すように、トレーニング時に得られた寄与度マップを用いて、イメージング条件の一つである撮像プロトコル(撮像条件)を決定してよい。
7 to 9 are diagrams schematically showing a method of determining imaging conditions using a contribution map. For example, the imaging
また、イメージング条件決定機能152は、図8に表すように、トレーニング時に得られた寄与度マップを用いて、イメージング条件の一つである前処理条件(対数変換処理、オフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正といった各種前処理に関する条件)を決定してもよい。また、イメージング条件決定機能152は、図9に表すように、トレーニング時に得られた寄与度マップを用いて、イメージング条件の一つである再構成条件を決定してもよい。
In addition, as shown in FIG. 8, the imaging
[寄与度マップの位置合わせの方法;その1]
図10は、寄与度マップの位置合わせの方法を説明するための図である。例えば、P1、P2、P3、といった不特定多数の被検体Pの其々のCT画像を基に学習済みモデルMDLが作成され、その学習済みモデルMDLを利用して寄与度マップが生成されたとする。一方で、X線CT装置100の撮像系の再現性がハードウェア的に高い場合がある。このような場合、不特定多数の被検体P由来の寄与度マップの位置合わせは不要となる。つまり、寄与度マップを位置合わせするために被検体P´をスキャンする必要がなくなる。したがって、イメージング条件決定機能152は、ランタイムにおいてS204の処理を省略し、トレーニング時に学習装置200により送信された寄与度マップに基づいて、被検体P´のCT画像の新たなイメージング条件を決定してよい。
[How to align contribution maps; Part 1]
FIG. 10 is a diagram for explaining a method of aligning contribution maps. For example, assume that a learned model MDL is created based on CT images of an unspecified number of subjects P such as P1, P2, and P3, and a contribution map is generated using the learned model MDL. . On the other hand, the reproducibility of the imaging system of the
[寄与度マップの位置合わせの方法;その2]
図11は、寄与度マップの位置合わせの方法を説明するための図である。図10の例とは反対に、X線CT装置100の撮像系の再現性がハードウェア的に低い場合がある。撮像系とは、X線管111、ウェッジ112、コリメータ113、X線検出器115、回転フレーム117などである。このような場合、イメージング条件決定機能152は、ランタイムにおいて寄与度マップの位置合わせを行う。例えば、イメージング条件決定機能152は、スキャノ撮影で得た二次元CT画像や、三次元CT画像の1枚目などを用いて、P1、P2、P3、といった不特定多数の被検体P由来の寄与度マップの位置合わせを行ってよい。そして、イメージング条件決定機能152は、被検体P´のCT画像に対して位置合わせを行った寄与度マップ、つまり、位置補正後寄与度マップに基づいて、被検体P´のCT画像の新たなイメージング条件を決定する。
[Method of Aligning Contribution Maps; Part 2]
FIG. 11 is a diagram for explaining a method of aligning contribution maps. Contrary to the example of FIG. 10, the reproducibility of the imaging system of the
[寄与度マップの位置合わせの方法;その3]
図12は、寄与度マップの位置合わせの方法を説明するための図である。図示のように、イメージング条件決定機能152は、被検体P1、P2、P3といった不特定多数の被検体P由来の寄与度マップと、被検体P´由来の寄与度マップとを組み合わせて、被検体P´のCT画像の新たなイメージング条件を決定してもよい。不特定多数の被検体P由来の寄与度マップは「第1マップ」の一例であり、被検体P´由来の寄与度マップは「第2マップ」の一例である。
[How to align contribution maps; Part 3]
FIG. 12 is a diagram for explaining a method of aligning contribution maps. As illustrated, the imaging
図6のランタイムのフローチャートでは、S216の処理においてスキャンが継続される場合、S204に処理が戻る。この際、イメージング条件決定機能152は、不特定多数の被検体P由来の寄与度マップと、被検体P´由来の寄与度マップ(S214の処理で得られた寄与度マップ)とを合成し、その合成した寄与度マップ(「第3マップ」の一例)に基づいてイメージング条件を決定してよい。不特定多数の被検体P由来の寄与度マップと、被検体P´由来の寄与度マップとの合成比率は、例えば、1対3のように、被検体P由来の寄与度マップに比べて、被検体P´由来の寄与度マップの重みを大きくしてよい。これによって、被検体P´により適合したイメージング条件を決定することができる。
In the runtime flowchart of FIG. 6, when scanning is continued in the process of S216, the process returns to S204. At this time, the imaging
[寄与度マップの位置合わせの方法;その4]
図13は、寄与度マップの位置合わせの方法を説明するための図である。図示のように、イメージング条件決定機能152は、被検体P´由来の過去の寄与度マップを組み合わせて、被検体P´のCT画像の新たなイメージング条件を決定してもよい。例えば、一年前、二年前、三年前のそれぞれにおいて被検体P´由来の寄与度マップが得られていたとする。この場合、イメージング条件決定機能152は、これら三枚の被検体P´由来の寄与度マップを合成し、その合成した寄与度マップに基づいてイメージング条件を決定してよい。合成比率は、例えば、一年前:二年前:三年前=5:3:1のようにしてよい。つまり、時刻が新しい寄与度マップほど重みを大きくしてよい。これによって、現在の被検体P´により適合したイメージング条件を決定することができる。
[Method of Aligning Contribution Maps; Part 4]
FIG. 13 is a diagram for explaining a method of aligning contribution maps. As shown, the imaging
[イメージング条件の決定方法;その1]
図14は、イメージング条件の決定方法を説明するための図である。例えば、イメージング条件決定機能152は、寄与度マップに基づいて、撮影角度を決定してよい。具体的には、イメージング条件決定機能152は、図示のように、寝台に寝ている被検体P´の正面に対して照射するX線の線量を多くし、被検体P´の側面に対して照射するX線の線量を少なくするような撮影プロトコルを決定してよい。
[Method for determining imaging conditions; Part 1]
FIG. 14 is a diagram for explaining a method of determining imaging conditions. For example, the imaging
[イメージング条件の決定方法;その2]
図15は、イメージング条件の決定方法を説明するための図である。例えば、寄与度マップ上において、寄与度が高い部分(濃い部分)が複数の箇所に離れて存在することもある。この場合、イメージング条件決定機能152は、図示のように、寝台に寝ている被検体P´に対して斜めから線量の高いX線を照射するような撮影プロトコルを決定してよい。
[Method for determining imaging conditions; Part 2]
FIG. 15 is a diagram for explaining a method of determining imaging conditions. For example, on the contribution map, portions with a high degree of contribution (dark portions) may be separated at multiple locations. In this case, the imaging
[イメージング条件の決定方法;その3]
図16は、イメージング条件の決定方法を説明するための図である。例えば、イメージング条件決定機能152は、撮像系の回転に合わせて撮影プロトコルを変更してよい。具体的には、あるサンプリング時刻kにおいて、X線管111(k)からX線が照射され、そのX線がX線検出器115(k)により検出されたとする。この場合、処理回路150は、X線検出器115(k)により検出されたX線の検出データを基にCT画像を生成し、さらにそのCT画像を学習済みモデルMDLに入力することで、時刻kにおける寄与度マップを生成する。イメージング条件決定機能152は、時刻kにおける寄与度マップを基に、次の時刻k+1の撮影プロトコルを決定する。この結果、時刻k+1においてX線管111(k+1)から照射されるX線の線量が決定されたり、X線を照射する際のX線管111(k+1)及びX線検出器115(k+1)の位置が決定されたりする。
[Method for determining imaging conditions; Part 3]
FIG. 16 is a diagram for explaining a method of determining imaging conditions. For example, the imaging
[イメージング条件の決定方法;その4]
図17は、イメージング条件の決定方法を説明するための図である。例えば、イメージング条件決定機能152は、撮像系が一回転する度に撮影プロトコルを変更してよい。具体的には、時刻が1、2、…k-1、kと進み、時刻kのときに撮像系が一回転する場合、処理回路150は、時刻kにおいてX線検出器115(k)により検出されたX線の検出データを基にCT画像を生成し、さらにそのCT画像を学習済みモデルMDLに入力することで、時刻kにおける寄与度マップを生成する。そして、イメージング条件決定機能152は、時刻kにおける寄与度マップを基に、撮像系が一回転する次の周期k+1~2kの撮影プロトコルを決定する。
[Method for determining imaging conditions; Part 4]
FIG. 17 is a diagram for explaining a method of determining imaging conditions. For example, the imaging
[イメージング条件の決定方法;その5]
図18は、イメージング条件の決定方法を説明するための図である。撮像プロトコルには、X線検出器115から検出データを読み出すプロトコル(以下、データ読み出しプロトコル)も含まれる。そのため、イメージング条件決定機能152は、寄与度マップに基づいて、データ読み出しプロトコルを決定してもよい。例えば、イメージング条件決定機能152は、寄与度マップ上において、寄与度が低い領域ほどBinding数を多くし、寄与度が高い領域ほどBindingをしないようにするようなデータ読み出しプロトコルを決定してよい。これによって、寄与度が低い領域の空間分解能を低下させてノイズを低減しつつ、寄与度が高い領域の空間分解能を向上させてCT画像の品質を高めることができる。
[Method for determining imaging conditions; Part 5]
FIG. 18 is a diagram for explaining a method of determining imaging conditions. The imaging protocol also includes a protocol for reading detection data from the X-ray detector 115 (hereinafter referred to as a data reading protocol). Therefore, the imaging
[イメージング条件の決定方法;その6]
図19は、イメージング条件の決定方法を説明するための図である。イメージング条件決定機能152は、寄与度マップに基づいて、フォトンカウンティングにおけるエネルギーBINの範囲を動的に変更してもよい。例えば、X線検出器115において、BIN範囲を変更可能であったとする。更に、寄与度マップとして、低エネルギーが効く空間分布を示す寄与度マップ1、中エネルギーが効く空間分布を示す寄与度マップ2、高エネルギーが効く空間分布を示す寄与度マップ3、が得られているものとする。この場合、イメージング条件決定機能152は、寄与度マップ1、2、3に応じて、各検出領域のBINの閾値を変更する。例えば、図19の体軸方向上(Z軸方向上)の領域は、低エネルギーは良く効き、高エネルギーはあまり影響しないことから、低エネルギーのBINを細かくし、高エネルギーのBINを荒くする。これによって、寄与度が高い領域を細かくエネルギー分解することができる。
[Method for determining imaging conditions; Part 6]
FIG. 19 is a diagram for explaining a method of determining imaging conditions. Imaging
[イメージング条件の決定方法;その7]
図20は、イメージング条件の決定方法を説明するための図である。イメージング条件決定機能152は、寄与度に応じてX線を照射する際のエネルギーを動的に変更してよい。図示のように、例えば、80keVというエネルギーのX線を照射することで得られた寄与度マップと、120keVというエネルギーのX線を照射することで得られた寄与度マップとがあったとする。この場合、イメージング条件決定機能152は、80keVの寄与度マップ上において寄与度が高い領域については、エネルギーを80keVまで高め、120keVの寄与度マップ上において寄与度が高い領域については、エネルギーを120keVまで高めるような撮影プロトコルを決定してよい。
[Method for determining imaging conditions; Part 7]
FIG. 20 is a diagram for explaining a method of determining imaging conditions. The imaging
[イメージング条件の決定方法;その7]
図21は、イメージング条件の決定方法を説明するための図である。イメージング条件決定機能152は、寄与度の時間変化に応じて、撮影プロトコルを決定してよい。上述したように、寄与度マップは、CT画像上の各位置に寄与度が時系列に対応付けられた時系列データであってもよい。
[Method for determining imaging conditions; Part 7]
FIG. 21 is a diagram for explaining a method of determining imaging conditions. The imaging
例えば、時刻t1のスキャンAは、血管に造影剤を投与する際の撮影であり、時刻t2のスキャンBと、時刻t3のスキャンCは、心筋の撮影であるものとする。処理回路150は、スキャンAで得られたCT画像を学習済みモデルMDLに入力することで、将来の時刻t2やt3の寄与度マップを生成する。イメージング条件決定機能152は、時刻t2やt3の寄与度マップを基に、次の時刻t2の撮影プロトコルや、更にその次の時刻t3の撮影プロトコルを決定する。
For example, it is assumed that scan A at time t1 is imaging when a contrast agent is administered into a blood vessel, and scan B at time t2 and scan C at time t3 are imaging of the myocardium. The
更に、処理回路150は、X線CT装置100の撮像系が連続して回転するなどしてスキャンが繰り返されるたびにCT画像を学習済みモデルMDLに入力することで、寄与度マップを生成することを繰り返してよい。そして、処理回路150は、寄与度マップの寄与度が閾値(必要寄与度)を超えた場合、スキャンを終了するようにしてもよい。
Furthermore, the
[イメージング条件の決定方法;その8]
図22及び図23は、イメージング条件の決定方法を説明するための図である。例えば、図22のように、血管造影を開始してから、着目したい血管が最も濃く染まる時刻付近において(図中の2秒前後)、寄与度も併せて上昇するように寄与度マップが生成される場合がある。この場合、図23に表すように、イメージング条件決定機能152は、血管が最も濃く染まる時刻付近において(図中の2秒前後)、X線の線量が多くなるような撮影プロトコルを決定してよい。
[Method for determining imaging conditions; Part 8]
22 and 23 are diagrams for explaining a method of determining imaging conditions. For example, as shown in FIG. 22, after angiography is started, a contribution map is generated so that the contribution also increases around the time when the blood vessel of interest is dyed the darkest (around 2 seconds in the figure). may occur. In this case, as shown in FIG. 23, the imaging
[イメージング条件の決定方法;その9]
図24及び図25は、イメージング条件の決定方法を説明するための図である。図24及び25のように、被検体P´の体軸方向(Z方向)に沿った寄与度マップも生成され得る。例えば、被検体P´の頭部から体軸方向(Z方向)に沿ってスキャンが開始されるものとする。この場合、イメージング条件決定機能152は、被検体P´の頭部から足へと徐々にスキャン位置が移り変わっていくなかで、寄与度マップ上において寄与度が閾値以下となる位置にスキャン位置が達すると、スキャンを終了するような撮影プロトコルを決定してよい。
[Method for determining imaging conditions; Part 9]
24 and 25 are diagrams for explaining a method of determining imaging conditions. As in FIGS. 24 and 25, contribution maps along the body axis direction (Z direction) of the subject P' can also be generated. For example, it is assumed that scanning is started along the body axis direction (Z direction) from the head of the subject P'. In this case, the imaging
図24の例では、被検体P´の頭から足まで満遍なく寄与度が高くなっている。この場合、イメージング条件決定機能152は、途中でスキャンを終了せずに、寄与度の変化に応じてX線の線量などを変えながら、被検体P´の頭から足まで全身をスキャンするような撮影プロトコルを決定する。
In the example of FIG. 24, the contribution is evenly high from the head to the feet of the subject P'. In this case, the imaging
一方、図25の例では、被検体P´の胸部周辺のみ寄与度が高くなっている。この場合、イメージング条件決定機能152は、胸部周辺でX線の線量を増加させた後、腹部以降(図中のZ1以降)のスキャンを終了するような撮影プロトコルを決定する。
On the other hand, in the example of FIG. 25, the degree of contribution is high only around the chest of the subject P'. In this case, the imaging
[イメージング条件の決定方法;その10]
図26及び図27は、イメージング条件の決定方法を説明するための図である。例えば、k、k+1、k+2、k+3のように撮像系が回転しながら被検体P´をスキャンする場合、スキャン位置ごとに寄与度マップが生成される。この場合、イメージング条件決定機能152は、各スキャン位置の寄与度マップに基づいて、各スキャン位置において被検体P´の被ばく量を低減させるための撮影プロトコルを決定してよい。具体的には、図27に表すように、寄与度マップk、k+1、k+2、k+3のそれぞれにおいて、寄与度が低い領域(寄与度が閾値以下の領域)を、X線の線量低下領域に設定する。線量低下領域には、例えば、X線を遮る鉛製のコリメートが物理的に設置されてもよいし、X線の出力を低下させる補償フィルターが設置されてもよい。
[Method for determining imaging conditions; Part 10]
26 and 27 are diagrams for explaining a method of determining imaging conditions. For example, when the subject P' is scanned while the imaging system rotates like k, k+1, k+2, and k+3, a contribution map is generated for each scanning position. In this case, the imaging
[イメージング条件の決定方法;その11]
図28は、イメージング条件の決定方法を説明するための図である。図示のように、イメージング条件決定機能152は、被検体P´の体軸方向(Z方向)の寄与度に応じて、X線の線量低下領域を設定してもよい。例えば、首の寄与度マップでは、マップ中央から下部にかけて寄与度が大きい。この場合、首の線量低下領域は、マップの右端と左端に設定される。胸の寄与度マップでは、マップ全体の寄与度が大きい。この場合、胸の線量低下領域は設定されない。腹の寄与度マップでは、マップの右下の寄与度のみが大きい。この場合、腹の線量低下領域は、マップの中央から見て左側全域に設定される。
[Method for determining imaging conditions; Part 11]
FIG. 28 is a diagram for explaining a method of determining imaging conditions. As illustrated, the imaging
以上説明した実施形態によれば、学習装置200は、CT画像が入力されると、入力されたCT画像に含まれる人物の診療結果及び寄与度マップを出力するようにモデルMDLを学習する。X線CT装置100は、被検体P´を撮影してCT画像を生成すると、そのCT画像と、トレーニング時に学習済みモデルMDLによって出力された寄与度マップとに基づいて、被検体P´のCT画像のイメージング条件を決定する。この結果、撮影及び解析を相互に影響させ合いながら、高精度な診断が可能な医用画像を得ることができる。
According to the embodiment described above, when a CT image is input, the
また、上述した実施形態によれば、寄与度が低い領域についてはX線の線量を低くし、寄与度が高い領域についてはX線の線量を高くするような撮影プロトコルを決定するため、被検体P´の被ばく量を低減させながら、被検体P´のCT画像の品質(SN比)を向上させることができる。 Further, according to the above-described embodiment, in order to determine an imaging protocol that lowers the dose of X-rays for regions with a low degree of contribution and increases the dose of X-rays for regions with a high degree of contribution, the subject It is possible to improve the quality (SN ratio) of the CT image of the subject P' while reducing the exposure dose of P'.
また、上述した実施形態によれば、寄与度が低い領域についてはX線の照射時間を短くし、寄与度が高い領域についてはX線の照射時間を長くするような撮影プロトコルを決定するため、被検体P´の被ばく量を低減させながら、被検体P´のCT画像の品質(SN比)を向上させることができる。 Further, according to the above-described embodiment, in order to determine an imaging protocol that shortens the X-ray irradiation time for regions with a low contribution and lengthens the X-ray irradiation time for regions with a high contribution, It is possible to improve the quality (SN ratio) of the CT image of the subject P' while reducing the exposure dose of the subject P'.
また、上述した実施形態によれば、寄与度が高い領域に対して照射したX線については高精細なX線検出器115によって検出させるような撮影プロトコルを決定するため、寄与度が高い領域の空間分解能が向上する。
Further, according to the above-described embodiment, since the imaging protocol is determined such that the high-
また、上述した実施形態によれば、寄与度が高い領域と低い領域との境界に空間フィルタ(例えばメディアンフィルタ等)を入れるような撮影プロトコルを決定するため、画像ノイズを低減することができる。この結果、被検体P´のCT画像の品質を向上させることができる。 In addition, according to the above-described embodiment, image noise can be reduced because an imaging protocol is determined in which a spatial filter (for example, a median filter or the like) is placed at the boundary between a high contribution area and a low contribution area. As a result, the quality of the CT image of the subject P' can be improved.
また、上述した実施形態によれば、寄与度が低い領域についてはフォトンカウンティングのBIN数を少なくし、寄与度が高い領域についてはBIN数を多くするような撮影プロトコルを決定するため、エネルギー分解能を向上させることができる。 Further, according to the above-described embodiment, the imaging protocol is determined such that the number of BINs for photon counting is reduced for regions with low contribution and the number of BINs for photon counting is increased for regions with high contribution. can be improved.
また、上述した実施形態によれば、寄与度が低い領域についてはX線管111の電流又は電圧を小さくし、寄与度が高い領域についてはX線管111の電流又は電圧を大きくするような撮影プロトコルを決定するため、被検体P´のCT画像の品質(SN比)を向上させることができる。
Further, according to the above-described embodiment, the current or voltage of the
(その他の実施形態(変形例))
以下、上述した実施形態の変形例について説明する。上述した実施形態では、モダリティであるX線CT装置100と、ワークステーションやクラウドサーバである学習装置200とは、それぞれ別体の装置であるものとして説明したがこれに限られない。
(Other embodiments (modifications))
Modifications of the above-described embodiment will be described below. In the above-described embodiment, the
例えば、学習装置200は、X線CT装置100の一つの機能であってもよい。具体的には、X線CT装置100は、学習装置200の各種機能(取得機能212や学習機能214)を備えてよい。また、X線CT装置100は、学習装置200の一つの機能であってもよい。具体的には、学習装置200は、X線CT装置100の各種機能(イメージング条件決定機能152)を備えてよい。このように、X線CT装置100と学習装置200とは一体の装置であってもよい。これら装置を備える医用画像診断システム1は、「医用画像診断装置」の他の例である。
For example,
また、上述した実施形態では、学習済みモデルMDLは一つであるものとして説明したがこれに限られない。例えば、診断したい特定の疾患が複数存在する場合、学習済みモデルMDLは各疾患ごとに生成されてよい。例えば、肺がん用の学習済みモデルMDL1と、胸膜炎用の学習済みモデルMDL2と、気管支ぜんそく用の学習済みモデルMDL3があったとする。この場合、三つの学習済みモデルMDL1~3の其々に同じCT画像が入力される。三つの学習済みモデルMDL1~3の其々は、寄与度マップを出力する。疾患が違えばCT画像上において注目すべき部位も異なる可能性があり、それに応じて寄与度マップも異なる可能性がある。このような場合、学習済みモデルMDLごとの寄与度マップを足し合わせたり、平均をとるなどして一つの寄与度マップに合成してよい。 Also, in the above-described embodiment, the number of trained models MDL is one, but the number is not limited to this. For example, if there are multiple specific diseases to be diagnosed, a trained model MDL may be generated for each disease. For example, assume that there is a trained model MDL1 for lung cancer, a trained model MDL2 for pleurisy, and a trained model MDL3 for bronchial asthma. In this case, the same CT image is input to each of the three trained models MDL1-3. Each of the three trained models MDL1-3 outputs a contribution map. If the disease is different, there is a possibility that the part to be noted on the CT image will be different, and the contribution map may be different accordingly. In such a case, the contribution maps for each learned model MDL may be added or averaged to synthesize one contribution map.
また、上述した実施形態では、CT画像に対して正解の診療結果がラベル(ターゲット)として対応付けられた教師データを基に、CT画像が入力されると、寄与度マップ及び診療結果を出力するようにモデルMDLを学習するものとして説明したがこれに限られない。例えば、モデルMDLは、事前に十分学習されたモデルAと、事前に十分学習されたモデルBとを組み合わせたモデルであってよい。モデルAは、CT画像が入力されると、寄与度マップを出力するように学習されたものであってよく、例えば、アテンション機構として機能するDNNであってよい。また、モデルBは、CT画像が入力されると、診療結果を出力するように学習されたものであってよく、例えば、CNNであってよい。このように、診療結果を推定する機能や、寄与度マップを生成する機能といったように、機能ごとに事前学習された複数のモデルを一つに組み合わせて、本実施形態に係る「モデルMDL」としてもよい。この場合、モデルMDLは、教師データを基に学習されなくてもよい。 Further, in the above-described embodiment, when a CT image is input based on teacher data in which correct medical results are associated with the CT images as labels (targets), a contribution map and medical results are output. Although the model MDL is learned as described above, the present invention is not limited to this. For example, the model MDL may be a combination of model A, which has been fully pre-trained, and model B, which has been fully pre-trained. Model A may be trained to output a contribution map when CT images are input, and may be, for example, a DNN that functions as an attention mechanism. Also, the model B may be trained to output medical results when a CT image is input, and may be, for example, a CNN. In this way, a plurality of pre-learned models for each function, such as the function of estimating medical treatment results and the function of generating a contribution degree map, are combined into one as a "model MDL" according to the present embodiment. good too. In this case, the model MDL does not have to be learned based on teacher data.
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.
1…医用画像診断システム、100…X線CT装置、110…架台装置、130…寝台装置、140…コンソール装置、141…メモリ、142…ディスプレイ、143…入力インタフェース、144…通信インタフェース、150…処理回路、151…システム制御機能、イメージング条件決定機能、153…前処理機能、154…再構成処理機能、155…画像処理機能、156…出力制御機能、200…学習装置、202…通信インタフェース、204…入力インタフェース、206…ディスプレイ、208…メモリ、210…処理回路、212…取得機能、214…学習機能、216…出力制御機能
DESCRIPTION OF
Claims (21)
医用画像が入力されると、前記入力された医用画像に含まれる人物の診療結果、及び前記入力された医用画像上の各位置に前記診療結果への寄与度が対応付けられたマップを出力するように学習されたモデルと、前記取得部によって取得された前記被検体の医用画像とに基づいて、前記被検体の医用画像のイメージング条件を決定する決定部と、
を備える医用画像診断装置。 an acquisition unit that acquires a medical image of a subject;
When a medical image is input, a map is output in which a medical result of a person included in the input medical image and a degree of contribution to the medical result are associated with each position on the input medical image. a determination unit that determines imaging conditions for the medical image of the subject based on the model learned as above and the medical image of the subject acquired by the acquisition unit;
A medical image diagnostic device comprising:
請求項1に記載の医用画像診断装置。 The determination unit determines the imaging conditions based on the map output by the model during learning and the medical image of the subject acquired by the acquisition unit.
The medical image diagnostic apparatus according to claim 1.
学習時に前記モデルにより出力された前記マップと、前記取得部によって取得された前記被検体の医用画像との位置合わせを行い、
前記被検体の医用画像に対して位置合わせを行った前記マップに基づいて、前記イメージング条件を決定する、
請求項2に記載の医用画像診断装置。 The decision unit
aligning the map output by the model during learning with the medical image of the subject acquired by the acquisition unit;
Determining the imaging conditions based on the map aligned with the medical image of the subject;
The medical image diagnostic apparatus according to claim 2.
前記決定部は、前記取得部によって以前に取得された前記被検体の医用画像を前記モデルに対して入力し、学習時に前記モデルによって出力された前記マップである第1マップと、前記医用画像が入力された前記モデルによって出力された前記マップである第2マップと、前記取得部によって新たに取得された前記被検体の医用画像とに基づいて、前記イメージング条件を新たに決定する、
請求項2又は3に記載の医用画像診断装置。 The acquisition unit newly acquires a medical image of the subject captured based on the imaging conditions,
The determining unit inputs the medical image of the subject previously acquired by the acquiring unit to the model, and the first map, which is the map output by the model during learning, and the medical image newly determining the imaging condition based on the second map, which is the map output by the input model, and the medical image of the subject newly acquired by the acquisition unit;
The medical image diagnostic apparatus according to claim 2 or 3.
前記第1マップと前記第2マップとを重み付けて合成し、
前記合成した第3マップと、前記取得部によって新たに取得された前記被検体の医用画像との位置合わせを行い、
前記被検体の医用画像に対して位置合わせを行った前記第3マップに基づいて、前記イメージング条件を決定する、
請求項4に記載の医用画像診断装置。 The decision unit
weighting and synthesizing the first map and the second map;
aligning the synthesized third map with the medical image of the subject newly acquired by the acquiring unit;
determining the imaging conditions based on the third map aligned with the medical image of the subject;
The medical image diagnostic apparatus according to claim 4.
請求項5に記載の医用画像診断装置。 The determination unit increases the weight of the second map compared to the first map.
The medical image diagnostic apparatus according to claim 5.
前記決定部は、前記被検体の医用画像が取得される度に、前記被検体の医用画像を前記モデルに対して入力し、前記被検体の医用画像が入力される度に前記モデルにより出力された複数の前記第2マップと、前記第1マップとを重み付けて合成する、
請求項5又は6に記載の医用画像診断装置。 The acquiring unit acquires a new medical image of the subject each time the imaging condition is determined,
The determination unit inputs the medical image of the subject to the model each time the medical image of the subject is acquired, and outputs the image from the model each time the medical image of the subject is input. weighting and synthesizing the plurality of second maps and the first map;
The medical image diagnostic apparatus according to claim 5 or 6.
請求項7に記載の医用画像診断装置。 wherein the determination unit increases the weight of the second map, among the plurality of second maps, for a second map output at a later time by the model;
The medical image diagnostic apparatus according to claim 7.
請求項1から8のうちいずれか一項に記載の医用画像診断装置。 The imaging conditions include at least one of an imaging protocol for imaging the subject, a preprocessing condition for data obtained by scanning the subject, and a reconstruction condition for reconstructing the medical image from the data. included,
The medical image diagnostic apparatus according to any one of claims 1 to 8.
請求項1から9のうちいずれか一項に記載の医用画像診断装置。 The map is time series data in which the contribution is associated with each position on the input medical image in a time series.
The medical image diagnostic apparatus according to any one of claims 1 to 9.
前記決定部は、前記マップ上において前記寄与度が低い領域に照射される前記X線の線量を低下させる撮影プロトコルを、前記イメージング条件として決定する、
請求項1から10のうちいずれか一項に記載の医用画像診断装置。 the medical image is a medical image taken by X-ray,
The determining unit determines, as the imaging condition, an imaging protocol that reduces the dose of the X-rays irradiated to the low-contribution region on the map.
The medical image diagnostic apparatus according to any one of claims 1 to 10.
前記決定部は、前記マップ上において前記寄与度が高い領域に照射される前記X線の線量を増加させる撮影プロトコルを、前記イメージング条件として決定する、
請求項1から11のうちいずれか一項に記載の医用画像診断装置。 the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that increases the dose of the X-rays irradiated to the region with the high contribution on the map,
The medical image diagnostic apparatus according to any one of claims 1 to 11.
前記決定部は、前記マップ上において前記寄与度が低い領域に対する前記X線の照射時間を短くする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から10のうちいずれか一項に記載の医用画像診断装置。 the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that shortens the irradiation time of the X-rays for the low-contribution region on the map.
The medical image diagnostic apparatus according to any one of claims 1 to 10.
前記決定部は、前記マップ上において前記寄与度が高い領域に対する前記X線の照射時間を長くする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から13のうちいずれか一項に記載の医用画像診断装置。 the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that lengthens the irradiation time of the X-rays for the region with the high contribution on the map.
14. The medical image diagnostic apparatus according to any one of claims 1-13.
前記決定部は、前記マップ上において前記寄与度が低い領域におけるフォトンのバインディング数を少なくする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から14のうちいずれか一項に記載の医用画像診断装置。 the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that reduces the number of photon bindings in the low-contribution region on the map.
15. The medical image diagnostic apparatus according to any one of claims 1-14.
前記決定部は、前記マップ上において前記寄与度が高い領域におけるフォトンのバインディング数を多くする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から15のうちいずれか一項に記載の医用画像診断装置。 the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that increases the number of photon bindings in the high-contribution region on the map.
16. A medical imaging diagnostic apparatus according to any one of claims 1-15.
前記決定部は、前記マップ上において前記寄与度が低い領域において、前記X線を照射するX線管の電流又は電圧を小さくする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から16のうちいずれか一項に記載の医用画像診断装置。 the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that reduces the current or voltage of the X-ray tube that emits the X-rays in the low-contribution region on the map.
17. A medical imaging diagnostic apparatus according to any one of claims 1-16.
前記決定部は、前記マップ上において前記寄与度が高い領域において、前記X線を照射するX線管の電流又は電圧を大きくする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から17のうちいずれか一項に記載の医用画像診断装置。 the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that increases the current or voltage of the X-ray tube that irradiates the X-rays in the region of high contribution on the map.
18. A medical imaging diagnostic apparatus according to any one of claims 1-17.
複数の前記モデルが存在する場合、前記被検体の医用画像を複数の前記モデルの其々に入力し、複数の前記モデルの其々によって出力された前記マップを合成し、
前記合成したマップに基づいて、前記イメージング条件を決定する、
請求項1から18のうちいずれか一項に記載の医用画像診断装置。 The decision unit
when a plurality of said models exist, inputting a medical image of said subject into each of said plurality of said models, synthesizing said map output by each of said plurality of said models;
determining the imaging conditions based on the combined map;
19. A medical imaging diagnostic apparatus according to any one of claims 1-18.
被検体の医用画像を取得し、
医用画像が入力されると、前記入力された医用画像に含まれる人物の診療結果、及び前記入力された医用画像上の各位置に前記診療結果への寄与度が対応付けられたマップを出力するように学習されたモデルと、前記取得した被検体の医用画像とに基づいて、前記被検体の医用画像のイメージング条件を決定する、
医用イメージング条件の決定方法。 the computer
obtaining a medical image of a subject;
When a medical image is input, a map is output in which a medical result of a person included in the input medical image and a degree of contribution to the medical result are associated with each position on the input medical image. Determining imaging conditions for the medical image of the subject based on the learned model and the acquired medical image of the subject,
A method for determining medical imaging conditions.
被検体の医用画像を取得すること、
医用画像が入力されると、前記入力された医用画像に含まれる人物の診療結果、及び前記入力された医用画像上の各位置に前記診療結果への寄与度が対応付けられたマップを出力するように学習されたモデルと、前記取得した被検体の医用画像とに基づいて、前記被検体の医用画像のイメージング条件を決定すること、
を実行させるためのプログラム。 to the computer,
acquiring a medical image of a subject;
When a medical image is input, a map is output in which a medical result of a person included in the input medical image and a degree of contribution to the medical result are associated with each position on the input medical image. Determining imaging conditions for the medical image of the subject based on the model trained as described above and the acquired medical image of the subject;
program to run the
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021079131A JP2022172850A (en) | 2021-05-07 | 2021-05-07 | Medical image diagnostic device, method for determining medical imaging condition, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021079131A JP2022172850A (en) | 2021-05-07 | 2021-05-07 | Medical image diagnostic device, method for determining medical imaging condition, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022172850A true JP2022172850A (en) | 2022-11-17 |
Family
ID=84045940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021079131A Pending JP2022172850A (en) | 2021-05-07 | 2021-05-07 | Medical image diagnostic device, method for determining medical imaging condition, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022172850A (en) |
-
2021
- 2021-05-07 JP JP2021079131A patent/JP2022172850A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109938764B (en) | Self-adaptive multi-part scanning imaging method and system based on deep learning | |
JP7353965B2 (en) | Medical image diagnosis system and trained model generation method | |
JP7348376B2 (en) | Medical processing equipment, X-ray CT system and processing program | |
JP7134805B2 (en) | Medical information processing device and medical information processing system | |
JP7262933B2 (en) | Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program | |
US20210279918A1 (en) | Medical information processing apparatus, medical image diagnosis apparatus, and medical information processing method | |
US11241212B2 (en) | Medical apparatus | |
JP7313818B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSTIC APPARATUS, AND MEDICAL IMAGE PROCESSING METHOD | |
WO2023100926A1 (en) | Medical information processing method and medical information processing device | |
JP2022172850A (en) | Medical image diagnostic device, method for determining medical imaging condition, and program | |
CN110881993A (en) | X-ray CT apparatus, medical image processing apparatus, and X-ray CT system | |
JP7433809B2 (en) | Trained model generation method and medical processing device | |
WO2024048374A1 (en) | Image processing device, photographing system, image processing method, and program | |
US20240032877A1 (en) | Information processing method, medical image diagnostic apparatus, and information processing system for detecting a quiescent cardiac phase | |
JP7443591B2 (en) | Medical image diagnosis device and medical image diagnosis method | |
JP2022180971A (en) | Learning apparatus, medical image processing apparatus, learning method, and program | |
US20230153945A1 (en) | Medical image processing apparatus, medical image processing method, and storage medium | |
JP7437887B2 (en) | Medical information processing equipment and X-ray CT equipment | |
JP7320934B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD | |
JP7483361B2 (en) | Medical image processing device, medical image diagnostic device, and medical image processing program | |
JP2023055322A (en) | Machine learning model evaluation device, machine learning model evaluation method, and program | |
JP7362259B2 (en) | Medical image diagnosis device, medical image diagnosis method, and bed device | |
JP2022178052A (en) | X-ray ct apparatus and control method of x-ray ct apparatus | |
JP2024043514A (en) | Reconstruction device, X-ray CT device, and image processing device | |
JP2022172743A (en) | Medical image processing device, medical image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240401 |