JP7454435B2 - 医用画像処理装置および医用画像処理方法 - Google Patents

医用画像処理装置および医用画像処理方法 Download PDF

Info

Publication number
JP7454435B2
JP7454435B2 JP2020073129A JP2020073129A JP7454435B2 JP 7454435 B2 JP7454435 B2 JP 7454435B2 JP 2020073129 A JP2020073129 A JP 2020073129A JP 2020073129 A JP2020073129 A JP 2020073129A JP 7454435 B2 JP7454435 B2 JP 7454435B2
Authority
JP
Japan
Prior art keywords
data
simulated
ray
information
dimensional data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020073129A
Other languages
English (en)
Other versions
JP2021168788A (ja
Inventor
清一郎 永井
一成 島
登美男 前濱
弘昌 小林
利多 大橋
理絵 落合
明子 山鼻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2020073129A priority Critical patent/JP7454435B2/ja
Publication of JP2021168788A publication Critical patent/JP2021168788A/ja
Application granted granted Critical
Publication of JP7454435B2 publication Critical patent/JP7454435B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明の実施形態は、医用画像処理装置および医用画像処理方法に関する。
画像認識や音声認識の分野において、深層学習などの機械学習が利用されることが増えてきた。深層学習は、多層のニューラルネットワークを用いた機械学習である。例えば、画像認識の分野では、深層学習の1つである畳込みニューラルネットワーク(Convolutional Neural Network、以下CNNという)を用いた学習方法が従来の方法に比べて非常に高い性能を示すことが知られている。CNN(ConvNetとも呼ばれる)は、学習用の画像データを学習することにより、自動で特徴構造を抽出し、入力された画像が学習用の画像データと同じ特徴を持った画像かどうかを判定することができる。
ここで、2次元医用画像の診断のために深層学習を利用することを考える。たとえば2次元医用画像が胸部X線画像である場合、X線CT(Computed Tomography)画像に比べ胸部X線画像は簡易であり被ばく線量も少ない。このため、胸部X線画像は、X線CT装置が普及していない国や被ばく線量を抑えたい場合には有効であるものの、病変の見落とし率が多いことが問題である。したがって、2次元医用画像の診断のために深層学習を利用することができれば非常に有利である。
2次元医用画像の診断のために深層学習を利用する場合には、確定診断済みの2次元医用画像を数多く収集してCNNに学習させることが必要である。しかし、確定診断済みか否かにかかわらず、そもそも2次元医用画像はネットワーク上にありふれた画像ではない。このため、確定診断済みの2次元医用画像は、深層学習で高精度の判定結果を得るために十分な数を収集することが困難である。
一方で、X線CT装置やMRI(Magnetic Resonance Imaging)装置などの高度かつ3次元データが生成可能なモダリティが利用可能な地域では、胸部X線検査などの2次元画像検査において確定診断がなされるには、この種の3次元データが生成可能なモダリティでの検査が必須とされていることが多い。このため、被検体の3次元データは確定診断済みのものが比較的容易に入手可能である。
特表2018-529134号公報
クリストファー M. ビショップ(Christopher M. Bishop)著、「パターン認識と機械学習(Pattern recognition and machine learning)」、(米国)、第1版、スプリンガー(Springer)、2006年、P.225-290
本発明が解決しようとする課題は、第1モダリティの3次元医用画像データにもとづいて学習用に第2モダリティの2次元医用画像データを容易に数多く収集することである。
実施形態に係る医用画像処理装置は、割当部と、生成部と、学習部とを備える。割当部は、第1モダリティで生成された被検体の医用画像の3次元データに含まれる被検体の各部について、密度と組成の情報を含む物質情報を割り当てる。生成部は、物質情報が設定された3次元データを複数の模擬撮影パラメータセットを用いて第2モダリティで撮影したと模すことにより、複数の模擬2次元画像データを生成する。学習部は、複数の模擬2次元画像データと、3次元データに関連付けられた確定診断情報と、をトレーニングデータセットとして用いて学習済みモデルを構築する。
一実施形態に係る医用画像処理装置の一構成例を示すブロック図。 図1に示す処理回路のプロセッサにより、第1モダリティの3次元医用画像データにもとづいて学習用に第2モダリティの2次元医用画像データを容易に数多く収集する際の手順の一例を示すフローチャート。 図2に示す手順におけるデータフローの一例を示す説明図。 図2のステップS2で物質情報割当機能により実行される物質情報割り当て処理の手順の一例を示す、サブルーチンフローチャート。 CAD機能の学習時におけるデータフローの一例を示す説明図。 CAD機能の運用時におけるデータフローの一例を示す説明図。 (a)は臥位の被検体の胸部の水分分布の一例を示す説明図、(b)は立位の被検体の胸部の水分分布の一例を示す説明図。 心拍位相ごとに模擬2Dデータを生成する処理を説明するための図。 3Dデータの各部の一部を消去する処理を説明するための図。 時間情報を持ち時系列的に連続した動態模擬2Dデータの生成処理を説明するための図。
以下、図面を参照しながら、医用画像処理装置および医用画像処理方法の実施形態について詳細に説明する。
本実施形態に係る医用画像処理装置によって生成された学習用の2次元医用画像データ(以下、2Dデータという)は、たとえばCNN(畳み込みニューラルネットワーク)、畳み込み深層信念ネットワーク(CDBN:Convolutional Deep Belief Network)、再構成型トポグラフィック独立成分分析(TICA:Topographic Independent Component Analysis)などの機械学習に利用される。
(構成)
図1は、一実施形態に係る医用画像処理装置10の一構成例を示すブロック図である。医用画像処理装置10は、X線診断装置101、X線CT装置102、画像サーバ103、MRI装置104、超音波診断装置105などのモダリティとネットワーク100を介して接続される。
医用画像処理装置10は、図1に示すように、入力インターフェース11、ディスプレイ12、記憶回路13、ネットワーク接続回路14、および処理回路15を有する。
入力インターフェース11は、たとえばトラックボール、スイッチ、ボタン、マウス、キーボード、操作面へ触れることで入力操作を行なうタッチパッド、光学センサを用いた非接触入力回路、および音声入力回路等などの一般的な入力装置により実現され、ユーザの操作に対応した操作入力信号を処理回路15に出力する。
ディスプレイ12は、たとえば液晶ディスプレイやOLED(Organic Light Emitting Diode)ディスプレイなどの一般的な表示出力装置により構成され、処理回路15の制御に従って各種情報を表示する。
記憶回路13は、たとえば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等の、プロセッサにより読み取り可能な記録媒体を含んだ構成を有し、処理回路15が利用するプログラムやパラメータデータやその他のデータを記憶する。また、記憶回路13は、ネットワーク100を介して取得した被検体のX線CTボリュームデータなどの3次元医用画像データ(以下、3Dデータという)を記憶してもよい。
なお、記憶回路13の記録媒体内のプログラムおよびデータの一部または全部は、ネットワーク100を介した通信によりダウンロードされてもよいし、光ディスクなどの可搬型記憶媒体を介して記憶回路13に与えられてもよい。
ネットワーク接続回路14は、ネットワーク100の形態に応じた種々の情報通信用プロトコルを実装する。ネットワーク接続回路14は、この各種プロトコルに従ってネットワーク100を介して他の電気機器と接続する。ネットワーク100は、電気通信技術を利用した情報通信網全般を意味し、病院基幹LAN(Local Area Network)などの無線/有線LANやインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。
医用画像処理装置10は、2Dデータを生成する第2モダリティの一例としてのX線診断装置101、3Dデータを生成する第1モダリティの一例としてのX線CT装置102、および画像サーバ103とネットワーク100を介して互いにデータ送受信可能に接続される。また、医用画像処理装置10は、ネットワーク100を介して第1モダリティの一例としてのMRI装置104、第2モダリティの一例としての超音波診断装置105と互いにデータ送受信可能に接続されてもよい。なお、医用画像処理装置10は、第1モダリティまたは第2モダリティに内包されてもよい。
処理回路15は、医用画像処理装置10を統括制御する機能を実現する。また、処理回路15は、記憶回路13に記憶されたトレーニングデータ収集プログラムを読み出して実行することにより、第1モダリティの3次元医用画像データにもとづいて学習用に第2モダリティの2次元医用画像データを容易に数多く収集するための処理を実行するためのプロセッサである。
図1に示すように、処理回路15のプロセッサは、3Dデータ取得機能21、物質情報割当機能22、パラメータ設定機能23、模擬2Dデータ生成機能24、学習機能25、およびCAD(Computer Aided Diagnosis)機能26を実現する。これらの各機能は、それぞれプログラムの形態で記憶回路13に記憶されている。
3Dデータ取得機能21は、3Dデータを生成する第1モダリティから、または画像サーバ103から、被検体の3Dデータおよびこの3Dデータに関連付けられた確定診断情報を取得する。
物質情報割当機能22は、第1モダリティで生成された被検体の3Dデータに含まれる被検体の各部について、密度と組成の情報を含む物質情報を割り当てる。物質情報割当機能22は割当部の一例である。
パラメータ設定機能23は、物質情報が設定された3Dデータを第2モダリティで撮影したと模すための、第2モダリティの模擬撮影パラメータセットを多数設定する。
模擬2Dデータ生成機能24は、設定された多数の模擬2次元画像データを用いて物質情報が設定された3Dデータを第2モダリティで撮影したと模すことにより、多数の模擬2Dデータを生成する。模擬2Dデータ生成機能24は生成部の一例である。
学習機能25は、複数の模擬2Dデータを学習用データとし、3Dデータに関連付けられた確定診断情報を教師データとするトレーニングデータセットを用いて、学習済みモデルを構築する。学習機能25は学習部の一例である。学習済みモデルを構築するための機械学習としては、CNN(畳み込みニューラルネットワーク)や畳み込み深層信念ネットワーク(CDBN:Convolutional Deep Belief Network)などの、多層のニューラルネットワークを用いた深層学習を用いることができる。
CAD機能26は、診断対象の2Dデータを取得し、2Dデータにもとづいて診断結果を生成する学習済みモデルに対して診断対象の2次元画像データを入力することにより、診断結果を生成する。CAD機能26は診断部の一例である。
(動作)
次に、本実施形態に係る医用画像処理装置10および医用画像処理方法の動作の一例について説明する。
(動作全体の概略)
図2は、図1に示す処理回路15のプロセッサにより、第1モダリティの3次元医用画像データにもとづいて学習用に第2モダリティの2次元医用画像データを容易に数多く収集する際の手順の一例を示すフローチャートである。図2において、Sに数字を付した符号はフローチャートの各ステップを示す。また、図3は図2に示す手順におけるデータフローの一例を示す説明図である。
図2に示す手順は、3Dデータと確定診断情報とが関連付けられてスタートとなる。
まず、ステップS1において、3Dデータ取得機能21は、3Dデータを生成する第1モダリティ(たとえばX線CTボリュームデータを生成するX線CT装置102)から、または画像サーバ103から、被検体の3Dデータおよびこの3Dデータに関連付けられた確定診断情報を取得する(図3上段の「CT3Dデータと確定診断情報の組」参照)。
次に、ステップS2において、物質情報割当機能22は、第1モダリティで生成された被検体の3Dデータに含まれる被検体の各部について、密度と組成の情報を含む物質情報を高精度に割り当てる。この結果、被検体の3Dデータに対して物質情報が割り当てられた人体モデルが作成される(図3中段参照)。
次に、ステップS3において、パラメータ設定機能23は、物質情報が設定された3Dデータを第2モダリティで撮影したと模すための、第2モダリティの模擬撮影パラメータセットを多数設定する。
たとえば、第2モダリティが立位で胸部X線撮影可能なX線診断装置101である場合は、パラメータ設定機能23が設定するパラメータには撮影条件、X線管の焦点サイズ、散乱線含有率、SID(Source to Image Distance、X線間焦点-受像面間距離)、PID(Patient to Image Distance、被検体-受像面間距離)、量子ノイズ、ビーム入射角度、撮影方向(立位の正面からか側面からか)、検出器性能などが含まれる。
撮影条件には、管電圧、管電流、パルス幅、ビームフィルタが含まれる。X線管の焦点サイズは、点光源からの投影となるためことに留意する。被検体の体厚があるため、点光源から投影されたビームは被検体の各部で拡大率が異なるコーンビームとなる。散乱線含有率は、グリッドの散乱線除去率と焦点距離を考慮したものとするとよい。
ビーム入射角度は、撮影方向が同一(たとえば正面)だったとしても、上下、左右にわずかに(たとえばプラスマイナス5度など)ずらした範囲でさまざまなパラメータ値を設定する。これは、被検体が撮影時に必ずしも理想通りに位置するとは限らず、X線管が被検体を見込む角度に微妙な傾きが生じることが十分に考えられるためである。胸部X線撮影においてビーム入射角度がわずかでも変化すれば、病変の肋骨へ重なり状態が変わってしまう。検出器性能には、検出器画素サイズ、検出器画素間隔、検出器検出効率、検出器検出効率のエネルギー特性、空間解像度特性が含まれる。
パラメータ設定機能23は、これらの複数のパラメータの組からなる模擬撮影パラメータセットを多数設定する。
そして、ステップS4において、模擬2Dデータ生成機能24は、設定された多数の模擬2次元画像データを用いて、高精度な物質情報が割り当てられた3Dデータを第2モダリティで撮影したと模すことにより、多数の模擬2Dデータ(たとえば模擬胸部X線画像データ)を生成する(図3下段参照)。
たとえば、上記例と同様に第2モダリティが立位で胸部X線撮影可能なX線診断装置101である場合には、高精度な物質情報が割り当てられた3Dデータにもとづいて、X線の通過パス上の物質情報からX線透過率を計算する。そして、X線検出器(FPD、Flat Panel Detector)の各画素で吸収される光子数を求めることで、1組の模擬撮影パラメータセットから1つの模擬2Dデータが生成される。この結果、第1のモダリティの1つの3Dデータに関連付けられた確定診断情報と、当該3Dデータにもとづいて生成された多数の模擬2Dデータとの組からなるトレーニングデータセットが取得される(図3の二重枠の「トレーニングデータセット」参照)。
以上の手順により、第1モダリティの1つの3Dデータにもとづいて学習用に第2モダリティの模擬2Dデータを容易に数多く収集することができる。このため、第1モダリティの多数の3Dデータに対して上記手順を適用することで、容易に多数の第2モダリティの模擬2Dデータを学習用に収集することができ、多数のトレーニングデータセットを取得することができる。
本実施形態に係る医用画像処理装置10は、高精度な物質情報が割り当てられた3Dデータを複数の模擬撮影パラメータセットを用いて第2モダリティで撮影したと模すことにより、複数の模擬2Dデータを生成する。このため、模擬2Dデータは、高精度な物質情報が割り当てられた3Dデータ(すなわち人体モデル)の投影データであるため、被検体の体厚方向にしっかりと情報が積算されている。したがって、第1モダリティの3Dデータの単なる断層像を学習用データとして用いる場合に比べ、はるかに高精度な学習済みモデルを構築することが可能となる。
(物質情報割り当て処理)
つづいて、物質情報割当機能22による、3Dデータの各部に対する高精度な物質情報の割り当て処理(以下、物質情報割り当て処理という)について説明する。
図4は、図2のステップS2で物質情報割当機能22により実行される物質情報割り当て処理の手順の一例を示す、サブルーチンフローチャートである。
なお、図4に示す手順についての以下の説明では、第1モダリティがX線CTボリュームデータを生成するX線CT装置102であり、第2モダリティが立位で胸部X線撮影可能なX線診断装置101である場合の例を示す。
ステップS21において、物質情報割当機能22は、CT3Dデータ(ボリュームデータ)をセグメンテーション処理することにより、CT3Dデータに含まれる被検体の各部を抽出する。具体的には、セグメンテーション処理では臓器、脂肪、水分、病変、インプラントなどが識別される。本実施形態における「各部」は、臓器、脂肪、水分を少なくとも含む。臓器は、内臓、筋肉、骨、皮膚、リンパ管、血管、間質などを含む。脂肪は、皮下脂肪、内臓脂肪を含む。水分は、リンパ管内リンパ液、血管内血液、間質液を含む。
次に、ステップS22において、物質情報割当機能22は、CT3Dデータの各部に、まずは既知の標準的な物質情報を仮に割り当てる。標準的な物質情報としては、たとえばICRU(International Commission on Radiation Units and Measurements)のデータなどを用いることができる。
ここでは、各部iの物質の密度を、ai*(標準物質iの密度)+bi*(水分の標準密度)+ci*(脂肪の密度)と定義する(ただしai+bi+ci=1)。「標準物質i」の情報には、複数の元素(たとえば炭素、酸素、水素、りん、窒素など)のの構成比の情報が含まれている。また、各部iには、ai、bi、ciの割合で標準物質i、水分、脂肪が均質に分布していると仮定する。
初期値をai_0、bi_0、ci_0として、たとえばai_0=1、bi_0=0、ci_0=0とする。標準物質i、水、脂肪の元素組成は、それぞれ既知である。このため、各部iの各ボクセルに含まれる物質の密度と元素組成が決まる。これを各部の全てについて行う。
次に、ステップS23において、物質情報割当機能22は、CT3DデータのX線CT撮影時の撮影パラメータを取得する。この撮影パラメータは、SID、PID、管電圧、管電流、ビームフィルタ、寝台、コリメータ、検出器画素サイズ、検出器画素間隔、検出器検出効率、検出器検出効率のエネルギー特性などを含む。
次に、ステップS24において、物質情報割当機能22は、物質情報が仮に割り当てられたCT3Dデータにもとづいて、X線CT撮影時の撮影パラメータを用いて模擬サイノグラムScalcを生成する。模擬サイノグラムScalcは、X線CT撮影時の撮影パラメータを用いて物質情報が仮に割り当てられたCT3Dデータから一連の投影画像データを作成し、これらを並べることにより生成される。
次に、ステップS25において、物質情報割当機能22は、X線CT撮影時に実際に得られた実サイノグラムSrealと模擬サイノグラムScalcとの差異を検出する。この差異は、たとえばΔ^2=|Scalc-Sreal|^2として求めることができる。この差異の値Δ^2は、2つのサイノグラムの対応する画素どうしの画素値の差分の2乗を、画像内(サイノグラムのエアパスを除く画素)の所定の関心領域について求めて総和をとったものとするとよい。関心領域は、全画像領域であってもよいし、計算時間を考慮して画像の一部領域であってもよい。
次に、ステップS26において、物質情報割当機能22は、ステップS25で求めた差異が小さくなるように物質情報を修正する。具体的には、物質情報割当機能22は、差異Δ^2が最小となるαi、βi、γi(ai=ai_0+αi、bi=bi_0+βi、ci=ci_0+γi)を求め、ai、bi、ciを修正する。
次に、ステップS27において、物質情報割当機能22は、ステップS26で最小とした差異が閾値以下であるか否かを判定する。差異が閾値以下の場合は、修正したai、bi、ciを高精度な物質情報を示すデータであるとして最終決定し、図2のステップS3に進む。一方、求めた差異が閾値より大きい場合は、修正したai、bi、ciをai_0、bi_0、ci_0とし、物質情報を修正するためステップS24に戻る。
以上の手順により、3Dデータの各部に対して高精度な物質情報を割り当てることができる。
CT3Dデータにもとづいて胸部X線画像の模擬2Dデータを生成するためには、CT3Dデータに割り当てられた物質情報の精度が高いことが望ましい。この点、本実施形態に係る医用画像処理装置10によれば、模擬サイノグラムScalcと実サイノグラムSrealとの比較にもとづいて物質情報を修正することができる。このため、被検体ごとの骨密度や水分含有量のばらつきの影響も考慮した高精度な物質情報をCT3Dデータに割り当てることができる。
なお、CT3Dデータとともに同じ被検体の胸部X線画像データを取得可能な場合は、サイノグラムの比較と同様に、CT3Dデータから生成した模擬X線画像データと実際の胸部X線画像データとの差異(画素値、臓器位置など)にもとづいて物質情報を修正してもよい。
(学習済みモデルの構築)
図5は、CAD機能26の学習時におけるデータフローの一例を示す説明図である。CAD機能26は、多数のトレーニングデータセットを用いて深層学習を行うことにより、パラメータデータ262を逐次的に更新する。
多数のトレーニングデータセットのそれぞれのトレーニングデータセットは、学習用データ41と教師データ42の組からなる。学習用データ41は、模擬2Dデータ生成機能24により多数生成された模擬2Dデータ411、412、413、・・・である。教師データ42は、模擬2Dデータ411、412、413、・・・を生成するもととなった3Dデータに関連付けられて3Dデータ取得機能21に取得された確定診断情報である。
CAD機能26は、学習機能25に制御されて、トレーニングデータセットが与えられるごとに、学習用データ41をニューラルネットワーク261で処理した結果が教師データ42に近づくようにパラメータデータ262を更新していく、いわゆる学習を行う。一般に、パラメータデータ262の変化割合が閾値以内に収束すると、学習は終了と判断される。以下、学習後のパラメータデータ262を特に学習済みパラメータデータ262tという。
なお、学習済みモデルは、パラメータごとに構築してもよい。たとえば、胸部X線画像を模した2Dデータを用いて学習する場合は、模擬撮影パラメータセットの撮影方向を正面に設定したものと側面に設定したものとで模擬2Dデータを分類し、被検体の正面からのX線撮影と側面からのX線撮影とのそれぞれで、異なる学習済みモデルを構築してもよい。
(学習済みモデルの運用)
図6は、CAD機能26の運用時におけるデータフローの一例を示す説明図である。運用時には、CAD機能26は、診断対象の2Dデータ51を入力され、学習済みモデル30を用いて、診断情報52を生成する。
なお、ニューラルネットワーク261と学習済みパラメータデータ262tは、学習済みモデル30を構成する。この種の学習の方法および学習済みモデルの構築方法については、非特許文献1に開示された方法など種々の方法が知られている。ニューラルネットワーク261は、プログラムの形態で記憶回路13に記憶される。学習済みパラメータデータ262tは、記憶回路13に記憶されてもよいし、ネットワーク100を介して処理回路15と接続された記憶媒体に記憶されてもよい。学習済みモデル30(ニューラルネットワーク261と学習済みパラメータデータ262t)が記憶回路13に記憶される場合、処理回路15のプロセッサにより実現されるCAD機能26は、記憶回路13から学習済みモデル30を読み出して実行することで、入力2Dデータ51にもとづいて診断情報52を生成することができる。
学習済みモデル30は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などの集積回路によって構築されてもよい。
(体位に応じた物質情報の修正)
ところで、第1モダリティが臥位で被検体を撮影する装置である一方、第2モダリティが立位で被検体を撮影する装置である場合がある。この場合は、より高精度な物質情報の割り当てのため、体位に応じて物質情報を修正することが好ましい。
図7(a)は臥位の被検体の胸部の水分分布の一例を示す説明図であり、(b)は立位の被検体の胸部の水分分布の一例を示す説明図である。
たとえば、第1モダリティがX線CTボリュームデータを生成するX線CT装置102であり、第2モダリティが立位で胸部X線撮影可能なX線診断装置101である場合の例を考える。この場合、X線CT画像は臥位で撮影されるため、重力による被検体の体内の上下方向への水分の移動はない。一方で、胸部X線画像は立位で撮影するため、重力により、被検体の体内の水分が下方に移動する。このため、X線透過率は胸部の上部よりも下部のほうが低くなる。
したがって、この各部へ物質情報を割り当てる際に、含有水分量を身体の上下方向で重力に従った配分とすることで、より胸部X線画像に近い模擬X線画像を得ることができる。このため、物質情報割当機能22は、被検体の撮影時の体位の差異にもとづいて、X線診断装置101において立位で被検体を撮影したと模した場合の各部に含まれる水分の分布を推定し、この推定した水分の分布にもとづいてCT3Dデータの各部に物質情報を割り当てる。
より具体的には、被検体各部の臓器、脂肪、水分のうち、重力の影響を受けて位置が変わる水分は、リンパ管内リンパ液、血管内血液、間質液などの水分であり、臓器、脂肪の細胞内の水分の位置は変わらない。臥位状態でのリンパ管内リンパ液、血管内血液、間質液の被検体内の分布(水分の位置とその位置における量)は、図4に示した物質情報割り当て処理により知ることができる。一方、立位と臥位での水分の分布の人体一般の標準的な差異は、立位と臥位の両方の医用画像データ(単純X線画像、X線CT画像、MR画像など)を比較することにより、知ることができる。
したがって、立位と臥位での水分の分布の標準的な差異を再現するように、それぞれの液量の全量が変化しない条件で被検体の各位置での液量(リンパ管内リンパ液、血管内血液、間質液)を増減させることで、被検体の立位時のリンパ管内リンパ液、血管内血液、間質液の分布を推定することができる。
たとえば、3次元座標Xでの間質液の分布をA(X)とし、間質液の全量をΣA(X)(Xについての総和)とする。3次元座標Xは人体基準の座標であり、立位でも臥位でも変わらないものとする。立位と臥位での水分量の分布の標準的な差異をα(X)とすると、立位での被検体の間質液の分布A’(X)はA’(X)=α’(X)*A(X)として計算することができる。ただし、α’(X)は、α(X)にもとづいて、Xについての総和がΣA’(X)=ΣA(X)となるように修正されたものである。
このように、体位の差異による水分の分布の違いを考慮することにより、高精度な2Dデータを生成することができる。
また、体位の違いによる重力の影響により臓器などの各部の位置および形状のずれが生じる。この各部の位置および形状のずれを考慮してセグメンテーション結果を修正してもよい。重力の影響は被検体の筋肉量および脂肪量によって変化することが知られている。このため、たとえば仰臥位で取得されたCT3Dデータから立位の模擬2Dデータを生成する場合、被検体の筋肉量および脂肪量にもとづいて立位時における各部の位置や形状を推定するとよい。
(心拍位相を考慮した模擬2Dデータ生成)
図8は、心拍位相ごとに模擬2Dデータを生成する処理を説明するための図である。模擬2Dデータ生成機能24は、特定の心拍位相における3Dデータにもとづいて、特定の心拍位相における模擬2Dデータを多数生成してもよい。
一般に、胸部X線撮影では心電同期は行われない。このため、胸部X線撮影の心拍位相はランダムである。したがって、X線CT撮影を心電同期で行い、任意の心拍位相を取り出したCT3Dデータを用いることで、より実際のX線画像に近い模擬2Dデータを生成することができる。また、X線CT装置102のX線検出器が多列検出器の場合は、撮影時間が長いため、心電同期した投影データから心拍の各位相のCT3Dデータを構築し、各位相のCT3Dデータから模擬2Dデータを生成することができる。このため、さらに多数の学習用の模擬2Dデータを生成することができる。
(物質情報の置換)
図9は、3Dデータの各部の一部を消去する処理を説明するための図である。模擬2Dデータ生成機能24は、3Dデータの各部のうちの一部の物質情報を、たとえば隣接する部位の物質情報に置換してから第2モダリティで撮影したと模すことにより、当該一部を消去した模擬2Dデータを生成してもよい。すなわち、本実施形態に係る医用画像処理装置10は、任意の物質をある特定の組成に置き換えてからX線の通過パスを計算することにより、任意の物質の存在比を変化させた画像を作成することができる。
たとえば、物質情報割当機能22は、CT3Dデータに含まれる骨の成分を周辺臓器と同じ組成の物質に置き換えることにより、骨なしのCT3Dデータを作成することができる。このCT3Dデータを用いることで、骨なしの模擬X線画像データを生成することができる。このため、たとえばデュアルエナジー撮影等で得られる骨パターンを消去または低減した画像に似た学習用データを容易に生成することができる。したがって、骨なしX線画像を入力して診断結果を生成する学習済みモデルを構築することができる。
(動態模擬2Dデータ)
図10は、時間情報を持ち時系列的に連続した動態模擬2Dデータの生成処理を説明するための図である。
確定診断情報が関連付けられた3Dデータが、4DCTのような時間情報を持つ場合、時系列的に連続した複数の3Dデータのそれぞれに対し、同じ模擬撮影パラメータセットを用いて模擬2Dデータを生成することで、時間情報をもち時系列的に連続した動態模擬2Dデータ群を生成することができる。この場合、心拍動や呼吸動をみるために連続X線撮影や透視撮影で得られたX線画像を入力とし、診断情報52を出力とする学習済みモデルを構築することができる。
以上説明した少なくとも1つの実施形態によれば、第1モダリティの3次元医用画像データにもとづいて学習用に第2モダリティの2次元医用画像データを容易に数多く収集することができる。
なお、上記実施形態において、「プロセッサ」という文言は、たとえば、専用または汎用のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、または、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(たとえば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、およびフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサがたとえばCPUである場合、プロセッサは記憶回路に保存されたプログラムを読み出して実行することにより、各種機能を実現する。また、プロセッサがたとえばASICである場合、記憶回路にプログラムを保存するかわりに、当該プログラムに相当する機能がプロセッサの回路内に論理回路として直接組み込まれる。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行するハードウェア処理により各種機能を実現する。あるいはまた、プロセッサは、ソフトウェア処理とハードウェア処理とを組み合わせて各種機能を実現することもできる。
また、上記実施形態では処理回路の単一のプロセッサが各機能を実現する場合の例について示したが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサが各機能を実現してもよい。また、プロセッサが複数設けられる場合、プログラムを記憶する記憶回路は、プロセッサごとに個別に設けられてもよいし、1つの記憶回路が全てのプロセッサの機能に対応するプログラムを一括して記憶してもよい。
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10 医用画像処理装置
15 処理回路
22 物質情報割当機能
23 パラメータ設定機能
24 模擬2Dデータ生成機能
25 学習機能
26 CAD機能
30 学習済みモデル
51 診断対象の2Dデータ
52 診断情報
101 X線診断装置
102 X線CT装置

Claims (11)

  1. 第1モダリティで生成された被検体の医用画像の3次元データに含まれる前記被検体の各部について、密度と組成の情報を含む物質情報を割り当てる割当部と、
    前記物質情報が設定された前記3次元データを複数の模擬撮影パラメータセットを用いて第2モダリティで撮影したと模すことにより、複数の模擬2次元画像データを生成する生成部と、
    前記複数の模擬2次元画像データと、前記3次元データに関連付けられた確定診断情報と、をトレーニングデータセットとして用いて学習済みモデルを構築する学習部と、
    を備え、
    前記割当部は、
    前記3次元データをセグメンテーション処理することで前記各部を抽出し、人体の標準的な物質情報にもとづいて、前記3次元データの前記各部に前記物質情報を割り当て、
    前記第1モダリティはX線CT装置であり、
    前記第2モダリティはX線診断装置であり、
    前記X線CT装置は前記被検体を臥位で撮影する一方、前記X線診断装置は前記被検体を立位で撮影し、
    前記割当部は、
    前記被検体の撮影時の体位の差異にもとづいて、前記X線診断装置において立位で前記被検体を撮影したと模した場合の前記各部に含まれる水分の分布を推定し、この推定した水分の分布にもとづいて前記3次元データの前記各部に前記物質情報を割り当てる、
    用画像処理装置。
  2. 前記割当部は、
    前記各部に前記標準的な物質情報を仮に割り当てられた前記3次元データにもとづいて、当該3次元データのX線CT撮影時の撮影パラメータを用いて模擬サイノグラムを生成し、
    前記X線CT撮影時に実際に得られた実サイノグラムと前記模擬サイノグラムとの差異を求め、
    当該差異にもとづいて前記標準的な物質情報を修正する、
    ことにより、前記3次元データの前記各部に前記物質情報を割り当てる、
    請求項記載の医用画像処理装置。
  3. 前記X線診断装置は前記被検体を立位で撮影する装置であり、
    前記生成部は、
    前記被検体の正面からのX線撮影を模した複数の模擬2次元画像データと、側面からのX線撮影を模した複数の模擬2次元画像データと、を生成し、
    前記学習部は、
    前記被検体の正面からのX線撮影と側面からのX線撮影とのそれぞれで異なる学習済みモデルを構築する、
    請求項または記載の医用画像処理装置。
  4. 前記割当部は、
    リンパ管内リンパ液、血管内血液および間質液の少なくとも1つの分布を推定する、
    請求項1ないし3のいずれか1項に記載の医用画像処理装置。
  5. 前記生成部は、
    特定の心拍位相における前記3次元データにもとづいて前記特定の心拍位相における前記複数の模擬2次元画像データを生成する、
    請求項1ないしのいずれか1項に記載の医用画像処理装置。
  6. 前記生成部は、
    前記3次元データの前記各部のうち、一部の物質情報を隣接する部位の物質情報に置換してから前記第2モダリティで撮影したと模すことにより、当該一部を消去した前記複数の模擬2次元画像データを生成する、
    請求項1ないしのいずれか1項に記載の医用画像処理装置。
  7. 前記生成部は、
    時系列的に連続した複数の前記3次元データにもとづいて、時系列的に連続した動態模擬2次元画像データ群を生成する、
    請求項1ないしのいずれか1項に記載の医用画像処理装置。
  8. 診断対象の2次元画像データを取得し、2次元画像データにもとづいて診断情報を生成する前記学習済みモデルに対して前記診断対象の2次元画像データを入力することにより、診断情報を生成する診断部、
    をさらに備えた請求項1ないしのいずれか1項に記載の医用画像処理装置。
  9. 第1モダリティで生成された被検体の医用画像の3次元データに含まれる前記被検体の各部について、密度と組成の情報を含む物質情報を割り当てるステップと、
    前記物質情報が設定された前記3次元データを複数の模擬撮影パラメータセットを用いて第2モダリティで撮影したと模すことにより、複数の模擬2次元画像データを生成するステップと、
    前記複数の模擬2次元画像データと、前記3次元データに関連付けられた確定診断情報と、をトレーニングデータセットとして用いて学習済みモデルを構築するステップと、
    を有し、
    前記物質情報を割り当てるステップは、
    前記3次元データをセグメンテーション処理することで前記各部を抽出し、人体の標準的な物質情報にもとづいて、前記3次元データの前記各部に前記物質情報を割り当てるステップを含み、
    前記第1モダリティはX線CT装置であり、
    前記第2モダリティはX線診断装置であり、
    前記X線CT装置は前記被検体を臥位で撮影する一方、前記X線診断装置は前記被検体を立位で撮影し、
    前記物質情報を割り当てるステップさらに
    前記被検体の撮影時の体位の差異にもとづいて、前記X線診断装置において立位で前記被検体を撮影したと模した場合の前記各部に含まれる水分の分布を推定し、この推定した水分の分布にもとづいて前記3次元データの前記各部に前記物質情報を割り当てるステップを含む
    用画像処理方法
  10. 第1モダリティで生成された被検体の医用画像の3次元データに含まれる前記被検体の各部について、密度と組成の情報を含む物質情報を割り当てる割当部と、
    前記物質情報が設定された前記3次元データを複数の模擬撮影パラメータセットを用いて第2モダリティで撮影したと模すことにより、複数の模擬2次元画像データを生成する生成部と、
    前記複数の模擬2次元画像データと、前記3次元データに関連付けられた確定診断情報と、をトレーニングデータセットとして用いて学習済みモデルを構築する学習部と、
    を備え、
    前記割当部は、
    前記3次元データをセグメンテーション処理することで前記各部を抽出し、人体の標準的な物質情報にもとづいて、前記3次元データの前記各部に前記物質情報を割り当て、
    前記第1モダリティはX線CT装置であり、
    前記第2モダリティはX線診断装置であり、
    前記割当部は、
    前記各部に前記標準的な物質情報を仮に割り当てられた前記3次元データにもとづいて、当該3次元データのX線CT撮影時の撮影パラメータを用いて模擬サイノグラムを生成し、
    前記X線CT撮影時に実際に得られた実サイノグラムと前記模擬サイノグラムとの差異を求め、
    当該差異にもとづいて前記標準的な物質情報を修正する、
    ことにより、前記3次元データの前記各部に前記物質情報を割り当てる、
    用画像処理装置。
  11. 第1モダリティで生成された被検体の医用画像の3次元データに含まれる前記被検体の各部について、密度と組成の情報を含む物質情報を割り当てるステップと、
    前記物質情報が設定された前記3次元データを複数の模擬撮影パラメータセットを用いて第2モダリティで撮影したと模すことにより、複数の模擬2次元画像データを生成するステップと、
    前記複数の模擬2次元画像データと、前記3次元データに関連付けられた確定診断情報と、をトレーニングデータセットとして用いて学習済みモデルを構築するステップと、
    を有し、
    前記物質情報を割り当てるステップは、
    前記3次元データをセグメンテーション処理することで前記各部を抽出し、人体の標準的な物質情報にもとづいて、前記3次元データの前記各部に前記物質情報を割り当てるステップを含み、
    前記第1モダリティはX線CT装置であり、
    前記第2モダリティはX線診断装置であり、
    前記物質情報を割り当てるステップさらに
    前記各部に前記標準的な物質情報を仮に割り当てられた前記3次元データにもとづいて、当該3次元データのX線CT撮影時の撮影パラメータを用いて模擬サイノグラムを生成し、
    前記X線CT撮影時に実際に得られた実サイノグラムと前記模擬サイノグラムとの差異を求め、
    当該差異にもとづいて前記標準的な物質情報を修正する、
    ことにより、前記3次元データの前記各部に前記物質情報を割り当てるステップを含む
    用画像処理方法
JP2020073129A 2020-04-15 2020-04-15 医用画像処理装置および医用画像処理方法 Active JP7454435B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020073129A JP7454435B2 (ja) 2020-04-15 2020-04-15 医用画像処理装置および医用画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020073129A JP7454435B2 (ja) 2020-04-15 2020-04-15 医用画像処理装置および医用画像処理方法

Publications (2)

Publication Number Publication Date
JP2021168788A JP2021168788A (ja) 2021-10-28
JP7454435B2 true JP7454435B2 (ja) 2024-03-22

Family

ID=78149766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020073129A Active JP7454435B2 (ja) 2020-04-15 2020-04-15 医用画像処理装置および医用画像処理方法

Country Status (1)

Country Link
JP (1) JP7454435B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102643269B1 (ko) * 2022-02-22 2024-03-04 사회복지법인 삼성생명공익재단 3d ct 데이터에서 가상 x-레이 영상을 생성하는 방법 및 영상처리장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007029514A (ja) 2005-07-28 2007-02-08 Fujifilm Corp 画像解析装置、画像解析方法およびそのプログラム
JP2008000190A (ja) 2006-06-20 2008-01-10 Toshiba Corp X線診断装置およびx線診断装置におけるデータ処理方法
JP2011239796A (ja) 2008-09-03 2011-12-01 Konica Minolta Medical & Graphic Inc 医用画像処理装置及び医用画像処理方法
US20190005687A1 (en) 2017-06-29 2019-01-03 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
WO2019212016A1 (ja) 2018-05-01 2019-11-07 国立大学法人東北大学 画像処理装置,画像処理方法および画像処理プログラム
JP2019198376A (ja) 2018-05-14 2019-11-21 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理システム
JP2020048685A (ja) 2018-09-25 2020-04-02 キヤノンメディカルシステムズ株式会社 乳がん診断支援装置、乳がん診断支援システム、および乳がん診断支援方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007029514A (ja) 2005-07-28 2007-02-08 Fujifilm Corp 画像解析装置、画像解析方法およびそのプログラム
JP2008000190A (ja) 2006-06-20 2008-01-10 Toshiba Corp X線診断装置およびx線診断装置におけるデータ処理方法
JP2011239796A (ja) 2008-09-03 2011-12-01 Konica Minolta Medical & Graphic Inc 医用画像処理装置及び医用画像処理方法
US20190005687A1 (en) 2017-06-29 2019-01-03 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
WO2019212016A1 (ja) 2018-05-01 2019-11-07 国立大学法人東北大学 画像処理装置,画像処理方法および画像処理プログラム
JP2019198376A (ja) 2018-05-14 2019-11-21 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理システム
JP2020048685A (ja) 2018-09-25 2020-04-02 キヤノンメディカルシステムズ株式会社 乳がん診断支援装置、乳がん診断支援システム、および乳がん診断支援方法

Also Published As

Publication number Publication date
JP2021168788A (ja) 2021-10-28

Similar Documents

Publication Publication Date Title
CN105517492B (zh) 用于处理心脏数据的处理设备
US20190231288A1 (en) Systems and methods for contrast flow modeling with deep learning
JP7059298B6 (ja) 心筋ct灌流画像合成
CN110944586B (zh) 来自x射线图像数据的炎症估计
US8655040B2 (en) Integrated image registration and motion estimation for medical imaging applications
KR20170060698A (ko) 컴퓨터 단층 촬영장치 및 그 제어방법
US11024061B2 (en) Apparatus and method for scattered radiation correction
US20210035340A1 (en) Ct big data from simulation, emulation and transfer learning
KR101775556B1 (ko) 단층 촬영 장치 및 그에 따른 단층 영상 처리 방법
EP3619686B1 (en) Generation of accurate hybrid datasets for quantitative molecular imaging
WO2021171394A1 (ja) 学習済みモデルの作成方法、画像生成方法および画像処理装置
CN102436006A (zh) 监测身体积累的辐射剂量
JP2024514494A (ja) インモーション多パルス作動x線源トモシンセシスイメージングシステムによる人工知能訓練
JP7454435B2 (ja) 医用画像処理装置および医用画像処理方法
US20210161487A1 (en) System and method for spectral computed tomography using single polychromatic x-ray spectrum acquisition
EP4105888A1 (en) Systems and methods for computed tomography image reconstruction
Khodajou-Chokami et al. Data fusion approach for constructing unsupervised augmented voxel-based statistical anthropomorphic phantoms
CN109688931A (zh) 谱计算机断层扫描指纹识别
WO2016186746A1 (en) Methods and systems for automatic segmentation
US11955228B2 (en) Methods and system for simulated radiology studies based on prior imaging data
JP2023156267A (ja) 情報処理方法及び情報処理装置
JP2023107528A (ja) 情報処理方法、医用画像診断装置及び情報処理システム
KR20160072004A (ko) 단층 촬영 장치 및 그에 따른 단층 영상 복원 방법
Sharma Development and Application of Simulation Tools for Virtual Imaging Trials in Computed Tomography
CN113177907A (zh) 控制医学x射线设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7454435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150