JP7051595B2 - 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム - Google Patents

医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム Download PDF

Info

Publication number
JP7051595B2
JP7051595B2 JP2018108027A JP2018108027A JP7051595B2 JP 7051595 B2 JP7051595 B2 JP 7051595B2 JP 2018108027 A JP2018108027 A JP 2018108027A JP 2018108027 A JP2018108027 A JP 2018108027A JP 7051595 B2 JP7051595 B2 JP 7051595B2
Authority
JP
Japan
Prior art keywords
image
medical
volume data
predictor
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018108027A
Other languages
English (en)
Other versions
JP2019208903A (ja
Inventor
崇啓 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Original Assignee
Ziosoft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc filed Critical Ziosoft Inc
Priority to JP2018108027A priority Critical patent/JP7051595B2/ja
Publication of JP2019208903A publication Critical patent/JP2019208903A/ja
Application granted granted Critical
Publication of JP7051595B2 publication Critical patent/JP7051595B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)
  • Image Processing (AREA)

Description

本開示は、医用画像処理装置、医用画像処理方法、及び医用画像処理プログラムに関する。
従来、時系列に並んだ複数フェーズのボリュームデータにおいてボクセル毎の最大値を合成し、合成ボリュームデータを生成する画像処理方法が知られている。この画像処理方法では、例えば、複数フェーズのボリュームデータに対して共通の仮想光線を投射し、共通の仮想光線上の最大値である1の点の値を取得し、共通の仮想光線上の最大値である1の点の値を用いて、1枚の画像の各画素の画素値を決定する(例えば、特許文献1参照)。
特開2008-035895号公報
特許文献1で得られる1枚の画像の各画素の画素値は、ボリュームデータに対する各仮想光線の最大値となるので、この画像は、4DMIP(4D Maximum Intensity Projection)画像とも称される。4DMIP画像では、ボリュームデータに対する各仮想光線の最大値が画素値となるので、例えばボクセルの一部に高輝度ノイズが含まれる場合、この高輝度ノイズが最大値として画素値に反映され得る。
また、CT(Computed Tomography)装置等の医用画像撮像装置により被検体が撮像される場合、ランダムノイズ等のノイズが含まれる実空間において被検体が撮像されるので、高輝度ノイズが完全に除去された状態で被検体を撮像することは困難である。よって、医用画像撮像装置により得られたボリュームデータに基づく4DMIP画像では、高輝度ノイズが含まれることで、実際の信号の成分(実信号成分)に基づく画素値よりも画素値(輝度値)が高くなり、つまり画像が白くなり易い。
本開示は、上記事情に鑑みてなされたものであり、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像の画質を向上できる医用画像処理装置、医用画像処理方法、及び医用画像処理プログラムを提供する。
本開示の一態様は、第1の被検体を時系列上で複数回撮像して得られた複数の医用画像を取得する取得部と、前記複数の医用画像のうちの一部の医用画像を基に前記複数の医用画像のうちの残りの医用画像に対応する予測画像を生成する予測器を用いて、複数の前記予測画像を生成する処理部と、を備え、前記処理部は、前記複数の医用画像のうちの一部を構成する少なくとも2つの医用画像を訓練データとし、前記複数の医用画像のうちの残りの医用画像を教師データとし、前記一部の医用画像の組み合わせ及び前記残りの医用画像を順次変更して、前記予測器を機械学習させ、前記複数の医用画像のうちの一部の医用画像を前記予測器に入力し、前記一部の医用画像の組み合わせを順次変更して、複数の前記予測画像を生成する。
本開示の一態様は、医用画像処理装置における医用画像処理方法であって、第1の被検体を時系列上で複数回撮像して得られた複数の医用画像を取得するステップと、前記複数の医用画像のうちの一部の医用画像を基に前記複数の医用画像のうちの残りの医用画像に対応する予測画像を生成する予測器を用いて、複数の前記予測画像を生成するステップと、を有し、前記予測画像を生成するステップは、前記複数の医用画像のうちの一部を構成する少なくとも2つの医用画像を訓練データとし、前記複数の医用画像のうちの残りの医用画像を教師データとし、前記一部の医用画像の組み合わせ及び前記残りの医用画像を順次変更して、前記予測器を機械学習させるステップと、前記複数の医用画像のうちの一部の医用画像を前記予測器に入力し、前記一部の医用画像の組み合わせを順次変更して、複数の前記予測画像を生成するステップと、を含む。
本開示の一態様は、上記医用画像処理方法の各ステップをコンピュータに実行させるための医用画像処理プログラムである。
本開示によれば、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像の画質を向上できる。
第1の実施形態における医用画像処理装置のハードウェア構成例を示すブロック図 第1の実施形態における医用画像処理装置の機能構成例を示すブロック図 各予測画像の生成例と出力MIP画像の生成例とを説明するための図 予測器の学習フェーズ及び予測画像生成フェーズの一例を説明するための図 医用画像処理装置の動作例の概要を示すフローチャート 第1の実施形態における医用画像処理装置による予測器の機械学習及び予測画像生成に係る動作例を示すフローチャート 4DMIP合成で生成された出力MPR画像とDeep 4DMIP合成で生成された出力MPR画像との一例を示す図 4DMIP合成で生成された出力レイキャスト画像とDeep 4DMIP合成で生成された出力レイキャスト画像との一例を示す図 複数フェーズのボリュームデータの合成方法別の適否情報の一例を示す図 複数フェーズのボリュームデータの合成方法別且つ被検体における部位別の画像例を示す図 複数フェーズのボリュームデータの合成方法別且つレンダリング方法別の画像例を示す図 被検体の頭部における部位別の各フェーズにおける画素値の変化例を示すグラフ 観察対象の被検体の単一フェーズのボリュームデータがレンダリングされた出力MIP画像の一例を示す図 観察対象の被検体の単一フェーズのボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図 観察対象の被検体の複数フェーズのボリュームデータが4DMIP合成された合成ボリュームデータがレンダリングされた出力MIP画像の一例を示す図 観察対象の被検体の複数フェーズのボリュームデータが4DMIP合成された合成ボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図 観察対象以外の被検体のボリュームデータを用いて予測器が機械学習した場合における観察対象の被検体の複数フェーズのボリュームデータがDeep 4DMIP合成された合成ボリュームデータがレンダリングされた出力MIP画像の一例を示す図 観察対象以外の被検体のボリュームデータを用いて予測器が機械学習した場合における観察対象の被検体の複数フェーズのボリュームデータがDeep 4DMIP合成された合成ボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図 第2の実施形態における医用画像処理装置の機能構成例を示すブロック図 予測器及び識別器の機械学習の一例を説明するための図 予測対象と同一の被検体の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとの一例を示す図 予測対象の被検体とは別の被検体の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとの一例を示す図 フェーズ平均4DMIP合成された場合の出力レイキャスト画像の一例を示す図 フェーズ平均4DMIP合成された場合の出力MPR画像と、出力MPR画像における特定範囲の画素値と、の一例を示す図 Deep GAN 4DMIP合成された場合の出力レイキャスト画像の一例を示す図 Deep GAN 4DMIP合成された場合の出力MPR画像と、出力MPR画像における特定範囲の画素値と、の一例を示す図 フェーズ平均4DMIP合成された場合の脳の出力MPR画像の一例を示す図 Deep GAN 4DMIP合成された場合の脳の出力MPR画像の一例を示す図 Deep 4DMIP合成された場合の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとがレンダリングされた画像の一例を示す図 Deep GAN 4DMIP合成された場合の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとがレンダリングされた画像の一例を示す図 第2の実施形態における医用画像処理装置による予測器及び識別器の機械学習及び予測画像生成に係る動作例を示すフローチャート
以下、本開示の実施形態について、図面を用いて説明する。
(第1の実施形態)
図1は、第1の実施形態における医用画像処理装置100の構成例を示すブロック図である。医用画像処理装置100は、ポート110、ユーザインタフェース(UI:User Interface)120、ディスプレイ130、プロセッサ140、及びメモリ150を備える。
医用画像処理装置100には、CT装置200が接続される。医用画像処理装置100は、CT装置200からボリュームデータを取得し、取得されたボリュームデータに対して処理を行う。医用画像処理装置100は、PC(Personal Computer)とPCに搭載されたソフトウェアにより構成されてもよい。
CT装置200は、生体へX線を照射し、体内の組織によるX線の吸収の違いを利用して、画像(CT画像)を撮像する。生体としては人体等が挙げられる。生体は、被検体の一例である。
CT画像は、時系列に複数撮像されてもよい。CT装置200は、生体内部の任意の箇所の情報を含むボリュームデータを生成する。生体内部の任意の箇所は、各種臓器(例えば脳、心臓、腎臓、大腸、小腸、肺、胸部、乳腺、前立腺、肺)を含んでもよい。CT画像が撮像されることにより、CT画像における各画素(ボクセル)の画素値(CT値、ボクセル値)が得られる。CT装置200は、CT画像としてのボリュームデータを医用画像処理装置100へ、有線回線又は無線回線を介して送信する。
具体的に、CT装置200は、ガントリ(図示せず)及びコンソール(図示せず)を備える。ガントリは、X線発生器(図示せず)やX線検出器(図示せず)を含み、コンソールにより指示された所定のタイミングで撮像することで、人体を透過したX線を検出し、X線検出データを得る。X線発生器は、X線管(図示せず)を含む。コンソールは、医用画像処理装置100に接続される。コンソールは、ガントリからX線検出データを複数取得し、X線検出データに基づいてボリュームデータを生成する。コンソールは、生成されたボリュームデータを、医用画像処理装置100へ送信する。コンソールは、患者情報、CT撮像に関する撮像条件、造影剤の投与に関する造影条件、その他の情報を入力するための操作部(図示せず)を備えてよい。この操作部は、キーボードやマウスなどの入力デバイスを含んでよい。
CT装置200は、連続的に撮像することで3次元のボリュームデータを複数取得し、動画を生成することも可能である。複数の3次元のボリュームデータによる動画のデータは、4D(4次元)データとも称される。
CT装置200は、複数のタイミングの各々でCT画像を撮像してよい。CT装置200は、被検体が造影された状態で、CT画像を撮像してよい。CT装置200は、被検体が造影されていない状態で、CT画像を撮像してよい。
医用画像処理装置100内のポート110は、通信ポートや外部装置接続ポートを含み、CT画像から得られたボリュームデータを取得する。取得されたボリュームデータは、直ぐにプロセッサ140に送られて各種処理されてもよいし、メモリ150において保管された後、必要時にプロセッサ140へ送られて各種処理されてもよい。また、ボリュームデータは、記録媒体や記録メディアを介して取得されてもよい。
CT装置200により撮像されたボリュームデータは、CT装置200から画像データサーバ(PACS:Picture Archiving and Communication Systems)(不図示)に送られ、保存されてよい。ポート110は、CT装置200から取得する代わりに、この画像データサーバからボリュームデータを取得してよい。このように、ポート110は、ボリュームデータ等の各種データを取得する取得部として機能する。
UI120は、タッチパネル、ポインティングデバイス、キーボード、又はマイクロホンを含んでよい。UI120は、医用画像処理装置100のユーザから、任意の入力操作を受け付ける。ユーザは、医師、放射線技師、又はその他医療従事者(Paramedic Staff)を含んでよい。
UI120は、ボリュームデータにおける関心領域(ROI:Region of Interest)の指定や輝度条件の設定等の操作を受け付ける。関心領域は、各種組織(例えば、血管、気管支、臓器、骨、脳、心臓、足、首、血流)の領域を含んでよい。組織は、病変組織、正常組織、臓器、器官、など生体の組織を広く含んでよい。また、UI120は、ボリュームデータやボリュームデータに基づく画像(例えば後述する3次元画像、2次元画像)における関心領域の指定や輝度条件の設定等の操作を受け付けてもよい。
ディスプレイ130は、LCD(Liquid Crystal Display)を含んでもよく、各種情報を表示する。各種情報は、ボリュームデータから得られる3次元画像や2次元画像を含んでよい。3次元画像は、ボリュームレンダリング画像、サーフェスレンダリング画像、仮想内視鏡画像(VE画像)、CPR(Curved Planar Reconstruction)画像、等を含んでもよい。ボリュームレンダリング画像は、レイサム(RaySum)画像(単に「SUM画像」とも称する)、MIP(Maximum Intensity Projection)画像、MinIP(Minimum Intensity Projection)画像、平均値(Average)画像、又はレイキャスト(Raycast)画像を含んでもよい。2次元画像は、アキシャル(Axial)画像、サジタル(Sagittal)画像、コロナル(Coronal)画像、MPR(Multi Planer Reconstruction)画像、等を含んでよい。
メモリ150は、各種ROM(Read Only Memory)やRAM(Random Access Memory)の一次記憶装置を含む。メモリ150は、HDD(Hard Disk Drive)やSSD(Solid State Drive)の二次記憶装置を含んでもよい。メモリ150は、USBメモリやSDカードの三次記憶装置を含んでもよい。メモリ150は、各種情報やプログラムを記憶する。各種情報は、ポート110により取得されたボリュームデータ、プロセッサ140により生成された画像、プロセッサ140により設定された設定情報、各種プログラムを含んでもよい。メモリ150は、プログラムが記録される非一過性の記録媒体の一例である。
プロセッサ140は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又はGPU(Graphics Processing Unit)を含んでもよい。プロセッサ140は、メモリ150に記憶された医用画像処理プログラムを実行することにより、各種処理や制御を行う処理部160として機能する。
図2は、処理部160の機能構成例を示すブロック図である。
処理部160は、領域抽出部161、画像生成部162、レジストレーション処理部163、予測処理部164、及び表示制御部166を備える。予測処理部164は、予測器(Predictor)171を有する。
処理部160は、医用画像処理装置100の各部を統括する。なお、処理部160に含まれる各部は、1つのハードウェアにより異なる機能として実現されてもよいし、複数のハードウェアにより異なる機能として実現されてもよい。また、処理部160に含まれる各部は、専用のハードウェア部品により実現されてもよい。
領域抽出部161は、ボリュームデータにおいて、セグメンテーション処理を行ってよい。この場合、UI120がユーザからの指示を受け付け、指示の情報が領域抽出部161に送られる。領域抽出部161は、指示の情報に基づいて、公知の方法により、ボリュームデータから、セグメンテーション処理を行い、関心領域を抽出(segment)してもよい。また、ユーザからの詳細な指示により、手動で関心領域を設定(set)してもよい。また、観察対象が予め定められている場合、領域抽出部161は、ユーザ指示なしでボリュームデータから、セグメンテーション処理を行い、観察対象を含む関心領域を抽出してもよい。抽出される領域には、各種組織(例えば、血管、気管支、臓器、骨、脳、心臓、足、首、血流、乳腺、胸部、腫瘍)の領域を含んでよい。
画像生成部162は、ポート110により取得された複数のボリュームデータ(例えば時系列に並ぶボリュームデータ)に基づいて、複数のボリュームデータを合成して1つのボリュームデータ(例えば合成ボリュームデータ)を生成してよい。画像生成部162は、ポート110等を介して取得された又は生成されたボリュームデータに基づいて、3次元画像や2次元画像を生成してよい。画像生成部162は、ポート110により取得された1つ以上のボリュームデータを基に、指定された領域や領域抽出部161により抽出された領域に基づいて、ボリュームデータ(例えば合成ボリュームデータ)や3次元画像や2次元画像を生成してよい。
画像生成部162は、レジストレーションされた複数フェーズのボリュームデータを基に、出力画像としてのボリュームデータ(例えば合成ボリュームデータ)を生成してよい。画像生成部162は、レジストレーションされた複数フェーズのボリュームデータを基に、出力画像としての3次元画像や2次元画像を生成してよい。画像生成部162は、レジストレーションされた複数フェーズの3次元画像を基に、出力画像としての3次元画像を生成してよい。画像生成部162は、レジストレーションされた複数フェーズの2次元画像を基に、出力画像としての2次元画像を生成してよい。なお、複数フェーズのデータや画像は、時系列に並ぶ複数のデータや画像でよい。
画像生成部162は、複数フェーズのボリュームデータにおいて各ボクセルの最大値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、4DMIP合成とも称する。なお、4DMIP合成の具体的な手法は、特許文献1に記載された方法を用いてよい。4DMIP合成では、画素値が大きくなり易い。
画像生成部162は、複数フェーズ(例えば8つのフェーズ)を複数のフェーズ群(例えば3つのフェーズ群)に区切り、複数のフェーズ群において各ボリュームデータにおける各ボクセルの画素値の平均値を算出し、各フェーズ群における各ボクセルの画素値の平均値のうちの最大値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、フェーズ平均4DMIP合成とも称する。
画像生成部162は、フェーズ平均4DMIP合成で得られたボリュームデータに対してガウシアンフィルタを施し、各ボクセルの画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、フィルタ付きフェーズ平均4DMIP合成とも称する。
画像生成部162は、複数フェーズのボリュームデータにおける各ボクセルの画素値を加算した値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、TSUM合成とも称する。TSUM合成では、ノイズ成分も実信号成分も削除され易い。
画像生成部162は、機械学習された予測器171により生成された複数フェーズの予測ボリュームデータにおいて各ボクセルの最大値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、Deep 4DMIP合成と称してよい。Deep 4DMIP合成では、複数フェーズの予測ボリュームデータにおける各ボクセルの最大値の導出に、4DMIP合成が実施する具体的な手法を適用してよい。
レジストレーション処理部163は、時系列で得られた複数のボリュームデータ(CT画像)を基に、ボリュームデータに含まれる各部の動きを検出し、動き情報を生成する。この場合、レジストレーション処理部163は、複数のフェーズのCT画像を基に、複数フェーズ間でのCT画像の変形に対して動き解析を行い、CT画像における動き情報を取得する。動き解析の具体的手法は、例えば参考特許文献1、参考特許文献2に記載されている。これらは、非剛体レジストレーションの例になるが、剛体レジストレーションであってもよい。
(参考特許文献1:米国特許8311300号明細書)
(参考特許文献2:日本国特許第5408493号公報)
レジストレーション処理部163は、動き情報を用いた各点や観察部位の動き解析により、被検体内の任意の位置がどの位置に移動したかを認識する。レジストレーション処理部163は、動き解析の結果に基づいて、時系列に並ぶ複数フェーズのボリュームデータをレジストレーション(位置合わせ)する。
予測処理部164は、CT装置200で撮像されたボリュームデータを基に、予測ボリュームデータを生成する予測器171を有する。CT装置200で撮像されたボリュームデータは、実空間で撮像されたボリュームデータである。予測器171は、ハードウェアで構成されてもよいしソフトウェアで構成されてもよい。予測器171は、同一の被検体についての複数フェーズのボリュームデータのうちの一部のボリュームデータを基に、複数フェーズのボリュームデータのうちの残りのボリュームデータに対応する予測ボリュームデータを生成してよい。実空間で撮像されたボリュームデータは、ノイズ(例えばランダムノイズ)が重畳されたデータとなるが、予測ボリュームデータは、このノイズが抑制されたデータとなる。
予測処理部164は、訓練データと教師データとを用いて、予測器171を機械学習(Machine Learning)させる。機械学習は、DNN(Deep neural network)つまりいわゆるディープラーニングを含んでよい。機械学習では、予測処理部164は、複数フェーズのボリュームデータのうちの一部のボリュームデータを訓練データとしてよい。予測処理部164は、複数フェーズのボリュームデータのうちの残りのボリュームデータを教師データとしてよい。そして、予測処理部164は、訓練データとなる上記一部のボリュームデータの組み合わせを順次変更し、これに合わせて教師データとなる上記残りのボリュームデータを順次変更して、予測器171に機械学習させてよい。機械学習の手法は、任意であり、CNN(Convolutional Neural Network)、Random Forest、Structured SVM(Support Vector Machine)、NN(Nearest Neighbor)、等でよい。本実施形態では、主にCNNについて説明する。
画像生成部162は、少なくとも1つの実空間で撮像されたボリュームデータと、予測器171により生成された少なくも1つの予測ボリュームデータと、に基づいて、出力画像(表示対象画像)としての3次元画像や2次元画像を生成してよい。画像生成部162は、少なくとも1つの実空間で撮像されたボリュームデータに基づく3次元画像又は2次元画像と、予測器171により生成された少なくも1つの予測ボリュームデータに基づく3次元画像又は2次元画像と、に基づいて、出力画像としての3次元画像又は2次元画像を生成してよい。
表示制御部166は、各種データ、情報、画像をディスプレイ130に表示させる。表示制御部166は、3次元空間で示されるボリュームデータ(出力ボリュームデータ、例えば合成ボリュームデータ)を可視化してよい。この場合、画像生成部162が、出力ボリュームデータを任意のレンダリング手法でレンダリングして3次元画像を生成してよい。また、画像生成部162は、出力ボリュームデータの任意の断面を抽出し、2次元画像を生成してよい。表示制御部166は、生成された3次元画像や2次元画像を表示させることで、出力ボリュームデータを可視化してよい。
なお、ボリュームデータ、3次元画像、2次元画像は、医用画像の一例である。以下では、主にボリュームデータを例示するが、他の医用画像に対しても適用可能である。
次に、予測器171の詳細な動作について説明する。
図3は、各予測画像の生成例と出力画像の生成例とを説明するための図である。なお、図3に示す「0」~「7」は、フェーズ番号を示す。
なお、予測画像は、予測器171により生成された画像であり、予測器171により生成されたボリュームデータ(予測ボリュームデータ)、予測器171により生成された3次元画像や2次元画像(予測3次元画像や予測2次元画像)、等でよい。出力画像は、出力される画像であり、ディスプレイ130等により出力(例えば表示)されるボリュームデータ(出力ボリュームデータ)、ディスプレイ130等により出力される3次元画像や2次元画像(出力3次元画像や出力2次元画像)、等でよい。ここでは、予測画像として予測ボリュームデータ、出力画像として出力ボリュームデータを用いることを主に例示する。
予測処理部164は、n(n:正の整数)(図3ではn=8)フェーズの入力画像群を取得する。入力画像群に含まれる各入力画像は、予測器171に入力される。入力画像群に含まれる各入力画像は、ポート110を介して取得されたCT装置200からのボリュームデータであってよい。入力画像群に含まれる各入力画像は、予測器171に入力される。入力画像には、造影されていない非造影状態において撮像された非造影フェーズのボリュームデータが含まれてよいし、造影された造影状態において撮像された造影フェーズのボリュームデータが含まれてよい。
予測器171は、予測処理部164の制御に従って動作する。予測器171は、nフェーズのうちのiフェーズ目のボリュームデータを、nフェーズのうちのiフェーズ以外のフェーズのボリュームデータに基づいて予測し、予測画像YGiを生成する。予測画像YGiは、予測ボリュームデータであってよい。
例えば、図3では、予測器171は、8フェーズ(0フェーズ目~7フェーズ目)のうちの1フェーズ目(i=1)のボリュームデータを、8フェーズのうちの1フェーズ以外のフェーズ(0,2,3,4,5,6,7フェーズ目の7つのフェーズ)のボリュームデータに基づいて予測し、予測画像YG1を生成する。また、予測器171は、8フェーズのうちの2フェーズ目(i=2)のボリュームデータを、8フェーズのうちの2フェーズ以外のフェーズ、つまり0,1,3,4,5,6,7フェーズ目の7つのフェーズのボリュームデータに基づいて予測し、予測画像YG2を生成する。
予測器171は、iの値を順次変更してiフェーズ目のボリュームデータに対応する予測画像YGiをそれぞれ生成する。図3は、予測器171は、8フェーズに対応する8つの予測画像YG0~YG7を生成する。この結果、n個の予測画像YGiを含む予測画像群が得られる。
なお、予測器171は、nフェーズのうちのiフェーズ目のボリュームデータを、nフェーズのうちのiフェーズ以外の一部のフェーズのボリュームデータに基づいて予測し、予測画像YGiを生成してもよい。例えば、予測器171は、8フェーズ(0フェーズ目~7フェーズ目)のうちの1フェーズ目(i=1)のボリュームデータを、8フェーズのうちの1フェーズ以外の一部のフェーズ(0,2,4,6フェーズ目の4つのフェーズ)のボリュームデータに基づいて予測し、予測画像YG1を生成してもよい。
予測器171は、訓練データと教師データとを用いて、機械学習してよい。機械学習では、予測器171は、nフェーズのうちのiフェーズ目のボリュームデータを教師データとしてよい。予測器171は、nフェーズのうちのiフェーズ以外のフェーズのボリュームデータを訓練データとしてよい。また、予測器171は、nフェーズのうちのiフェーズ以外のフェーズのうちの一部のフェーズのボリュームデータを訓練データとしてよい。予測器171は、訓練データを入力して、教師データを出力するよう、機械学習してよい。機械学習では、訓練データと教師データとの関係性は非線形でよい。
したがって、予測器171は、機械学習することで、訓練データとしてのnフェーズのうちのiフェーズ以外のフェーズのボリュームデータに依存せずに、nフェーズのうちのiフェーズ目の所望のボリュームデータを導出できる。また、この場合、予測画像において、被検体の組織の構造を良好に残すことができると期待できる。
また、訓練データは、実空間で撮像された、iフェーズ以外のフェーズのボリュームデータでよい。また、教師データは、実空間で撮像されたiフェーズのボリュームデータでよい。よって、様々なノイズが付された各フェーズのボリュームデータを基に、各フェーズのうちの1つのボリュームデータが得られるように機械学習する。したがって、医用画像処理装置100は、機械学習の結果、様々なノイズが相殺して予測画像を生成するよう機械学習できる。よって、医用画像処理装置100は、iフェーズの実空間で撮像されたボリュームデータからノイズが除去されたボリュームデータを予測ボリュームデータとして得ることができる。
また、予測器171は、機械学習時や予測画像生成時において、1度に入力する訓練データや入力データの量を、ボリュームデータの1画素(ボクセル)毎としてもよいし、ある程度の大きさ(パッチ)に含まれる画素群毎としてもよいし、ボリュームデータ内の全画素としてもよい。訓練データや入力データを画素毎とする場合、予測器171は、処理対象の1ボクセルのみ参照し、その周囲のボクセルを参照しないので、空間方向の情報の伝播が少なくなる。訓練データや入力データをパッチに含まれる画素群毎や全画素とする場合、処理対象のボクセルの他に、その周囲のボクセルを参照するので、予測器171は、空間方向の情報の伝播も加味でき、機械学習精度や予測精度を向上できる。
また、予測器171として、各フェーズの予測画像を生成するために共通の予測器171が1つ設けられてもよいし、フェーズ毎に異なる予測器171が設けられてもよい。予測器171が機械学習することや予測画像を生成することは、各フェーズにおいて同様であるためである。
また、複数フェーズの端部(例えば8フェーズ中の第0フェーズや第7フェーズ)のフェーズにおいて機械学習する場合や予測画像を生成する場合、その前後のフェーズのボリュームデータが不在となり得る。この場合、不在となるボリュームデータとして、ボリュームデータの全画素値が値0である黒色の画像となるボリュームデータを仮定したり、反対側の端部(例えば第7フェーズの場合には第0フェーズ、第0フェーズの場合には第7フェーズ)のボリュームデータが存在すると仮定したりしてよい。
また、予測器171における機械学習に用いる学習データ(例えば訓練データ及び教師データ)は、予めメモリ150等に保持されて用意されてよい。よって、学習データは、被検体における時系列に並ぶ複数フェーズのボリュームデータを含んでよい。
予測器171は、CT装置200からの時系列上で並ぶ複数フェーズのボリュームデータを取得する都度、機械学習し、機械学習の結果(機械学習結果)を更新してメモリ150に保持させてもよい。予測器171は、予測画像の生成時などの学習データが必要なタイミングで、メモリ150に保持された機械学習結果を取得してよい。
画像生成部162は、予測画像群に含まれるn個の予測画像YGiを、いずれかの合成方法で合成し、出力ボリュームデータを生成する。例えば、画像生成部162は、Deep 4DMIP合成を行う場合、時間軸に沿って、同じ画素の画素値の最大値を導出する。
画像生成部162は、予測画像が予測ボリュームデータである場合、n個の予測ボリュームデータに基づいて1つの出力ボリュームデータを出力画像として生成してよい。この場合、画像生成部162は、出力ボリュームデータをボリュームレンダリングして、出力3次元画像又は出力2次元画像を生成してよい。また、画像生成部162は、予測画像が予測3次元画像である場合、n個の予測3次元画像に基づいて1つの出力3次元画像を出力画像として生成してよい。また、画像生成部162は、予測画像が予測2次元画像である場合、n個の予測2次元画像に基づいて1つの出力2次元画像を出力画像として生成してよい。
画像生成部162は、各種のボリュームレンダリング法により出力ボリュームデータが可視化されてよい。例えば、出力ボリュームデータがMIP法により可視化される場合、この出力画像を出力MIP画像とも称する。また、出力画像がレイキャスト法により可視化される場合、この出力画像を出力レイキャスト画像とも称する。また、出力画像がMPRにより可視化される場合、この出力画像を出力MPR画像とも称する。
レジストレーション処理部163は、n個の予測画像YGiについてレジストレーション(位置合わせ)してよい。つまり、レジストレーション処理部163は、予測画像YGiの各画素と他の予測画像の各画素とが対応するように、予測画像同士を位置合わせしてよい。これにより、医用画像処理装置100は、各予測画像の位置ずれを抑制でき、出力画像の各画素の画素値の精度を向上できる。また、レジストレーション処理部163は、n個の入力画像群についてレジストレーション(位置合わせ)してよい。つまり、レジストレーション処理部163は、入力画像の各画素と他の入力画像の各画素とが対応するように、入力画像同士を位置合わせしてよい。これにより、医用画像処理装置100は、各入力画像の位置ずれを抑制でき、各予測画像と出力画像の各画素の画素値の精度を向上できる。また、レジストレーション処理部163は、入力画像と予測画像とでレジストレーションしてもよい。
図4は、予測器171の学習フェーズ及び予測画像生成フェーズの一例を説明するための図である。学習フェーズは、予測器171が機械学習するフェーズである。予測画像生成フェーズは、機械学習された予測器171により予測画像を生成するフェーズである。
メモリ150は、予測器171により機械学習するための学習データ(例えば、スタディ)を蓄積する学習DB151を備えてよい。学習データは、観察対象の(予測画像の生成対象の)被検体についての学習データでもよいし、観察対象外の(予測画像の生成対象外の)被検体についての学習データでもよい。つまり、学習データに係る被検体と実際の予測画像に係る被検体とは、同一の被検体でもよいし、異なる被検体でもよい。学習DB151は、予測器171により機械学習するための多数の学習データを保持してよく、観察対象の被検体についての学習データ及び観察対象外の被検体についての学習データの少なくとも一方を含んでよい。また、学習DB151は学習結果を保持してもよい。
図4では、Vは、ボリュームデータを示す。i,kは、フェーズ番号を示す。フェーズの異なる複数のボリュームデータは、レジストレーションされていてもよい。V’iは、フェーズi番目のボリュームデータに対応して生成される予測ボリュームデータである。
学習フェーズでは、機械学習用にポート110を介して取得された複数フェーズのボリュームデータのうち、Vk(k≠i)を訓練データとする。つまり、予測器171は、i番目以外のフェーズのボリュームデータを訓練データとして入力する。訓練データは、学習DB151に保持された機械学習用の訓練データでもよい。予測器171は、ポート110を介して取得された複数フェーズのボリュームデータのうち、Viを教師データとする。教師データは、学習DB151に保持された機械学習用の教師データでもよい。予測器171は、訓練データであるVk(k≠i)を入力した場合に、教師データであるViを出力するように、機械学習する。この場合、予測器171は、実際にはV’iを出力するが、V’iがViに近づくように機械学習する。予測器171は、機械学習の結果を、学習DB151に保持させる。予測処理部164は、訓練データと教師データとして、観察対象のデータを用いて予測器171を学習させてもよい。予測処理部164は、訓練データと教師データとして、観察対象以外のデータを用いて予測器171を学習させてもよい。また、予測処理部164は、訓練データと教師データとして、観察対象以外のデータを多数入れ替えることによって、段階的に予測器171を学習させてもよい。
また、予測器171は、過学習を抑制するために、正則化処理、ドロップアウト処理(ランダムにノードを非活性にして学習する)、k分割交差検証、等の公知の過学習対策を施してよい。正則化処理では、モデルを学習する際に、複雑さが増すことに対するペナルティが設けられる。正則化は、ペナルティとして、学習モデルのパラメータの絶対値の総和を用いるL1正則化、学習モデルのパラメータの二乗の総和を用いるL2正則化、等を含んでよい。
予測画像生成フェーズでは、予測器171は、予測画像生成用にポート110を介して取得された観察対象の複数フェーズの(予測画像の生成対象の)ボリュームデータのうち、Vk(k≠i)を入力データとする。この入力データは、機械学習用に取得した訓練データと同じでもよい。予測器171は、学習DB151に蓄積された機械学習の結果を参照し、入力データであるVk(k≠i)を基に、出力データであるV’iを算出する。この場合、機械学習された予測器171は、ポート110を介して取得されたiフェーズのボリュームデータであるViに値が近いV’iを導出できる。予測器171は、例えば、n個(例えばn=8)のフェーズである場合、i=0,1,・・・7とすると、出力データとしてV’0,V’1,・・・V’7,を生成する。この出力データが、予測ボリュームデータとなる。
画像生成部162は、i=0,1,・・・n-1の各フェーズの予測ボリュームデータとしてのV’0,V’1,・・・V’7を取得し、各予測ボリュームデータを合成して、合成ボリュームデータを生成する。なお、レジストレーション処理部163は、各予測ボリュームデータを基に合成ボリュームデータが生成される前に、各予測ボリュームデータの位置合わせ(レジストレーション)を行ってよい。また、処理部160は、画像生成部162による合成ボリュームデータの生成とレジストレーションとを順番に反復してよい。これにより、医用画像処理装置100は、一層ノイズを除去した画像処理が可能となる。
図5は、医用画像処理装置100の動作例の概要を示すフローチャートである。
まず、ポート110は、時系列上に並んだ複数フェーズのボリュームデータをCT装置200から取得する(S11)。レジストレーション処理部163は、取得された複数フェーズのボリュームデータを位置合わせする(S12)。
予測処理部164は、複数フェーズのボリュームデータ(機械学習用のデータ)を基に、機械学習された予測器171を生成する(S13)。なお、予測器171の具体的な機械学習の詳細については後述する。
予測処理部164は、複数フェーズのボリュームデータ(予測画像生成用のデータ)と予測器171とを用いて、各フェーズのボリュームデータに対応する複数の予測ボリュームデータを生成する。予測処理部164は、複数の予測ボリュームデータを基に、合成ボリュームデータを生成する(S14)。
画像生成部162は、合成ボリュームデータをボリュームレンダリングし、ボリュームレンダリング画像(例えばMIP画像)を生成する(S15)。
図5の処理によれば、医用画像処理装置100は、機械学習された予測器171を用いて予測ボリュームデータを生成することで、予測ボリュームデータの生成精度を向上できる。また、医用画像処理装置100は、各フェーズのボリュームデータを位置合わせすることで、各ボリュームデータにおける各ボクセルの位置ずれを抑制でき、ボクセル毎の画素値の統計精度を向上できる。よって、医用画像処理装置100は、より正確な画素値を得ることができ、合成ボリュームデータを基に被検体の様子をより正確に描画できる。
図6は、医用画像処理装置100による予測器171の機械学習及び予測画像生成に係る動作例を示すフローチャートである。なお、図6では、フェーズは、0~nまで存在するとする。
まず、ポート110は、時系列上に並んだ複数フェーズのボリュームデータV0~VnをCT装置200から取得する(S21)。レジストレーション処理部163は、取得された複数フェーズのボリュームデータV0~Vnを位置合わせする(S22)。
予測処理部164は、フェーズi=0~nについて、ボリュームデータV0~Vn(Viを除く)を用いて、予測器171を機械学習させる(S23)。この場合、予測処理部164は、S21で取得されたボリュームデータV0~Vn(Viを除く)を機械学習用の訓練データとし、S21で取得されたボリュームデータViを機械学習用の教師データとする。
予測処理部164は、フェーズi=0~nについて、ボリュームデータV0~Vn(Viを除く)を予測器171に入力し、予測ボリュームデータV’iを生成する(S24)。したがって、予測ボリュームデータV’0~V’nが得られる。
画像生成部162は、予測ボリュームデータV’0~V’nについて、それぞれの対応するボクセルにおける画素値(ボクセル値)の最大値を算出し、最大値ボリュームデータVmaxを生成する(S25)。つまり、画像生成部162は、Deep 4DMIP合成により、最大値ボリュームデータVmaxを生成する。
画像生成部162は、最大値ボリュームデータVmaxを例えばMIP法で可視化する(S26)。つまり、画像生成部162は、最大値ボリュームデータVmaxを例えばMIP法でボリュームレンダリングし、出力画像(出力MIP画像)を生成する。
図6の処理によれば、医用画像処理装置100は、各フェーズのボリュームデータを可視化できる。例えば、医用画像処理装置100は、観察対象に動きがあり、フェーズによってボリュームデータの各画素に表れたり消滅したりする時系列に変化する観察対象であっても、ユーザにより視認し易くできる。例えば、非検体を造影して観察する場合、造影剤の流れに伴い、フェーズによって造影剤により造影される被検体の部位が異なる。フェーズによっては例えば血管の一部だけが造影されることがあるが、各フェーズのボリュームデータを合成することで、1つのボリュームデータに各フェーズの観察対象に係る画素値が表現され得る。よって、動脈だけ造影されるフェーズや静脈だけ造影されるフェーズを観察する場合に、被検体内に造影剤を流し続けることなく、画像処理により時系列で変化する様子を1つのボリュームデータで可視化できる。よって、医用画像処理装置100は、造影剤の注入時間を減らすことができ、被検体の腎臓への負担を軽減できる。また、医用画像処理装置100は、予測器171の機械学習を実施することで、ノイズを抑制した予測ボリュームデータを生成でき、適度に明るい画像を可視化できる。
図7Aは、4DMIP合成で生成された出力MPR画像gzx1とDeep 4DMIP合成で生成された出力MPR画像GZ1とを示す図である。図7Bは、4DMIP合成で生成された出力レイキャスト画像gzx2とDeep 4DMIP合成で生成された出力レイキャスト画像GZ2とを示す図である。出力MPR画像gzx1,GZ1及び出力レイキャスト画像gzx2,GZ2では、それぞれ、同じ被検体の同じ部位が示されている。
図7Aにおいて、4DMIP合成で生成された出力MPR画像gzx1では、最大値を適用することで高輝度ノイズが画素値に選択され易くなり、全体的に白くなっており、つまり全体的に輝度値(画素値)が高くなっている。これに対し、Deep 4DMIP合成で生成された出力MPR画像GZ1は、出力MPR画像gzx1と比べると、ノイズが抑制され、全体的な白さは低減しており、診断上意味のある場所が高い画素値となっていることを判別できる。よって、ユーザによる診断精度も向上し得る。
図7Bにおいて、4DMIP合成で生成された出力MPR画像gzx2では、実際の血管以外のノイズも映り込んでおり、実際の血管が見え難い状態となっている。これに対し、Deep 4DMIP合成で生成された出力MPR画像GZ2は、出力MPR画像gzx2と比べると、ノイズが抑制され、ノイズ成分の描画が少なくなっており、診断上意味のある血管等を判別し易くなっている。よって、ユーザによる診断精度も向上し得る。
つまり、4DMIP合成で生成された出力MPR画像gzx1では、複数フェーズのボリュームデータのボクセル毎に最大値を単純に用いることで合成ボリュームデータを作成するので、高輝度ノイズが可視化され易い。複数フェーズのボリュームデータにおいて、任意のフェーズのボリュームデータにおけるノイズは、そのフェーズの近傍のフェーズのボリュームデータのみを基に予測することが困難である。なお、CT装置200により撮像して得られたボリュームデータの場合、同一フェーズにおける対象ピクセルの近傍に位置する近傍ピクセルを用いると、対象ピクセルにおけるノイズの状態を予測可能である。また、対象フェーズのボリュームデータにおけるノイズ以外の信号(例えば定常部分やCT値が変化する血管)は、その前後のフェーズのボリュームデータにおけるノイズ以外の信号を基に予測可能である。ノイズ以外の信号については、連続するフェーズで、ある程度関連性があるためである。
したがって、医用画像処理装置100は、ボリュームデータにおけるノイズ成分とボリュームデータにおけるノイズ以外の成分(例えば造影剤)とを区別可能であると仮定できる。
図8は、複数フェーズのボリュームデータの合成方法別の適否情報の一例を示す図である。合成方法には、4DMIP合成、フェーズ平均4DMIP合成、フィルタ付きフェーズ平均4DMIP合成、Deep 4DMIP合成、等が含まれてよい。なお、図8では、フェーズ平均4DMIP合成において、複数フェーズが3つのフェーズ群に区切られた場合を例示している(以降の図の説明でも同様)。
4DMIP合成により合成ボリュームデータが生成された場合、合成ボリュームデータにおけるノイズが多く、合成ボリュームデータにおける細血管(細い血管)が明るくなり(白っぽくなり)、図8の合成方法の中では最も(最大限)明るくなる。つまり、最も画素値が大きくなる。なお、細血管は、CT画像で表現可能な下限に近い太さの血管でよく、例えば0.5mm程度の太さの血管でよい。
フェーズ平均4DMIP合成により合成ボリュームデータが生成された場合、合成ボリュームデータにおけるノイズは中程度であり、合成ボリュームデータにおける細血管はやや暗くなる。
フィルタ付きフェーズ平均4DMIP合成により合成ボリュームデータが生成された場合、合成ボリュームデータにおけるノイズが少なく、合成ボリュームデータにおける細血管が暗くなる。
Deep 4DMIP合成により合成ボリュームデータが生成された場合、合成ボリュームデータにおけるノイズが少なく、合成ボリュームデータにおける細血管は明るいので、好ましい。よって、Deep 4DMIP合成では、他の合成方法と比較すると、ノイズが低減され得る。
図9は、複数フェーズのボリュームデータの合成方法別且つ被検体における部位別の画像例を示す図である。図9では、ボリュームデータの合成方法には、Deep 4DMIP合成、4DMIP合成、フェーズ平均4DMIP合成、TSUM合成、等が含まれてよい。
図9では、被検体における部位が3つ示されている。図9における最上段の各画像は部位b1を示し、中段の各画像は部位b2を示し、最下段の各画像は部位b3を示す。なお、図9では、それぞれの合成方法で生成された合成ボリュームデータのMPR画像が、出力画像として示されている。
Deep 4DMIP合成された出力画像では、細血管が消えず、細血管が薄くならず(輝度が小さくならず)、ノイズが消える。例えば、最上段の部位b1では、細血管が他の合成方法よりも見え易くなっている(図9の最左列且つ最上段の2つの矢印の先端近傍部分参照)。また、例えば、中段の部位b2では、ノイズが他の合成方法よりも見え難くなっている(図9の最左列且つ中段の矢印の先端近傍部分参照)。つまり、予測器171の機械学習の結果、実信号成分が残存し、ノイズ成分が残存しないように、各予測ボリュームデータが生成されることが理解できる。
フェーズ平均4DMIP合成された出力画像では、細血管がやや消え、薄くなり、ノイズがやや消える。4DMIP合成された出力画像では、細血管が消えず、細血管がノイズに埋もれ気味であり、高輝度ノイズが増えている。つまり、単純な4DMIPと比較すると、フェーズ平均された4DMIPでは出力画像の画素値の全体が多少平滑化され、細血管やノイズの描画が少なめになる。
TSUM合成された出力画像では、細血管が消え、薄くなり、ノイズが消える。つまり、出力画像全体において高輝度値の影響を受け、出力画像を表示するための輝度値が調整されるので、必要な信号成分(実信号成分とも称する)もノイズ成分も同様に除去され易くなる。実信号成分は、例えば、血管、骨、等の複数フェーズにわたって物理的に実在する成分でよい。
図10は、複数フェーズのボリュームデータの合成方法別且つレンダリング方法別の画像例を示す図である。図10では、ボリュームデータの合成方法には、4DMIP合成、フィルタ付きフェーズ平均4DMIP合成、Deep 4DMIP合成、等が含まれてよい。レンダリング方法には、MPR、レイキャスト、MIP、等が含まれてよい。なお、図10では、フィルタ付きフェーズ平均4DMIP合成された各出力画像では、輝度値を2倍にして示している。
4DMIP合成された出力画像では、ノイズが多く含まれ、画像全体が白っぽくなっている。また、出力レイキャスト画像及び出力MIP画像では、血管の他にノイズ成分が多くなっており、血管の走行が不鮮明となっている。
フィルタ付きフェーズ平均4DMIP合成された出力画像では、ノイズが少なくなるが、実信号成分も平滑化されて少なくなっている。そのため、出力レイキャスト画像及び出力MIP画像では、実際の血管よりも描画される血管が少なくなり、必要な情報が欠落している可能性がある。
Deep 4DMIP合成では、ノイズが少なくなり、実信号成分も削除されずに維持される。そのため、出力レイキャスト画像及び出力MIP画像では、血管の走行が適切に描画され、ユーザにとって観察し易い状態となっている。
図11は、被検体の頭部における部位別(組織別)の各フェーズにおける画素値の変化例を示すグラフである。つまり、図11は、被検体の頭部における部位別(組織別)の時間方向の変位を示す。図11では、被検体の頭部における部位として、脳(Brain, Brain 2~5)、比較的明るい血管(Bright Vessel)、比較的暗い脳(Dark Brain 1~3)、比較的暗い血管(Dark Vessel)、矢状静脈洞(Sagittal Sinus)、比較的細い血管(Thin Vessel, Thin Vessel 2)、等が示されている。図11では、フェーズ0(t=0)において、必要に応じて造影剤が被検体に投与開始されるとする。図11が示す画素値は、CT装置200の撮像により得られたボリュームデータ(実ボリュームデータ)の画素値でよい。
脳及び比較的暗い脳では、各フェーズにおいて画素値の変化がほとんどない。これは、被検体に造影剤が投与されていない、又は被検体に造影剤が投与されたが、これらの脳の部位には造影剤が流入しないことを意味する。
比較的細い血管、矢状静脈洞、比較的暗い血管、及び比較的明るい血管では、各フェーズにおいて画素値がある程度以上変化する。具体的には、複数フェーズの序盤では、造影剤が各部位に順次到達して流入するために、順次画素値が大きくなっている。複数フェーズの終盤では、造影剤が各部位から流出するために、順次画素値が小さくなっている。なお、部位毎に造影剤が流れ込む時間が異なるため、画素値がピークとなるフェーズは部位毎に異なってよい。例えば、血管では、動脈に先に造影剤が流れこむために動脈の画素値が先に高くなり、静脈に後から造影剤が流れこむために静脈の画素値が後から高くなる。
次に、観察対象以外の被検体のボリュームデータを用いて学習した場合の観察対象についての出力画像について説明する。
図12Aは、観察対象の被検体の単一フェーズのボリュームデータがレンダリングされた出力MIP画像の一例を示す図である。図12Bは、観察対象の被検体の単一フェーズのボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図である。
図12Cは、観察対象の被検体の複数フェーズのボリュームデータが4DMIP合成された合成ボリュームデータがレンダリングされた出力MIP画像の一例を示す図である。図12Dは、観察対象の被検体の複数フェーズのボリュームデータが4DMIP合成された合成ボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図である。
図12Eは、観察対象以外の被検体のボリュームデータを用いて予測器171が機械学習した場合における観察対象の被検体の複数フェーズのボリュームデータがDeep 4DMIP合成された合成ボリュームデータがレンダリングされた出力MIP画像の一例を示す図である。図12Fは、観察対象以外の被検体のボリュームデータを用いて予測器171が機械学習した場合における観察対象の被検体の複数フェーズのボリュームデータがDeep 4DMIP合成された合成ボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図である。
図12A~図12Fを参照すると、医用画像処理装置100は、観察対象以外の被検体のボリュームデータを用いて機械学習した場合でも、観察対象の出力画像(例えば出力MIP画像、出力レイキャスト画像)として、ノイズ成分が抑制され、実信号成分が抑制されない、鮮明な画像が得られることが理解できる。よって、ユーザは、レンダリングされた出力画像を確認することで、観察対象の様子を容易に鮮明に把握でき、高精度の診断を行うことが可能となる。また、予測器171は、観察対象の被検体と異なる被検体のボリュームデータを用いて機械学習することで、観察対象の患者固有のデータだけでなく、様々な患者に関するデータを用いて学習できるので、機械学習のバリエーションを増やすことができる。
このように、医用画像処理装置100は、時系列上の複数のボリュームデータを取得し、画質の良いボリュームデータを生成できる。従来のDeep Learningでは、学習に用いたボリュームデータ自体の画質は改善しないが、医用画像処理装置100は、時系列上のボリュームデータを用いることによって、その時系列データの画質を改善できる。また、観察対象の被検体以外のボリュームデータを用いる場合でも、同様の効果が得られる。また、医用画像処理装置100は、画質を改善したい時系列データ自体を、予測器171が機械学習するための教師データとすることで、実空間では真のノイズの無いデータが存在しないところ、ノイズが抑制された時系列データやこの時系列データを用いた出力データ(例えば合成ボリュームデータや出力画像)を得ることができる。
なお、第1の実施形態では、予測器171は、同一の被検体についての複数フェーズのボリュームデータ(実ボリュームデータ)のうちの一部のボリュームデータを基に、複数フェーズのボリュームデータのうちの残りのボリュームデータに対応する予測ボリュームデータを生成することを例示した。この代わりに、予測器171は、予測ボリュームデータの生成の基となる複数フェーズのボリュームデータとして、全て実ボリュームデータを用いてもよいし、実ボリュームデータと予測ボリュームデータとを混在して用いてもよいし、全て実ボリュームデータを用いてもよい。つまり、予測器171により生成された任意のフェーズの予測ボリュームデータを含む複数のフェーズのボリュームデータを基に、他のフェーズの予測ボリュームデータを生成してもよい。
よって、予測器171は、予測器171により予測ボリュームデータを生成し、生成された予測ボリュームデータに基づいて次回の予測ボリュームデータを生成し、この処理を反復してよい。この場合、各回において複数フェーズのボリュームデータ(予測ボリュームデータや実ボリュームデータ含む)を位置合わせしてよい。これにより、医用画像処理装置100は、各回の予測ボリュームデータの生成によってノイズが徐々に低減し、位置合わせ精度を向上でき、そのために合成ボリュームデータの画質を向上できる。
(第2の実施形態)
第1の実施形態では、予測器171を機械学習させて、複数フェーズのボリュームデータに基づく合成ボリュームデータを得ることを例示した。第2の実施形態では、予測器171とともに後述する識別器172を機械学習させて、複数フェーズのボリュームデータに基づく合成ボリュームデータを得ることを例示する。
第2の実施形態では、第1の実施形態と同様の構成、動作、処理等については、説明を省略又は簡略することもある。
第2の実施形態における医用画像処理装置100Aは、第1の実施形態と同様に、ポート110、UI120、ディスプレイ130、プロセッサ140、及びメモリ150を備える。本実施形態では、プロセッサ140は、メモリ150に記憶された医用画像処理プログラムを実行することにより、各種処理や制御を行う処理部160Aとして機能する。
図13は、第2の実施形態における医用画像処理装置100Aの機能構成例を示すブロック図である。処理部160Aは、領域抽出部161、画像生成部162、レジストレーション処理部163、予測処理部164、識別処理部165、及び表示制御部166を備える。識別処理部165は、識別器(Discriminator)172を有する。なお、予測器171は、予測画像を生成する生成器(generator)とも言える。図13の処理部160Aにおいて、図2に示した処理部160と同様の機能構成については、同一の符号を付し、その説明を省略又は簡略化する。
領域抽出部161は、ボリュームデータ(例えば実ボリュームデータ又は予測ボリュームデータ)の一部を切り出して抽出する。領域抽出部161は、ボリュームデータにおける被検体の任意の部位や組織を抽出してよい。
識別処理部165は、複数フェーズのボリュームデータを基に、実空間で撮像された任意のフェーズiの実ボリュームデータにおける任意の部位pと、任意のフェーズjの予測ボリュームデータにおける任意の部位pと、の差分を示す差分ボリュームデータを生成してよい。対応するフェーズ(フェーズi)の実ボリュームデータと予測ボリュームデータとでは一致していることが好ましいが、実信号成分を含む場合には両ボリュームデータ間に実信号成分について差分が発生する。差分ボリュームデータは、理想的には実信号成分を含まないため、ノイズボリュームデータとも言える。なお、ここでは、フェーズiとフェーズjとは同じでも異なってもよい。識別処理部165は、実ボリュームデータにおける様々な部位pと、予測ボリュームデータにおける様々な部位pと、の差分を示す差分ボリュームデータを生成してよい。よって、識別処理部165は、様々な部位pに係る差分ボリュームデータを生成してよい。
識別処理部165は、抽出された部位の予測ボリュームデータと、生成された差分ボリュームデータと、の組み合わせ(データペア)を複数生成する。データペアでは、予測ボリュームデータと差分ボリュームデータとのフェーズが異なってよい。データペアでは、予測ボリュームデータと差分ボリュームデータとの被検体における部位は同じである。識別処理部165は、例えば、データペアとして、同じ部位の予測ボリュームデータと差分ボリュームデータとの組み合わせとするか、異なる部位の予測ボリュームデータと差分ボリュームデータとの組み合わせとするかを、決定してよい。例えば、同じ部位の組み合わせとなる確率と、異なる部位の組み合わせとなる確率を、それぞれ50%ずつとしてよい。
識別処理部165は、データペアに含まれる差分ボリュームデータと予測ボリュームデータにおける部位pとが対応するか否かを識別する。予測器171により生成された予測ボリュームデータにおける部位pは、実ボリュームデータにおける部位pと完全に一致し、差分ボリュームデータに差分が表れないことが望ましいが、差分が表れている場合には、差分ボリュームデータが予測ボリュームデータにおけるどの部位に対応するかを識別するための示唆となる。よって、識別処理部165は、差分ボリュームデータに差分の成分を多く含む場合には、差分ボリュームデータと予測ボリュームデータにおける部位pとが対応するか否かを識別し易くなる。
識別処理部165は、差分ボリュームデータと予測ボリュームデータとが対応するか否かの識別結果(例えば識別に成功したか失敗したかを示す情報)を、予測処理部164の予測器171へ通知する。
識別処理部165は、訓練データと教師データとを用いて、識別器172を機械学習(Machine Learning)させる。この機械学習は、GAN(Generative Adversarial Network)(例えばConditional GAN)を含んでよい。機械学習では、識別処理部165は、同じフェーズに対応する任意の部位の差分ボリュームデータと任意の部位の予測ボリュームデータとのデータペアを訓練データとしてよい。識別処理部165は、この任意の部位の差分ボリュームデータと任意の部位の予測ボリュームデータとが対応しているか否かを示す情報を教師データとしてよい。
識別処理部165は、訓練データと教師データとを用いて、差分ボリュームデータと予測ボリュームデータとが対応するか否かの識別が成功する(正解率が上がる)ように、機械学習する。つまり、識別処理部165は、任意の部位の差分ボリュームデータと任意の部位の予測ボリュームデータとが同じ部位のデータであるか否かの識別が成功するように、機械学習してよい。
予測処理部164は、識別結果の通知を受けて、識別器172により差分ボリュームデータと予測ボリュームデータとの対応関係を識別したか否かを認識可能である。予測器171は、識別器172により任意の部位の差分ボリュームデータと任意の部位の予測ボリュームデータとの対応関係を識別されないように、機械学習する。この機械学習は、GAN(例えばConditional GAN、CNNを利用したGAN)を含んでよい。
画像生成部162は、識別器172とともに機械学習された予測器171により生成された複数フェーズの予測ボリュームデータにおいて各ボクセルの最大値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、Deep GAN 4DMIP合成と称してよい。Deep GAN 4DMIP合成では、複数フェーズの予測ボリュームデータにおける各ボクセルの最大値の導出に、4DMIP合成が実施する具体的な手法を適用してよい。
次に、予測器171及び識別器172の役割について説明する。
なお、ここでは、iは、フェーズ番号でよい。Viは、予測を希望するフェーズのボリュームデータでよい。p,qは、ボリュームデータにおける部位を識別するための部位識別情報を示す。
予測器171は、前述のように、予測ボリュームデータV’iを生成する。ノイズは予測できないため、予測ボリュームデータV’iにはノイズ成分は含まれない。一方、予測器171は、ノイズ成分とともに、機械学習のL1ロスの性質上、実信号成分のうち微小構造(例えば骨や血管の微細構造)も削除し易い。そこで、予測器171が微小構造を削除した場合、ペナルティを受けるようにする。
予測器171は、差分ボリュームデータ(V’i-Vi)を生成する。差分ボリュームデータでは、各画素値が一様なノイズ成分(A)となることが望ましい。実際には、予測器171の性能により、差分ボリュームデータには、ノイズ成分(A)とともに、微小なエッジ成分として微小構造成分(B)が残存し得る。微小構造成分(B)は、実信号成分の一例である。よって、差分ボリュームデータには、(A+B)の成分が残存し得る。
差分ボリュームデータ(V’p-Vp)と予測ボリュームデータV’qとを比較した場合に、p=qであるかp≠qであるかを識別できないことが望ましく、したがって、差分ボリュームデータ(V’p-Vp)に微小構造成分(B)が含まれないことが望ましい。
なお、差分ボリュームデータ(V’p-Vp)と予測ボリュームデータV’qとは、被検体における異なる部位のデータである。差分ボリュームデータ(V’p-Vp)と予測ボリュームデータV’qとは、同じフェーズのデータであってもよいし、異なるフェーズのデータであってもよい。
上記の識別を行うために、識別器172が定義可能である。識別器172は、差分ボリュームデータ(V’p-Vp)と予測ボリュームデータV’qとを任意の組み合わせのデータペアを取得する。識別器172は、例えば、p=qであると識別した場合に値0を出力し、p≠qであると識別した場合に値1を出力する。この出力結果(識別結果)の成否が評価され、予測器171による以降の予測に反映される。
なお、予測器171に関する損失(Generator Loss)は、再構成誤差つまり実ボリュームデータに対する予測ボリュームデータの差分(予測誤差)と、識別器172による識別成功と、を含む。識別器172に関する損失(Discriminator Loss)は、誤識別つまり識別器172による識別失敗を含む。
次に、予測器171及び識別器172の機械学習について説明する。
図14は、予測器171及び識別器172の機械学習の一例を説明するための図である。図14では、Vは、ボリュームデータを示す。i,kは、フェーズ番号を示す。フェーズの異なる複数のボリュームデータは、レジストレーションされていることが好ましいが、必須ではない。
また、図14では、p,qは、ボリュームデータにおける部位識別情報を示す。部位識別情報は、被検体における様々な部位(任意の臓器、血管、骨、組織、病変、等)を識別するための情報を示す。Vpは、ボリュームデータの一部であり、被検体における部位番号pで識別される部位のボリュームデータを示す。
予測器171は、第1の実施形態と同様に、訓練データであるVk(k≠i)を入力した場合に、教師データであるViを出力するように、機械学習する。この場合、予測器171は、実際にはV’iを出力するが、V’iがViに近づくように機械学習する。
識別処理部165は、複数フェーズのうちの、予測器171で生成された予測ボリュームデータに対応するフェーズiについて、被検体の任意の部位pの差分ボリュームデータ(V’p-Vp)を生成する。識別処理部165は、複数フェーズのうちの、予測器171で生成された予測ボリュームデータに対応するフェーズiについて、被検体の任意の部位qの予測ボリュームデータV’qを生成する。ここでの部位p,qは、パッチに相当する範囲であってよい。
識別処理部165は、差分ボリュームデータ(V’p-Vp)と予測ボリュームデータV’qとのデータペアを、識別器172に入力する。この場合、識別処理部165は、差分ボリュームデータ(V’p-Vp)と予測ボリュームデータV’qとを任意に組み合わせて、識別器172への入力対象のデータペアを生成する。任意の組み合わせには、それぞれ同じ部位(q=p)のデータの組み合わせと、異なる部位(q≠p)のデータを組み合わせと、が含まれてよい。
同じ部位(例えば血管と血管)の予測ボリュームデータと差分ボリュームデータとのデータペアは、同じ部位つまり対応する部位のデータであるので、対応ペア(対応パターン)とも称する。異なる部位(例えば血管と骨)の予測ボリュームデータと差分ボリュームデータとのペアは、異なる部位つまり対応しない部位のデータであるので、非対応ペア(非対応パターン)とも称する。よって、識別処理部165は、対応ペア(V’p-Vp,V’q)(q=p)又は非対応ペア(V’p-Vp,V’q)(q≠p)を、訓練データとして、識別器172に入力する。
識別処理部165は、差分ボリュームデータ(V’p-Vp)と予測ボリュームデータV’qとのペアを生成する際に、この差分ボリュームデータ(V’p-Vp)と予測ボリュームデータV’qとが対応するか否かの成否(真偽つまりReal/Fake)を予め認識している。この成否の情報は、例えばメモリ150に保持されていてよい。識別処理部165は、訓練データに対応する成否を示すデータ(例えばReal/Fake、値0や値1)を、教師データとして、識別器172に入力する。
識別器172は、訓練データを入力して、教師データを出力するよう、機械学習する。具体的には、識別器172は、差分ボリュームデータ(V’p-Vp)と予測ボリュームデータV’qとが対応するか否か、つまり対応ペアであるか非対応ペアであるかの識別結果が正解となるよう機械学習してよい。
識別処理部165は、識別器172による機械学習において対応/非対応の識別結果の成否の情報を、予測処理部164の予測器171へ通知する。
予測処理部164は、171は、識別器172による識別結果の成否の情報を、予測器171による機械学習のための1つのパラメータとして追加する。予測器171は、識別器172による識別結果が不正解となるよう機械学習する。つまり、予測器171は、識別器172により差分ボリュームデータ(V’p-Vp)と予測ボリュームデータV’qとを識別できない予測ボリュームデータV’qに対応する予測ボリュームデータV’iを生成するよう、機械学習してよい。このように、予測器171は、識別器172が識別に成功した場合、ペナルティを受ける。
このように、医用画像処理装置100Aは、予測器171による予測のために、識別器172による識別結果の成否を加味することで、予測器171が単独で機械学習する場合よりも、予測器171の機械学習と識別器172の機械学習との双方を実施することで、予測器171による予測精度(予測ボリュームデータの生成精度)を向上できる。
例えば、予測器171が理想的であれば、同じフェーズiの実ボリュームデータViと予測ボリュームデータV’iとはノイズ成分以外の実信号成分が同一となるので、差分ボリュームデータはノイズ成分のみを含むノイズボリュームデータとなる。この場合、識別器172に入力されるペアは、差分ボリュームデータつまりノイズボリュームデータと予測ボリュームデータとのペアとなる。ノイズボリュームデータは、被検体の部位に依らずにノイズ成分のみとなるので、識別器172は、対応ペアであるか非対応ペアであるかを識別できない。一方、予測器171が理想的でない場合、ノイズ以外の構造(実信号成分)が差分ボリュームデータ内に残存する。この場合、識別器172は、差分ボリュームデータの実信号成分と予測ボリュームデータに含まれる実信号成分とを基に、対応ペアであるか非対応ペアであるかを識別し得る。したがって、予測器171は、識別器172により対応ペアであるか非対応ペアであるかが識別不能となるように機械学習することで、理想的な予測器171に近づくことができる。
図15は、予測対象と同一の被検体の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとの一例を示す図である。
図15では、左列の3つの画像が、実ボリュームデータがボリュームレンダリングされた実画像を示す。真ん中列の3つの画像が、予測ボリュームデータがボリュームレンダリングされた予測画像を示す。右列の3つの画像が、差分ボリュームデータがボリュームレンダリングされた差分画像を示す。また、上段の3つの画像、中段の3つの画像、及び下段の3つの画像は、同じ被検体における異なる部位の画像を示す。各段の3つの画像は、同じ部位の画像を示す。具体的には、図15における最上段の各画像は部位b11を示し、中段の各画像は部位b12を示し、最下段の各画像は部位b13を示す。なお、図15の被検体は、予測器171による予測対象の被検体と同一である。
図16は、予測対象の被検体とは異なる被検体の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとの一例を示す図である。
図16では、左列の3つの画像が、実ボリュームデータのMPR実画像を示す。真ん中列の3つの画像が、予測ボリュームデータがボリュームレンダリングされた予測画像を示す。右列の3つの画像が、差分ボリュームデータがボリュームレンダリングされた差分画像を示す。また、上段の3つの画像、中段の3つの画像、及び下段の3つの画像は、同じ被検体における異なる部位の画像を示す。各段の3つの画像は、同じ部位の画像を示す。具体的には、図16における最上段の各画像は部位b21を示し、中段の各画像は部位b22を示し、最下段の各画像は部位b23を示す。なお、図16の被検体は、予測器171による予測対象の被検体とは異なる被検体である。
例えば、図16の中段において、予測ボリュームデータv1の部分p1が差分ボリュームデータv3の部分p3として表れていると推測される。つまり、実ボリュームデータv2の画素値と予測ボリュームデータv1の画素値との差が表れていると推測される。これは、予測器171による予測誤差に相当する。よって、識別器172は、予測誤差があると、予測ボリュームデータv1と差分ボリュームデータv3とが対応するか否かを識別し易くなる。
図17Aは、フェーズ平均4DMIP合成された場合の出力レイキャスト画像の一例を示す図である。図17Bは、フェーズ平均4DMIP合成された場合の出力MPR画像と、出力MPR画像における特定範囲の画素値と、の一例を示す図である。図17A及び図17Bにおける出力レイキャスト画像と出力MPR画像とは、同じ被検体における同じ部位の画像である。
図17Bでは、出力MPR画像に、直線L11上の画素値(ここでは単位:HU)を示したグラフg11が重畳して示されている。グラフg11では、直線L11に存在する点p11において、直線L11上の画素値のピーク値(約150)となっている。
図17Cは、Deep GAN 4DMIP合成された場合の出力レイキャスト画像の一例を示す図である。図17Dは、Deep GAN 4DMIP合成された場合の出力MPR画像と、出力MPR画像における特定範囲の画素値と、の一例を示す図である。
図17Dでは、出力MPR画像に、直線L12上の画素値(ここでは単位:HU)を示したグラフg12が重畳して示されている。グラフg12では、直線L12に存在する点p12において、直線L12上の画素値のピーク値(約330)となっている。
図17A及び図17Bと図17C及び図17Dとを比較すると、図17A及び図17Bでは、ノイズが多く、出力レイキャスト画像では細血管の描画がやや明瞭であり、出力MPR画像では細血管の描画が不明瞭(画素値のピーク値が約150)であることが理解できる。
一方、図17C及び図17Dでは、ノイズが少なく、出力レイキャスト画像では細血管の描画がかなり明瞭であり(図17Cにおける2つの矢印の先端近傍部分参照)、出力MPR画像では細血管の描画が明瞭(画素値のピーク値が約330)であることが理解できる。よって、ユーザは、Deep GAN 4DMIP合成されたボリュームデータがレンダリングされた出力画像を確認することで、観察対象の様子を容易に鮮明に把握でき、高精度の診断を行うことが可能となる。
図18Aは、フェーズ平均4DMIP合成された場合の脳の出力MPR画像の一例を示す図である。図18Bは、Deep GAN 4DMIP合成された場合の脳の出力MPR画像の一例を示す図である。
図18A及び図18Bを比較すると、図18Aでは、脳の肺白質と白質との境界が不明瞭であるが、図18Bでは、脳の肺白質と白質との境界が明瞭であることが理解できる(図18Bの矢印の先端近傍部分参照)。
図19Aは、Deep 4DMIP合成された場合の任意の部位の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとがレンダリングされた画像の一例を示す図である。図19Bは、Deep GAN 4DMIP合成された場合の任意の部位の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとの一例を示す図である。
図19A及び図19Bを比較すると、図19Aでは、差分ボリュームデータにノイズ成分以外が少し含まれており、矢印の先端近傍部分に組織の存在を示す影が発生していることが理解できる。つまり、Deep 4DMIP合成では、予測ボリュームデータにおいて血管部分が少し削除されて血管部分の画素値が小さくなり、予測ボリュームデータの画素値<実ボリュームデータの画素値となって、影が発生している。一方、図19Bでは、差分ボリュームデータのノイズ成分以外が更に低減され、矢印の先端近傍部分の影が確認し難くなっていることが理解できる。つまり、Deep GAN 4DMIP合成を行うことで、予測ボリュームデータの生成精度を向上できることが理解できる。
図20は、医用画像処理装置100Aによる予測器171及び識別器172の機械学習及び予測画像生成に係る動作例を示すフローチャートである。なお、図20では、フェーズは、0~nまで存在するとする。
まず、ポート110は、時系列上に並んだ複数フェーズのボリュームデータV0~VnをCT装置200から取得する(S31)。レジストレーション処理部163は、取得された複数フェーズのボリュームデータV0~Vnを位置合わせする(S32)。
予測処理部164は、フェーズi=0~nについて、ボリュームデータV0~Vn(Viを除く)を用いて、予測器171を機械学習させる(S33)。この場合、予測処理部164は、S31で取得されたボリュームデータV0~Vn(Viを除く)を機械学習用の訓練データとし、S31で取得されたボリュームデータViを機械学習用の教師データとする。
予測処理部164は、フェーズi=0~nについて、ボリュームデータV0~Vn(Viを除く)を予測器171に入力し、予測ボリュームデータV’iを生成する(S34)。したがって、予測ボリュームデータV’0~V’nが得られる。
識別処理部165は、フェーズi=0~nについて、差分ボリュームデータNVi=|V’i-Vi|を生成する(S35)。つまり、差分ボリュームデータは、予測ボリュームデータの各画素の画素値と実ボリュームデータの各画素の画素値との差分の絶対値で示されてよい。
識別処理部165は、フェーズi=0~n、フェーズj=0~nについて、差分ボリュームデータNViと予測ボリュームデータV’jとのデータペア[NVi,V’j]を用いて、識別器172に機械学習させる(S36)。この場合、識別器172は、データペア[NVi,V’j]を訓練データとし、データペアが対応ペアであるか非対応ペアであるかを示す情報を教師データとして、機械学習する。識別器172は、例えば、訓練データが対応ペア(つまりi=j)であると識別すると、真(例えば値0)を出力し、訓練データが非対応ペア(つまりi≠j)であると識別すると、偽(例えば値1)を出力する。この出力結果が評価される。
識別処理部165は、識別器172による識別結果の成否を、予測処理部164に通知(フィードバック)する。予測処理部164は、識別処理部165からの通知を基に、識別器172により正しく識別されないように、予測器171に機械学習させる(S37)。
画像生成部162は、予測ボリュームデータV’0~V’nについて、それぞれの対応するボクセルにおける画素値(ボクセル値)の最大値を算出し、最大値ボリュームデータVmaxを生成する(S38)。つまり、画像生成部162は、Deep GAN 4DMIP合成により、最大値ボリュームデータVmaxを生成する。
画像生成部162は、最大値ボリュームデータVmaxを例えばMIP法で可視化する(S39)。つまり、画像生成部162は、最大値ボリュームデータVmaxを例えばMIP法でボリュームレンダリングし、出力画像(出力MIP画像)を生成する。
図20の処理によれば、医用画像処理装置100Aは、予測器171により予測ボリュームデータの生成精度が上がるように機械学習できる。また、医用画像処理装置100Aは、識別器172により予測ボリュームデータと差分ボリュームデータとの対応関係を識別するための識別精度が上がるように機械学習できる。よって、予測器171は、識別器172に識別されないように予測ボリュームデータを生成でき、識別器172を用いない場合よりも高画質の予測ボリュームデータを生成できる。したがって、医用画像処理装置100Aは、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像が合成された合成画像の導出精度を一層向上できる。
なお、処理部160は、S37の次にS33に進むループを設けてもよい。つまり、予測器171及び識別器172の機械学習を反復して実施してよい。これにより、医用画像処理装置100Aは、予測器171及び識別器172を順次改良でき、予測器171による予測性能及び識別器172による識別性能を向上できる。処理部160は、ループ回数が閾値th以上となった場合に、S38の処理に進むようにしてもよい。
以上、図面を参照しながら各種の実施形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。
上記実施形態は、予測器171は、時系列の実ボリュームデータに基づいて機械学習や予測を行うことを例示した。また、識別器172は、時系列の実ボリュームデータ、予測ボリュームデータ、差分ボリュームデータに基づいて機械学習や識別を行うことを例示した。この代わりに、予測器171は、時系列の実ボリュームデータと実ボリュームデータに基づく情報(例えばperfusionデータ)に基づいて機械学習や予測を行ってもよい。また、識別器172は、時系列の実ボリュームデータ、予測ボリュームデータ、差分ボリュームデータとこれらのボリュームデータに関する情報(例えばperfusionデータ)に基づいて機械学習や識別を行ってもよい。これにより、医用画像処理装置100,100Aは、一層機械学習精度や予測精度を向上し得る。
上記実施形態では、予測画像生成時(実際の予測時)や機械学習時に、3次元のボリュームデータが予測器171に入力され、3次元のボリュームデータ(予測ボリュームデータ)が予測器171から出力(生成)されることを例示した。なお、3次元のボリュームデータ以外の医用画像が、予測器171に入力され、予測器171から出力されてよい。例えば、予測画像生成時や機械学習時に、例えばCT装置200により得られた2次元のスライスデータが予測器171に入力され、2次元のスライスデータが予測器171から出力(生成)されてもよい。また、予測画像生成時や機械学習時に、ボリュームデータを基に生成された3次元画像又は2次元画像が予測器171に入力され、3次元画像や2次元画像が予測器171から出力(生成)されてよい。
上記実施形態では、3次元のボリュームデータのデータペアが、識別器172に入力され、対応ペアであるか非対応ペアであるかの識別結果が、識別器172から出力されることを例示した。なお、3次元のボリュームデータ以外の医用画像のペアが、識別器172に入力され、対応ペアであるか非対応ペアであるかの識別結果が、識別器172から出力されてよい。例えば、2次元のスライスデータが識別器172に入力され、対応ペアであるか非対応ペアであるかの識別結果が、識別器172から出力されてよい。また、ボリュームデータを基に生成された3次元画像又は2次元画像が識別器172に入力され、対応ペアであるか非対応ペアであるかの識別結果が、識別器172から出力されてよい。
上記実施形態では、時系列のボリュームデータは、例えば造影剤の推移を表す医用画像の一例であるが、これ以外のデータ(例えばMRIの緩和(relaxation)画像)でもよい。なお、ボリュームデータは、既知の方法(例えばMIP,MinIP,RaySUM,MPR)で可視化されてよい。また、予測器171により生成されるデータがスライスデータや2次元画像である場合、2次元画像により可視化されてよい。
例えば、画像生成部162は、複数フェーズのボリュームデータにおいて各ボクセルの最小値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、TminIP合成とも称する。TMinIP合成では、画素値が小さくなり易い。画像生成部162は、n個の予測画像YGiにおける対応する各画素の画素値のうち、最大値以外の統計値(例えば最小値(Min))を画素値として、合成ボリュームデータを生成してもよい。医用画像処理装置100,100Aは、TMinIP合成することで、CT装置200が被検体を造影状態で撮像する場合に、造影剤の種類によっては、合成ボリュームデータ(合成ボリュームデータがレンダリングされた画像)が観察し易くなり得る。
また、画像生成部162は、上記の統計値から平均値(Average)を除外し、平均値を用いた合成ボリュームデータの生成を除外してよい。これにより、医用画像処理装置100,100Aは、各予測画像YGiの各画素の画素値が平均化されることで、ノイズが抑制されるとともに、各予測画像YGiにおいて実際に必要な信号値も平滑化されることを防止できる。
また、画像生成部162は、ガウシアンフィルタを用いずに出力画像を生成してよい。これにより、出力画像内の画素値が平滑化され難くなり、例えば血管の末梢部が消えにくくなる。つまり、医用画像処理装置100,100Aは、血管の末梢部の描画性能を維持できる。
上記実施形態では、画像生成部162は、複数フェーズのボリュームデータの合成方法として、4DMIPによりVmaxを生成することを例示したが、他の合成方法(例えば、平均値合成、中央値合成、最小値合成)を用いて複数のボリュームデータを合成してもよい。
上記実施形態では、画像生成部162は、複数フェーズのボリュームデータを4DMIP等により合成する前、合成する時、又は合成した後に、既知のノイズ除去処理や画像フィルタ処理(例えばガウスフィルタを用いた画像フィルタ処理)を実施してよい。
上記実施形態では、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100,100Aへ送信されることを例示した。この代わりに、ボリュームデータが一旦蓄積されるように、ネットワーク上のサーバ等へ送信され、サーバ等に保管されてもよい。この場合、必要時に医用画像処理装置100,100Aのポート110が、ボリュームデータを、有線回線又は無線回線を介してサーバ等から取得してもよいし、任意の記憶媒体(不図示)を介して取得してもよい。
上記実施形態では、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100,100Aへポート110を経由して送信されることを例示した。これは、実質的にCT装置200と医用画像処理装置100,100Aとを併せて一製品として成立している場合も含まれるものとする。また、医用画像処理装置100,100AがCT装置200のコンソールとして扱われている場合も含む。
上記実施形態では、CT装置200により画像を撮像し、生体内部の情報を含むボリュームデータを生成することを例示したが、他の装置により画像を撮像し、ボリュームデータを生成してもよい。他の装置は、MRI装置、PET(Positron Emission Tomography)装置、血管造影装置(Angiography装置)、又はその他のモダリティ装置を含む。また、PET装置は、他のモダリティ装置と組み合わせて用いられてもよい。
上記実施形態では、被検体として人体を例示したが、動物の体でもよい。
本開示は、上記実施形態の医用画像処理装置の機能を実現するプログラムを、ネットワーク又は各種記憶媒体を介して医用画像処理装置に供給し、医用画像処理装置内のコンピュータが読み出して実行するプログラムも適用範囲である。
以上のように、上記実施形態の医用画像処理装置100では、取得部(例えばポート110)は、第1の被検体を時系列上で複数回撮像して得られた複数の医用画像(例えばボリュームデータ)を取得する。処理部160は、予測器171を用いて、複数の予測画像(例えば予測ボリュームデータ)を生成する。予測器171は、複数の医用画像のうちの一部の医用画像(例えばV1~V7)を基に複数の医用画像のうちの残りの医用画像(例えばV0)に対応する予測画像(例えばV’0)を生成する。処理部160は、複数の医用画像のうちの一部を構成する少なくとも2つの医用画像を訓練データとし、複数の医用画像のうちの残りの医用画像を教師データとし、一部の医用画像の組み合わせ及び残りの医用画像を順次変更して、予測器171を機械学習させる。処理部160は、複数の医用画像のうちの一部の医用画像を予測器171に入力し、一部の医用画像の組み合わせを順次変更して、複数の予測画像(例えばV’0~V’7)を生成する。
これにより、医用画像処理装置100は、時系列に並ぶ複数フェーズのうちの一部の医用画像を用いて機械学習することで、複数フェーズのうちの残りの医用画像とそのフェーズに対応する予測画像との特徴が近づくように機械学習できる。つまり、医用画像処理装置100は、複数フェーズのうちの予測されるフェーズ以外のフェーズの医用画像を訓練データとし、予測されるフェーズの医用画像を教師データとして、予測器171に機械学習させ、予測されるフェーズの医用画像の画質を改善(例えば医用画像に含まれるノイズを低減)できる。よって、医用画像処理装置100は、残りの医用画像の撮像精度が低い場合(例えば残りの医用画像の撮像タイミングにおいて被検体の動きによりブレが生じた場合、医用画像撮像装置(例えばCT装置200)の不具合が発生した場合)でも、撮像精度が低いことによる影響を低減できる。
また、医用画像処理装置100は、実際の医用画像にはノイズが含まれるが、予測画像を生成することで、各フェーズの医用画像を改善できる。また、ノイズが無いデータは実空間上で存在しないが、医用画像処理装置100は、各フェーズの医用画像に対応する予測画像を生成することで、ノイズの無い理想的な画像を生成でき、複数フェーズの医用画像を理想的な4Dデータに近づけることができる。
このように、医用画像処理装置100は、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像の画質を向上できる。
また、処理部160は、少なくとも第1の医用画像(例えばV0)及び第2の医用画像(例えばV1)を予測器171の訓練データとし、第3の医用画像(例えばV2)を予測器171の教師データとして、予測器171を機械学習させてよい。処理部160は、少なくとも第2の医用画像及び第3の医用画像を予測器171の訓練データとし、第1の医用画像を予測器171の教師データとして、予測器171を機械学習させてよい。処理部160は、少なくとも第3の医用画像及び第1の医用画像を予測器171の訓練データとし、第2の医用画像を予測器171の教師データとして、予測器171を機械学習させてよい。処理部160は、少なくとも第1の医用画像及び第2の医用画像を予測器171に入力して、第1の予測画像(例えばV’2)を生成してよい。処理部160は、少なくとも第2の医用画像及び第3の医用画像を予測器171に入力して、第2の予測画像(例えばV’0)を生成してよい。処理部160は、少なくとも第3の医用画像及び第1の医用画像を予測器171に入力して、第3の予測画像(例えばV’1)を生成してよい。処理部160は、少なくとも第1の予測画像、第2の予測画像、第3の予測画像を合成して、合成画像を得てよい。
これにより、医用画像処理装置100は、時系列に並ぶ第1の医用画像と第2の医用画像と第3の医用画像とを用いて機械学習することで、第3の医用画像と第1の予測画像との特徴が近づくように学習できる。よって、医用画像処理装置100は、第3の医用画像の撮像精度が低い場合(例えば第3の医用画像の撮像タイミングにおいて被検体の動きによりブレが生じた場合、医用画像撮像装置の不具合が発生した場合)でも、撮像精度が低いことによる影響を低減できる。
また、医用画像処理装置100は、実際の医用画像にはノイズが含まれるが、予測画像を用いて合成画像を生成することで、ノイズが低減された合成画像としての4Dデータ(例えば動画)を得ることができる。また、ノイズが無いデータは実空間上で存在しないが、医用画像処理装置100は、ノイズの無い理想的な画像を生成することで、理想的な4Dデータに近づけることができる。
このように、医用画像処理装置100は、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像が合成された合成画像の導出精度を向上できる。
また、処理部160は、第1の医用画像、第2の医用画像、及び第3の医用画像を位置合わせしてから、予測器171を機械学習させてよい。
これにより、医用画像処理装置100は、時系列で被検体の位置がずれると予測精度が劣化するが、時系列上の複数の医用画像の位置合わせを行うことで、予測精度の劣化を抑制できる。
また、処理部160は、第1の被検体とは異なる第2の被検体の時系列上の複数の医用画像を用いて、予測器171に機械学習させてよい。この場合、取得部は、第1の被検体とは異なる第2の被検体を時系列上で少なくとも3回撮像して得られた第4の医用画像、第5の医用画像、及び第6の医用画像を取得してよい。処理部160は、少なくとも第4の医用画像及び第5の医用画像を予測器171の訓練データとし、第6の医用画像を予測器171の教師データとして、予測器171を機械学習させてよい。処理部160は、少なくとも第5の医用画像及び第6の医用画像を予測器171の訓練データとし、第4の医用画像を予測器171の教師データとして、予測器171を機械学習させてよい。処理部160は、少なくとも第6の医用画像及び第4の医用画像を予測器171の訓練データとし、第5の医用画像を予測器171の教師データとして、予測器171を機械学習させてよい。
これにより、医用画像処理装置100は、様々な被検体(患者)についての予測器171を共有できる。つまり、医用画像処理装置100は、予測対象の被検体以外の被検体のボリュームデータと予測対象の被検体のボリュームデータとの両方を用いて、予測器171に機械学習させることができる。この場合、医用画像処理装置100は、予測対象の被検体のみを用いて予測器171を機械学習させる場合と比較して、様々な被検体の状態や組織の構成を加味でき、機械学習の学習結果に局所的に収束することを抑制できる。よって、例えば予測器171を用いて多数の被検体の予測画像を生成する場合であっても、様々な被検体の状態や組織の構成を加味でき、予測精度を向上できる。
また、処理部160は、第3の医用画像から、第1の被検体における第1の部位(例えば部位p)の医用画像(例えばVp)と第1の部位とは異なる第2の部位(例えば部位q)の医用画像(例えばVq)とを取得してよい。処理部160は、第1の予測画像から、第1の被検体における第1の部位の予測画像(例えばV’p)と第2の部位の予測画像(例えばV’q)を取得してよい。処理部160は、第1の部位の医用画像と第1の部位の予測画像との差分を示す第1の差分画像(例えばV’p-Vp)を生成してよい。処理部160は、第2の部位の医用画像と第2の部位の予測画像との差分を示す第2の差分画像を生成してよい。処理部が160は、第1の差分画像及び第2の差分画像のうちいずれかの差分画像(例えばV’p-Vp)と第1の部位の予測画像及び第2の部位の予測画像のうちいずれかの部位の予測画像とのペア(例えばデータペア)を生成してよい。処理部160は、ペアにおけるいずれかの差分画像といずれかの部位の予測画像とが対応するか否かを識別する識別器172による識別が成功しないように、予測器171を機械学習させてよい。
識別器172により識別が失敗する場合、識別器172が差分画像と予測画像との対応付けができないことを意味し、つまり差分画像内に予測画像の実信号成分が含まれず、ノイズ成分のみ含まれていることを意味する。一方、識別器172により識別が成功する場合、識別器172が差分画像と予測画像との対応付けができることを意味し、つまり、差分画像内に予測画像の実信号成分(例えば微小構造)が残存していることを意味する。したがって、差分画像が実信号成分(微小構造としての血管等)を含んでおり、予測精度の向上の余地があることを意味する。医用画像処理装置100Aは、識別器172による識別が成功しないように、予測器171を機械学習させることで、予測器171によるノイズ成分を超えた微小構造等の削除を抑制でき、予測精度を向上できる。
つまり、予測器171は、予測画像内に元の構造物が残らないようにできる。そのため、識別器172による識別精度を低下させることができる。これは、差分画像と予測画像との区別がつけられないことを意味する。したがって、差分画像内に被検体の微小領域の残存が低下し、ノイズの成分が多くなるので、被検体における部位の判定精度も低下する。この識別結果を予測器171にフィードバックすることで、予測器171は、識別器172による識別精度が低くなるように、予測画像を生成できる。よって差分画像に微小領域の残存が低下することで、医用画像と予測画像との差が小さくなり、医用画像と予測画像とが近づく。よって、識別器172は、予測器171による予測画像の予測精度向上を補助できる。
また、処理部160は、第1の差分画像と第1の部位の予測画像とのペアを識別器172の訓練データとし、第1の差分画像と第1の部位の予測画像とが対応することを示す対応情報を教師データとして、識別器172を機械学習させてよい。処理部160は、第1の差分画像と第2の部位の予測画像とのペアを識別器172の訓練データとし、第1の差分画像と第2の部位の予測画像とが対応しないことを示す非対応情報を教師データとして、識別器172を機械学習させてよい。
これにより、医用画像処理装置100Aは、識別器172に入力した差分画像と任意の部位の予測画像とが対応するか否かを順次学習できる。よって、医用画像処理装置100Aは、識別器172が新規に入力した差分画像と任意の部位の予測画像とが対応するか否かを識別する識別精度を向上できる。これにより、予測器171は、識別器172に識別されないように機械学習を行うので、予測器171による予測画像の生成精度を向上できる。
処理部160は、時系列に並ぶ画像であり、Raycast法、MIP法、RaySUM法、又はMinIP法でレンダリングして、合成画像を生成してよい。
これにより、医用画像処理装置100,100Aは、様々なレンダリング方法で、合成画像を可視化できる。例えば、MIP法に従って合成画像を可視化する場合、最大値をとることによって輝度(画素値)が過大に大きくなり易く、合成画像が観察し難くなり易いが、医用画像処理装置100,100Aによれば、輝度値が過度に大きくなることを抑制でき、合成画像を観察し易くできる。
本開示は、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像の画質を向上できる医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム等に有用である。
100 医用画像処理装置
110 ポート
120 ユーザインタフェース(UI)
130 ディスプレイ
140 プロセッサ
150 メモリ
151 学習DB
160 処理部
161 領域抽出部
162 画像生成部
163 レジストレーション処理部
164 予測処理部
165 識別処理部
166 表示制御部
171 予測器
172 識別器
200 CT装置

Claims (9)

  1. 第1の被検体を時系列上で複数回撮像して得られた複数の医用画像を取得する取得部と、
    前記複数の医用画像のうちの一部の医用画像を基に前記複数の医用画像のうちの残りの医用画像に対応する予測画像を生成する予測器を用いて、複数の前記予測画像を生成する処理部と、
    を備え、
    前記処理部は、
    前記複数の医用画像のうちの一部を構成する少なくとも2つの医用画像を訓練データとし、前記複数の医用画像のうちの残りの医用画像を教師データとし、前記一部の医用画像の組み合わせ及び前記残りの医用画像を順次変更して、前記予測器を機械学習させ、
    前記複数の医用画像のうちの一部の医用画像を前記予測器に入力し、前記一部の医用画像の組み合わせを順次変更して、複数の前記予測画像を生成する、
    医用画像処理装置。
  2. 複数の前記医用画像は、第1の医用画像、第2の医用画像、及び第3の医用画像を含み、
    複数の前記予測画像は、第1の予測画像、第2の予測画像、及び第3の予測画像を含み、
    前記処理部は、
    少なくとも前記第1の医用画像及び前記第2の医用画像を前記予測器の訓練データとし、前記第3の医用画像を前記予測器の教師データとして、前記予測器を機械学習させ、
    少なくとも前記第2の医用画像及び前記第3の医用画像を前記予測器の訓練データとし、前記第1の医用画像を前記予測器の教師データとして、前記予測器を機械学習させ、
    少なくとも前記第3の医用画像及び前記第1の医用画像を前記予測器の訓練データとし、前記第2の医用画像を前記予測器の教師データとして、前記予測器を機械学習させ、
    少なくとも前記第1の医用画像及び前記第2の医用画像を前記予測器に入力して、前記第1の予測画像を生成し、
    少なくとも前記第2の医用画像及び前記第3の医用画像を前記予測器に入力して、前記第2の予測画像を生成し、
    少なくとも前記第3の医用画像及び前記第1の医用画像を前記予測器に入力して、前記第3の予測画像を生成し、
    少なくとも前記第1の予測画像、前記第2の予測画像、前記第3の予測画像を合成して、合成画像を得る、
    請求項1に記載の医用画像処理装置。
  3. 前記処理部は、前記第1の医用画像、前記第2の医用画像、及び前記第3の医用画像を位置合わせしてから、前記予測器を前記機械学習させる、
    請求項2に記載の医用画像処理装置。
  4. 前記取得部は、前記第1の被検体とは異なる第2の被検体を時系列上で少なくとも3回撮像して得られた第4の医用画像、第5の医用画像、及び第6の医用画像を取得し、
    前記処理部は、
    少なくとも前記第4の医用画像及び前記第5の医用画像を前記予測器の訓練データとし、前記第6の医用画像を前記予測器の教師データとして、前記予測器を機械学習させ、
    少なくとも前記第5の医用画像及び前記第6の医用画像を前記予測器の訓練データとし、前記第4の医用画像を前記予測器の教師データとして、前記予測器を機械学習させ、
    少なくとも前記第6の医用画像及び前記第4の医用画像を前記予測器の訓練データとし、前記第5の医用画像を前記予測器の教師データとして、前記予測器を機械学習させる、
    請求項2または3に記載の医用画像処理装置。
  5. 前記処理部は、
    前記第3の医用画像から、前記第1の被検体における第1の部位の医用画像と前記第1の部位とは異なる第2の部位の医用画像とを取得し、
    前記第1の予測画像から、前記第1の被検体における前記第1の部位の予測画像と前記第2の部位の予測画像を取得し、
    前記第1の部位の医用画像と前記第1の部位の予測画像との差分を示す第1の差分画像を生成し、
    前記第2の部位の医用画像と前記第2の部位の予測画像との差分を示す第2の差分画像を生成し、
    前記第1の差分画像及び前記第2の差分画像のうちいずれかの差分画像と前記第1の部位の予測画像及び前記第2の部位の予測画像のうちいずれかの部位の予測画像とのペアを生成し、
    前記ペアにおける前記いずれかの差分画像と前記いずれかの部位の予測画像とが対応するか否かを識別する識別器による識別が成功しないように、前記予測器を機械学習させる、
    請求項2~4のいずれか1項に記載の医用画像処理装置。
  6. 前記処理部は、
    前記第1の差分画像と前記第1の部位の予測画像とのペアを前記識別器の訓練データとし、前記第1の差分画像と前記第1の部位の予測画像とが対応することを示す対応情報を教師データとして、前記識別器を機械学習させ、
    前記第1の差分画像と前記第2の部位の予測画像とのペアを前記識別器の訓練データとし、前記第1の差分画像と前記第2の部位の予測画像とが対応しないことを示す非対応情報を教師データとして、前記識別器を機械学習させる
    請求項5に記載の医用画像処理装置。
  7. 前記処理部は、Raycast法、MIP法、RaySUM法、又はMinIP法に従って、前記合成画像を可視化する、
    請求項2~6のいずれか1項に記載の医用画像処理装置。
  8. 医用画像処理装置における医用画像処理方法であって、
    第1の被検体を時系列上で複数回撮像して得られた複数の医用画像を取得するステップと、
    前記複数の医用画像のうちの一部の医用画像を基に前記複数の医用画像のうちの残りの医用画像に対応する予測画像を生成する予測器を用いて、複数の前記予測画像を生成するステップと、
    を有し、
    前記予測画像を生成するステップは、
    前記複数の医用画像のうちの一部を構成する少なくとも2つの医用画像を訓練データとし、前記複数の医用画像のうちの残りの医用画像を教師データとし、前記一部の医用画像の組み合わせ及び前記残りの医用画像を順次変更して、前記予測器を機械学習させるステップと、
    前記複数の医用画像のうちの一部の医用画像を前記予測器に入力し、前記一部の医用画像の組み合わせを順次変更して、複数の前記予測画像を生成するステップと、を含む、
    医用画像処理方法。
  9. 請求項8に記載の医用画像処理方法をコンピュータに実行させるための医用画像処理プログラム。
JP2018108027A 2018-06-05 2018-06-05 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム Active JP7051595B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018108027A JP7051595B2 (ja) 2018-06-05 2018-06-05 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018108027A JP7051595B2 (ja) 2018-06-05 2018-06-05 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2019208903A JP2019208903A (ja) 2019-12-12
JP7051595B2 true JP7051595B2 (ja) 2022-04-11

Family

ID=68845807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018108027A Active JP7051595B2 (ja) 2018-06-05 2018-06-05 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Country Status (1)

Country Link
JP (1) JP7051595B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11672498B2 (en) 2020-07-29 2023-06-13 Canon Medical Systems Corporation Information processing method, medical image diagnostic apparatus, and information processing system
CN113706583B (zh) * 2021-09-01 2024-03-22 上海联影医疗科技股份有限公司 图像处理方法、装置、计算机设备和存储介质
CN114519397B (zh) * 2022-02-22 2024-05-28 平安科技(深圳)有限公司 基于对比学习的实体链接模型的训练方法、装置、设备
CN114723633A (zh) * 2022-04-02 2022-07-08 北京理工大学 内镜图像偏色失真颜色实时补偿方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008035895A (ja) 2006-08-01 2008-02-21 Ziosoft Inc 画像処理方法および画像処理プログラム
JP2011150541A (ja) 2010-01-21 2011-08-04 Sony Corp 学習装置、学習方法、及びプログラム
WO2017091833A1 (en) 2015-11-29 2017-06-01 Arterys Inc. Automated cardiac volume segmentation
JP2018022216A (ja) 2016-08-01 2018-02-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008035895A (ja) 2006-08-01 2008-02-21 Ziosoft Inc 画像処理方法および画像処理プログラム
JP2011150541A (ja) 2010-01-21 2011-08-04 Sony Corp 学習装置、学習方法、及びプログラム
WO2017091833A1 (en) 2015-11-29 2017-06-01 Arterys Inc. Automated cardiac volume segmentation
JP2018022216A (ja) 2016-08-01 2018-02-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2019208903A (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
JP7051595B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP5921132B2 (ja) 医用画像処理システム
US8553963B2 (en) Digital subtraction angiography (DSA) motion compensated imaging system
CN107106102B (zh) 数字减影血管造影
US20110245651A1 (en) Medical image playback device and method, as well as program
US10748263B2 (en) Medical image processing apparatus, medical image processing method and medical image processing system
JP2006288495A (ja) 画像処理装置
US20200242776A1 (en) Medical image processing apparatus, medical image processing method, and system
CN104517303A (zh) 医用图像处理装置以及医用图像处理方法
US11646111B2 (en) Medical image processing apparatus, medical image processing method and medical image processing system
CN105640583A (zh) 血管造影方法
CN111062997B (zh) 一种血管造影成像方法、系统、设备和存储介质
JP2016116867A (ja) 医用画像処理装置、医用画像診断装置及び医用画像処理プログラム
JP6253085B2 (ja) X線動画像解析装置、x線動画像解析プログラム及びx線動画像撮像装置
CN113538419B (zh) 一种图像处理方法和系统
WO2021257906A1 (en) Maskless 2d/3d artificial subtraction angiography
JP2016137007A (ja) 画像表示装置及び画像表示方法
JP6533687B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP2016159116A (ja) 3次元モデル生成装置及び方法、及び、3次元モデル生成用プログラム
CN111862312B (zh) 一种脑部血管显示装置及方法
Marincek et al. Multislice CT: A Practical Guide: Proceedings of the 5th International SOMATOM CT Scientific User Conference Zurich, June 2000
JP2023156934A (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
US10847262B2 (en) Medical image processing apparatus, medical image processing method and medical image processing system
US11941808B2 (en) Medical image processing device, medical image processing method, and storage medium
Gupta et al. Applications of Artificial Intelligence in Medical Images Analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210517

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7051595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150