JP7408381B2 - 画像処理装置、プログラム及び方法 - Google Patents

画像処理装置、プログラム及び方法 Download PDF

Info

Publication number
JP7408381B2
JP7408381B2 JP2019236725A JP2019236725A JP7408381B2 JP 7408381 B2 JP7408381 B2 JP 7408381B2 JP 2019236725 A JP2019236725 A JP 2019236725A JP 2019236725 A JP2019236725 A JP 2019236725A JP 7408381 B2 JP7408381 B2 JP 7408381B2
Authority
JP
Japan
Prior art keywords
image data
contour
short
axis cross
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019236725A
Other languages
English (en)
Other versions
JP2021104193A (ja
Inventor
昂彦 西岡
ロランジャンロベルト レーシウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2019236725A priority Critical patent/JP7408381B2/ja
Publication of JP2021104193A publication Critical patent/JP2021104193A/ja
Application granted granted Critical
Publication of JP7408381B2 publication Critical patent/JP7408381B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明の実施形態は、画像処理装置、プログラム及び方法に関する。
被検体の部位の解析を行う画像処理装置及び医用画像診断装置がある。例えば、複数の時相の画像データであって心筋の輪郭が描出された画像データに基づいて、造影剤が投入された被検体の心臓の心筋内の血流量を得るための心筋パフュージョンを実行する画像処理装置及びX線CT(Computed Tomography)装置がある。心筋パフュージョンは、心筋領域内の画素毎又は局所毎に造影剤に関する時間濃度曲線(time-density curve)を生成し、造影剤が流入してから流出するまでの期間に移動する血流の量を、時間濃度曲線に基づいて、画素毎又は局所毎に算出する解析である。このような心筋パフュージョンを含む様々な解析では、解析を精度良く行うために、解析において用いられる解析対象の部位の輪郭の位置及び形状の精度が良好であることが望まれる。すなわち、解析を精度良く行うために、精度の良い輪郭を示す情報を得ることが望まれる。
特開2016-116843号公報 特開2010-220742号公報 特開2018-202158号公報
本発明が解決しようとする課題は、精度の良い輪郭を示す情報を得ることである。
実施形態の画像処理装置は、記憶部と、出力部とを備える。記憶部は、検出対象物の対象位置の第1の画像データの、検出対象物の輝度値に基づいてウィンドウ条件を加工した第2の画像データが入力されることで、検出対象物の輪郭を示す情報を出力する学習済みモデルを記憶する。出力部は、学習済みモデルを使用して、第2の画像データを基に、検出対象物の輪郭を示す情報を出力する。
図1は、第1の実施形態に係る医用処理システムの構成の一例を示す図である。 図2は、第1の実施形態に係るX線CT装置が送信するデータの一例を説明するための図である。 図3は、第1の実施形態に係るX線CT装置が送信するデータの一例を説明するための図である。 図4は、第1の実施形態に係るCT画像データの一例を示す図である。 図5は、第1の実施形態に係る学習用データセット生成機能により実行される処理の一例を説明するための図である。 図6は、第1の実施形態に係る学習用データセット生成機能により実行される処理の一例を説明するための図である。 図7は、第1の実施形態に係るウィンドウ条件の一例を示す図である。 図8は、第1の実施形態に係る学習用データセット生成機能により実行される処理の一例を説明するための図である。 図9は、第1の実施形態に係る学習済みモデル生成機能が実行する処理の一例を説明するための図である。 図10は、第1の実施形態に係る推定機能が実行する処理の一例について説明するための図である。 図11は、第1の実施形態に係る画像処理装置が学習時に実行する処理の流れの一例を示すフローチャートである。 図12は、第1の実施形態に係る画像処理装置が運用時に実行する処理の流れの一例を示すフローチャートである。 図13は、第1の実施形態の変形例1に係る学習済みモデル生成機能が実行する処理の一例を説明するための図である。 図14は、第1の実施形態の変形例1に係る推定機能が実行する処理の一例について説明するための図である。 図15は、第1の実施形態の変形例2に係る画像処理装置が実行する処理の一例を説明するための図である。 図16は、第1の実施形態の変形例2に係る画像処理装置が実行する処理の一例を説明するための図である。 図17は、第1の実施形態の変形例2に係る学習用データセット生成機能が実行する処理の一例を説明するための図である。 図18は、第1の実施形態の変形例2に係る学習用データセット生成機能が実行する処理の一例を説明するための図である。 図19は、第1の実施形態の変形例2に係る学習用データセット生成機能が実行する処理の一例を説明するための図である。 図20は、第1の実施形態の変形例2に係る学習用データセット生成機能が実行する処理の一例を説明するための図である。 図21は、第1の実施形態の変形例2に係る推定機能が実行する処理の一例について説明するための図である。 図22は、第1の実施形態の変形例2に係るデータベースのデータ構造の一例を示す図である。 図23は、第1の実施形態の変形例3に係る学習用データセット生成機能が実行する処理の一例を説明するための図である。 図24は、第2の実施形態に係る医用処理システムの構成の一例を示す図である。 図25は、第2の実施形態に係る学習用データセット生成機能235cが運用時に実行する処理の一例を説明するための図である。 図26は、第2の実施形態に係る学習済みモデル生成機能が実行する処理の一例を説明するための図である。 図27は、第2の実施形態に係る推定機能が実行する処理の一例について説明するための図である。 図28は、第2の実施形態に係る画像処理装置が学習時に実行する処理の流れの一例を示すフローチャートである。 図29は、第2の実施形態に係る画像処理装置が運用時に実行する処理の流れの一例を示すフローチャートである。 図30は、第2の実施形態の変形例1に係る学習済みモデル生成機能が実行する処理の一例を説明するための図である。 図31は、第2の実施形態の変形例1に係る推定機能が実行する処理の一例について説明するための図である。 図32は、第2の実施形態の変形例2に係る画像処理装置が実行する処理の一例を説明するための図である。 図33は、第2の実施形態の変形例2に係る推定機能が実行する処理の一例について説明するための図である。 図34は、第2の実施形態の変形例3に係る画像処理装置が実行する処理の一例を説明するための図である。 図35は、第2の実施形態の変形例3に係る推定機能が実行する処理の一例について説明するための図である。 図36は、第2の実施形態の変形例4に係る画像処理装置が実行する処理の一例を説明するための図である。 図37は、第2の実施形態の変形例4に係る推定機能が実行する処理の一例について説明するための図である。 図38は、解析対象の他の一例について説明するための図である。
以下、図面を参照しながら、画像処理装置、プログラム及び方法の実施形態を詳細に説明する。なお、本願に係る画像処理装置、プログラム及び方法は、以下に示す実施形態によって限定されるものではない。
(第1の実施形態)
図1は、第1の実施形態に係る医用処理システム1の構成の一例を示す図である。図1に示すように、医用処理システム1は、X線CT装置110と、端末装置120と、画像処理装置130とを備える。ここで、X線CT装置110と、端末装置120と、画像処理装置130とは、ネットワーク200を介して通信可能に接続されている。
医用処理システム1では、学習済みモデルを生成する学習時の段階と、学習済みモデルを用いて処理を行う運用時の段階とがある。
X線CT装置110は、被検体を撮像してCT画像を示すCT画像データを生成する。例えば、X線CT装置110は、X線管、X線検出器、DAS(Data Acquisition System)及び処理回路を有する。例えば、X線管は、被検体に対して照射するX線を発生する。検出器は、被検体を通過したX線を検出し、検出したX線量に対応する電気信号をDASに出力する。DASは、検出器から出力された電気信号を増幅させ、アナログ信号である増幅された電気信号をデジタル信号に変換することにより、検出データを生成し、生成した検出データを処理回路に出力する。処理回路は、検出データに対して、対数変換処理、オフセット補正処理、チャネル間の感度補正処理及びビームハードニング補正処理等の前処理を施す。前処理が施された検出データは、生データと称される。そして、処理回路は、生データに対して、フィルタ補正逆投影法や逐次近似再構成法等を用いた再構成処理を行って3次元のCT画像データを生成する。CT画像データの複数の画素(ボクセル)のそれぞれには、CT値が設定されている。例えば、CT値は、「-1000」以上「1000」以下の範囲内の値である。
そして、X線CT装置110は、各種のデータを画像処理装置130に送信する。図2及び図3は、第1の実施形態に係るX線CT装置110が送信するデータの一例を説明するための図である。例えば、X線CT装置110は、画像処理装置130が学習済みモデルを生成する学習時には、図2に示すように、学習時用のCT画像データ11を画像処理装置130へ送信する。これにより、画像処理装置130は、CT画像データ11を用いて学習済みモデルを生成する。
また、X線CT装置110は、画像処理装置130が学習済みモデルを用いて画像データを推定する処理を実行する運用時には、図3に示すように、運用時用のCT画像データ12を画像処理装置130へ送信する。これにより、画像処理装置130は、CT画像データ12及び学習済みモデルを用いて処理を実行する。
なお、CT画像データ11を生成する際に撮像された被検体と、CT画像データ12を生成する際に撮像された被検体とは異なっていてもよいし、同一であってもよい。ただし、CT画像データ11を生成する際に撮像された部位と、CT画像データ12を生成する際に撮像された部位とは同一である。すなわち、CT画像データ11に描出された部位と、CT画像データ12に描出された部位とは同一である。また、例えば、CT画像データ11を生成する際に撮像された被検体、及び、CT画像データ12を生成する際に撮像された被検体には、造影剤が投与されている。画像処理装置130が実行する学習時の学習済みモデルを生成する処理、及び、運用時の学習済みモデルを用いた処理の具体例については後述する。
図1の説明に戻る。端末装置120は、病院内に勤務する医師や検査技師等のユーザに画像を閲覧させるための装置である。例えば、端末装置120は、ユーザにより操作されるパーソナルコンピュータ(PC:Personal Computer)、タブレット式PC、PDA(Personal Digital Assistant)又は携帯電話等によって実現される。例えば、端末装置120は、X線CT装置110又は画像処理装置130から送信された各種の画像データを受信する。そして、端末装置120は、受信した画像データに基づく画像を端末装置120が備えるディスプレイに表示させるとともに、端末装置120が備える入力インターフェースを介して画像に対する各種操作を受け付ける。
画像処理装置130は、X線CT装置110から各種のデータを取得し、取得したデータを用いて各種の処理を実行する。例えば、画像処理装置130は、サーバ、ワークステーション、パーソナルコンピュータ、タブレット端末等のコンピュータ機器によって実現される。
画像処理装置130は、通信インターフェース131と、メモリ132と、入力インターフェース133と、ディスプレイ134と、処理回路135とを備える。
通信インターフェース131は、処理回路135に接続されており、画像処理装置130とX線CT装置110との間で行われる通信、及び、画像処理装置130と端末装置120との間で行われる通信を制御する。具体例を挙げて説明すると、通信インターフェース131は、X線CT装置110及び端末装置120から各種のデータや情報を受信し、受信したデータや情報を処理回路135に送信する。例えば、通信インターフェース131は、ネットワークカード、ネットワークアダプタ又はNIC(Network Interface Controller)等によって実現される。
メモリ132は、処理回路135に接続されており、各種のデータや情報を記憶する。例えば、メモリ132は、X線CT装置110から送信されたCT画像データ11及びCT画像データ12を記憶する。
また、メモリ132は、処理回路135が各種機能を実現するためのプログラムを記憶する。例えば、メモリ132は、フラッシュメモリ等の半導体メモリ素子、ハードディスク又は光ディスク等によって実現される。メモリ132は、記憶部の一例である。
入力インターフェース133は、処理回路135に接続されており、ユーザからの各種の指示、要求及び情報の入力操作を受け付ける。例えば、入力インターフェース133は、ユーザから受け付けた入力操作を電気信号へ変換し、この電気信号を処理回路135に送信する。例えば、入力インターフェース133は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び、音声入力回路等によって実現される。なお、本明細書において、入力インターフェース133は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路135へ送信する電気信号の処理回路も入力インターフェース133の例に含まれる。
ディスプレイ134は、処理回路135に接続されており、各種の情報及び画像を表示する。例えば、ディスプレイ134は、処理回路135から送信される情報及びデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ134は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。
処理回路135は、入力インターフェース133を介してユーザから受け付けた入力操作に応じて、画像処理装置130の動作を制御する。例えば、処理回路135は、プロセッサによって実現される。
以上、本実施形態に係る医用処理システム1の構成の一例について説明した。例えば、医用処理システム1に含まれる画像処理装置130は、病院や医院等の医療機関に設置され、医療機関に入院又は通院する患者等を被検体として、X線CT装置110によって生成されるCT画像データを用いた各種の画像診断に利用される。本実施形態では、画像処理装置130は、精度の良い、解析対象の部位の輪郭(例えば、精度の良い輪郭の位置及び形状)を得ることができるように、以下に説明する各種の処理を実行する。
以下、本実施形態に係る画像処理装置130の詳細について説明する。図1に示すように、画像処理装置130の処理回路135は、制御機能135a、取得機能135b、学習用データセット生成機能135c、学習済みモデル生成機能135d、推定機能135e、解析機能135f及び出力機能135gを実行する。
ここで、例えば、処理回路135が有する各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ132に記憶される。図1に示す処理回路135の構成要素である制御機能135a、取得機能135b、学習用データセット生成機能135c、学習済みモデル生成機能135d、推定機能135e、解析機能135f及び出力機能135gの各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ132に記憶されている。処理回路135は、各プログラムをメモリ132から読み出し、読み出された各プログラムを実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路135は、図1の処理回路135内に示された各機能を有することとなる。
制御機能135aは、入力インターフェース133を介して入力された各種指示及び各種要求に応じた処理を実行するように、画像処理装置130の通信インターフェース131、メモリ132、ディスプレイ134、及び、各機能135b~135gを制御する。例えば、制御機能135aは、通信インターフェース131を介した各種データ及び各種情報の送受信、メモリ132へのデータ及び情報の格納、ディスプレイ134に対する各種画像の表示等を制御する。
例えば、制御機能135aは、学習時にX線CT装置110から送信されたCT画像データ11をメモリ132に格納する。また、制御機能135aは、運用時にX線CT装置110から送信されたCT画像データ12をメモリ132に格納する。
取得機能135bは、各種のデータを取得する。例えば、取得機能135bは、学習時に、メモリ132に記憶されたCT画像データ11を取得する。また、取得機能135bは、運用時に、メモリ132に記憶されたCT画像データ12を取得する。
図4は、第1の実施形態に係るCT画像データ11の一例を示す図である。CT画像データ11は、被検体の心臓の左心室を含む3次元の領域を撮像することによりX線CT装置110により得られたデータである。CT画像データ11は、3次元のCT画像データである。
図4に示すように、CT画像データ11には、被検体の心臓の左心室14の心筋が描出されている。以下の説明では、解析対象の部位が左心室14の心筋であり、画像処理装置130が、左心室14の心筋が描出されたCT画像データ11を用いて学習済みモデルを生成する場合を例に挙げて説明する。ただし、解析対象の部位が左心室の心筋以外の部位である場合、画像処理装置130は、左心室の心筋以外の部位が描出されたCT画像データを用いて、以下に説明する処理と同様の処理を行って、以下に説明する学習済みモデルと同様の学習済みモデルを生成することができる。なお、解析対象の部位は、例えば、検出対象物の一例である。
学習用データセット生成機能135cは、学習済みモデルを生成する際に用いられる学習用データのセットを学習時に生成する。以下、学習用データセット生成機能135cによる学習用データのセットを生成する方法の一例について説明する。
学習用データセット生成機能135cは、CT画像データ11に基づいて、所定のウィンドウ条件で、短軸断面画像データを生成する。なお、ウィンドウ条件には、ウィンドウ幅(window width)及びウィンドウレベル(window level)が含まれる。
例えば、学習時に、ユーザは、左心室14における解析対象の部位である心筋が描出される短軸断面画像の断面の位置(心筋の断面位置)を、入力インターフェース133を介して処理回路135に入力する。これにより、処理回路135の学習用データセット生成機能135cに、心筋の断面位置が入力される。ここで、短軸断面画像とは、例えば、左心室14の長軸に直交する断面を示す画像である。
図5及び図6は、第1の実施形態に係る学習用データセット生成機能135cにより実行される処理の一例を説明するための図である。図5に示すように、学習用データセット生成機能135cは、心筋の断面位置により特定される断面15aを特定する。断面15aは、例えば、左心室14の長軸に直交する断面である。そして、図6に示すように、学習用データセット生成機能135cは、CT画像データ11に基づいて、特定された断面15aを示す短軸断面画像データ15を生成する。例えば、ユーザが、CT画像データ11に対して複数の心筋の断面位置を処理回路135に入力した場合には、学習用データセット生成機能135cは、複数の心筋の断面位置に対応する複数の短軸断面画像データ15を生成する。この場合、複数の短軸断面画像データ15のそれぞれが、以下で説明する処理に用いられる。
なお、断面15aの位置は、例えば、対象位置の一例である。
なお、学習用データセット生成機能135cは、ユーザからの心筋の断面位置を受け付けずに、自動的に、短軸断面画像データを生成してもよい。例えば、学習用データセット生成機能135cは、左心室14の長軸を検出し、長軸に沿って複数の短軸断面画像データ15を生成してもよい。この場合、複数の短軸断面画像データ15のそれぞれが、以下で説明する処理に用いられる。
図6に示すように、短軸断面画像データ15には、解析対象の部位である心筋16と、左心室14の内腔17と、背景18とが描出されている。また、短軸断面画像データ15には、心筋16の外壁の輪郭16a、及び、心筋16の内壁の輪郭16bが描出されている。
短軸断面画像データ15の複数の画素(ピクセル)のそれぞれには、輝度値が設定されている。例えば、輝度値は、「0」以上「255」以下の範囲内の値である。
ここで、同一の被検体の同一の部位を撮像した場合であっても、撮像時のX線管の管電圧、再構成条件、及び、時間の経過とともに変化する被検体内における造影剤の濃度等が異なれば、CT画像データ11を構成する各ボクセルのCT値が異なる場合がある。なお、同一被検体であっても異なる部位を撮像した場合には、造影剤の濃度は異なる。また、異なる被検体の同一部位を撮像した場合にも、造影剤の濃度は異なる。撮像時のX線管の管電圧、再構成条件、及び、被検体内における造影剤の濃度は、CT値を相違させる要因である。このため、以下の説明では、撮像時のX線管の管電圧、再構成条件、及び、被検体内における造影剤の濃度等を「相違要因」と称する場合がある。このため、同一の被検体の同一の部位を撮像した場合であっても、相違要因が異なれば、短軸断面画像データ15を構成する各ピクセルの輝度値も異なる場合がある。したがって、相違要因が異なれば、輪郭16a,16bを構成する各ピクセルの輝度値も異なる場合がある。よって、仮に、画像処理装置130が短軸断面画像データ15に対して心筋パフューム等の解析を実行した場合には、同一の被検体の同一の部位であっても、解析により得られる解析結果が、相違要因に応じて異なる結果となることがある。すなわち、相違要因が異なれば、同一の被検体の同一の心筋であっても、解析結果が異なる場合がある。
そして、仮に、画像処理装置130が、短軸断面画像データ15のみを入力データとし、教師データとして心筋の輪郭が精度良く描出された画像データを用いて学習済みモデルを生成する場合について説明する。この場合、同一の被検体の同一の心筋であっても、相違要因が異なれば、学習済みモデルによって推定される画像データにおける心筋の輪郭の位置及び形状は異なることがある。したがって、この場合、画像処理装置130は、輪郭に関する精度(例えば、輪郭の位置及び形状の精度)が良い学習済みモデルを生成することができない。
そこで、画像処理装置130は、輪郭に関する精度が良い学習済みモデルを生成するために、以下の処理を行う。例えば、学習用データセット生成機能135cは、短軸断面画像データ15に基づく短軸断面画像をディスプレイ134に表示させた上で、ユーザから心筋の位置を受け付ける。例えば、ユーザが、入力インターフェース133を介して、ディスプレイ134に表示された短軸断面画像に描出された心筋16の1点を指定した場合について説明する。この場合、学習用データセット生成機能135cは、図6に示すように、短軸断面画像データ15における心筋16の位置19を受け付ける。心筋16の位置19は、ユーザにより指定された心筋16の1点に対応する。
そして、学習用データセット生成機能135cは、短軸断面画像データ15における心筋16の位置19に対応するピクセルを特定する。そして、学習用データセット生成機能135cは、特定したピクセルの輝度値を特定する。そして、学習用データセット生成機能135cは、特定した輝度値に対応するCT値(CT画像データ11におけるCT値)を特定する。例えば、学習用データセット生成機能135cは、短軸断面画像データ15を生成した際に用いたウィンドウ条件に基づいて、特定した輝度値に対応するCT値を特定する。なお、例えば、学習用データセット生成機能135cは、特定したピクセルに対応するCT画像データ11のボクセルを特定し、特定したボクセルのCT値を特定してもよい。以下の説明では、学習用データセット生成機能135cが特定したCT値を「α」として説明する。
そして、学習用データセット生成機能135cは、ウィンドウ幅及びウィンドウレベルを含むウィンドウ条件を決定する。例えば、学習用データセット生成機能135cは、以下の式(1)により、ウィンドウ幅を決定する。
window_width=k×α (1)
ただし、式(1)において、「window_width」は、ウィンドウ幅を示す。また、式(1)において、「k」は、係数を示す。例えば、「k」は、0よりも大きく1未満の係数である。また、式(1)において、「×」は、乗算を示す演算子である。以下の式においても同様である。
そして、学習用データセット生成機能135cは、以下の式(2)により、ウィンドウレベルを決定する。
window_level=window_width/2 (2)
ただし、式(2)において、「window_level」は、ウィンドウレベルを示す。また、式(2)において、「/」は、除算を示す演算子である。以下の式においても同様である。
そして、学習用データセット生成機能135cは、上記の式(1)により決定されたウィンドウ幅が所定の第1の閾値よりも小さいか否かを判定する。学習用データセット生成機能135cは、決定されたウィンドウ幅が所定の第1の閾値以上であると判定した場合には、上記の式(2)により決定されたウィンドウレベルが所定の第2の閾値よりも小さいか否かを判定する。
そして、学習用データセット生成機能135cは、決定されたウィンドウ幅が所定の第1の閾値よりも小さいと判定した場合には、第1の閾値をウィンドウ幅とし、第2の閾値をウィンドウレベルとするウィンドウ条件を、以下の処理で用いるウィンドウ条件として決定する。同様に、学習用データセット生成機能135cは、決定されたウィンドウレベルが所定の第2の閾値よりも小さいと判定した場合にも、第1の閾値をウィンドウ幅とし、第2の閾値をウィンドウレベルとするウィンドウ条件を、以下の処理で用いるウィンドウ条件として決定する。
一方、学習用データセット生成機能135cは、決定されたウィンドウ幅が所定の第1の閾値以上であると判定し、決定されたウィンドウレベルが所定の第2の閾値以上であると判定した場合には、決定されたウィンドウ幅及び決定されたウィンドウレベルを含むウィンドウ条件を、以下の処理で用いるウィンドウ条件として決定する。
図7は、第1の実施形態に係るウィンドウ条件20の一例を示す図である。図7において、横軸は、CT画像データ11のボクセルのCT値を示し、縦軸は、輝度値を示す。図7には、学習用データセット生成機能135cが、ウィンドウ幅W及びウィンドウレベルLを含むウィンドウ条件20を決定した場合が示されている。
図7の例に示される場合では、CT値「-1000」に対応する輝度値は「0」である。また、「-1000+W」以上のCT値に対応する輝度値は「255」である。また、「-1000」よりも大きく、かつ、「-1000+W」よりも小さいCT値Vcに対応する輝度値Vbは、以下の式(3)により示される。
Vb=(255/W)×Vc (3)
図8は、第1の実施形態に係る学習用データセット生成機能135cにより実行される処理の一例を説明するための図である。学習用データセット生成機能135cは、決定されたウィンドウ条件に基づいて、CT画像データ11から、短軸断面画像データ15が示す断面と同一の断面を示す短軸断面画像データ25を生成する。
ここで、式(1)における係数kは、解析対象の部位の輪郭に対応するCT値がウィンドウ幅W内に含まれるように、実験又はシミュレーションにより求められた係数である。すなわち、係数kは、輪郭を構成するピクセル(画像データのピクセル)に設定された輝度値に対応するCT値が、ウィンドウ幅W内に含まれるように求められた係数である。
例えば、係数kは、左心室の心筋の外壁の輪郭に対応するCT値及び内壁の輪郭に対応するCT値の2つのCT値が、ウィンドウ幅W内に含まれるように求められる。これにより、図8に示すように、短軸断面画像データ25には、心筋16と内腔17との境界、及び、心筋16と背景18との境界が明瞭に描出される。すなわち、短軸断面画像データ25では、心筋16を構成するピクセルの輝度値の平均値と、内腔17を構成するピクセルの輝度値の平均値との差が所定値以上となる。また、短軸断面画像データ25では、心筋16を構成するピクセルの輝度値の平均値と、背景18を構成するピクセルの輝度値の平均値との差も所定値以上となる。このように、短軸断面画像データ25は、相違要因に関わらず、心筋16と内腔17との境界、及び、心筋16と背景18との境界が明瞭に描出された画像データである。
このように、学習用データセット生成機能135cは、短軸断面画像データ15を生成する際に用いられた上記の所定のウィンドウ条件を用いずに、新たにウィンドウ条件を決定し、新たに決定されたウィンドウ条件を用いて、短軸断面画像データ25を生成する。すなわち、学習用データセット生成機能135cは、心筋16の断面15aの位置の短軸断面画像データ15の、心筋16の輝度値に基づいてウィンドウ条件を加工した短軸断面画像データ25を生成する。
なお、係数kは、左心室の心筋の外壁の輪郭及び内壁の輪郭のうちの少なくとも一方の輪郭に対応するCT値がウィンドウ幅W内に含まれるように求められてもよい。
短軸断面画像データ15及び短軸断面画像データ25は、学習済みモデル生成機能135dにより学習済みモデルを生成する際に入力データ(入力画像)として用いられる。
また、学習用データセット生成機能135cは、学習済みモデルを生成する際に教師データとして用いられる輪郭画像データを生成する。輪郭画像データは、短軸断面画像データ15が示す断面における心筋の外壁の輪郭及び内壁の輪郭が精度良く描出された画像データである。輪郭画像データを生成する方法の一例について説明する。
例えば、学習用データセット生成機能135cは、短軸断面画像データ15に基づく短軸断面画像をディスプレイ134に表示させた上で、ユーザから、表示された輪郭16a及び輪郭16bの正確な位置及び形状を示す輪郭情報を受け付ける。具体例を挙げて説明すると、ユーザは、表示された輪郭16a,16bを確認しながら、入力インターフェース133を操作して、輪郭16a,16bの正確な位置及び形状を示す輪郭情報を、処理回路135に入力する。
学習用データセット生成機能135cは、輪郭情報を受け付けた場合には、輪郭情報に基づいて、輪郭16a,16bが、正確な位置に正確な形状で描出された輪郭画像データ26を生成する。
学習済みモデル生成機能135dは、学習時に、学習済みモデルを生成する。図9は、第1の実施形態に係る学習済みモデル生成機能135dが実行する処理の一例を説明するための図である。図9には、第1の実施形態の学習時における学習済みモデル28の生成方法の一例が示されている。図9に示すように、学習時には、学習済みモデル生成機能135dは、短軸断面画像データ15及び短軸断面画像データ25の組と、輪郭画像データ26との関係を学習することによって学習済みモデル28を生成する。
このように、学習済みモデル生成機能135dは、短軸断面画像データ15及び短軸断面画像データ25の組と、輪郭画像データ26とを対応付けて学習することによって学習済みモデル28を生成する。例えば、学習時には、画像処理装置130は、複数のCT画像データ11を受信する。そして、学習用データセット生成機能135cは、CT画像データ11毎に、短軸断面画像データ15、短軸断面画像データ25及び輪郭画像データ26の組を1つ生成する。すなわち、学習用データセット生成機能135cは、複数のCT画像データ11について複数の組を生成する。そして、学習済みモデル生成機能135dは、複数の組を用いて学習済みモデル28を生成する。
例えば、学習済みモデル生成機能135dは、短軸断面画像データ15及び短軸断面画像データ25を入力データとし、輪郭画像データ26を教師データとして機械エンジンに入力することによって、機械学習を行う。例えば、機械学習エンジンは、ディープラーニング(Deep Learning)、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bays)等の各種のアルゴリムを用いて、機械学習を行う。
学習済みモデル生成機能135dは、このような機械学習の結果として学習済みモデル28を生成する。学習済みモデル28は、短軸断面画像データ15に相当する画像データ及び短軸断面画像データ25に相当する画像データの組が入力されることで、輪郭画像データ26に相当する画像データを推定(生成)し、出力する。
そして、学習済みモデル生成機能135dは、生成した学習済みモデル28をメモリ132に記憶させる。
推定機能135eは、学習済みモデル28を用いて、運用時に、解析対象の部位の輪郭に関する精度が高い画像データを推定し、推定した画像データを出力する。図10を参照して、推定機能135eが実行する処理の一例について説明する。図10は、第1の実施形態に係る推定機能135eが実行する処理の一例について説明するための図である。図10には、第1の実施形態の運用時における輪郭画像データ32の推定方法の一例が示されている。
推定機能135eは、運用時に取得機能135bにより取得されたCT画像データ12を用いて、図10に示す短軸断面画像データ30を生成する。例えば、推定機能135eは、学習用データセット生成機能135cが学習時にCT画像データ11を用いて短軸断面画像データ15を生成した方法と同様の方法で、CT画像データ12を用いて短軸断面画像データ30を生成する。例えば、1つのCT画像データ12から1つ又は複数の短軸断面画像データ30が生成される。複数の短軸断面画像データ30が生成された場合には、複数の短軸断面画像データ30のそれぞれが、以下に説明する処理に用いられる。
短軸断面画像データ30には、例えば、短軸断面画像データ15と同様に、解析対象の部位である心筋、左心室の内腔、及び、背景が描出されている。短軸断面画像データ30は、短軸断面画像データ15に相当する画像データである。短軸断面画像データ30は、解析対象の部位である心筋16の断面15aの位置の画像データである。短軸断面画像データ30は、例えば、第1の画像データの一例である。
そして、推定機能135eは、短軸断面画像データ30を用いて、図10に示す短軸断面画像データ31を生成する。例えば、推定機能135eは、学習用データセット生成機能135cが学習時に短軸断面画像データ15を用いて短軸断面画像データ25を生成した方法と同様の方法で、短軸断面画像データ30を用いて短軸断面画像データ31を生成する。
短軸断面画像データ31では、例えば、短軸断面画像データ25と同様に、心筋を構成するピクセルの輝度値の平均値と、心筋以外の部分を構成するピクセルの輝度値の平均値との差が所定値以上となる。短軸断面画像データ31は、短軸断面画像データ25に相当する画像データである。短軸断面画像データ31は、心筋16の断面15aの位置の短軸断面画像データ30の、心筋16の輝度値に基づいてウィンドウ条件を加工した短軸断面画像データである。短軸断面画像データ31は、例えば、第2の画像データの一例である。
そして、図10に示すように、推定機能135eは、短軸断面画像データ30及び短軸断面画像データ31を学習済みモデル28に入力することで、学習済みモデル28に輪郭画像データ32を推定させて出力させる。すなわち、推定機能135eは、学習済みモデル28を使用して、短軸断面画像データ30及び短軸断面画像データ31を基に、輪郭画像データ32を推定し出力する。例えば、推定機能135eは、輪郭画像データ32を解析機能135fに出力する。輪郭画像データ32は、輪郭画像データ26に相当する画像データである。輪郭画像データ32は、例えば、心筋16の輪郭16a及び輪郭16bを示す情報の一例である。推定機能135eは、出力部の一例である。
ここで、短軸断面画像データ31は、相違要因に関わらず、心筋と心筋以外の部分との境界が明瞭に描出された画像データである。また、輪郭画像データ32における心筋の輪郭に関する精度は、短軸断面画像データ30における心筋の輪郭に関する精度よりも高い。
したがって、第1の実施形態に係る学習済みモデル28は、相違要因に関わらず、解析対象の部位である心筋の輪郭が精度良く描出された輪郭画像データ32を推定し出力することができる。すなわち、第1の実施形態によれば、相違要因に関わらず、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
解析機能135fは、学習済みモデルから出力された画像データを用いて、様々な解析を行う。例えば、解析機能135fは、輪郭画像データ32に描出された解析対象の心筋の輪郭を用いて解析を行う。かかる解析の一例としては、複数の時相の輪郭画像データ32に基づいて実行される心筋パフュージョンが挙げられる。
出力機能135gは、各種の画像データに基づく画像や、解析機能135fによる解析により得られた解析結果等をディスプレイ134に表示させる。
図11は、第1の実施形態に係る画像処理装置130が学習時に実行する処理の流れの一例を示すフローチャートである。図11に示す処理は、例えば、ユーザが入力インターフェース133を介して学習済みモデル28を生成する処理を実行するための指示を処理回路135に入力した場合に実行される。
図11に示すように、取得機能135bは、メモリ132に記憶されたCT画像データ11を取得する(ステップS101)。そして、学習用データセット生成機能135cは、CT画像データ11に基づいて短軸断面画像データ15を生成する(ステップS102)。
そして、学習用データセット生成機能135cは、短軸断面画像データ15に基づく短軸断面画像をディスプレイ134に表示させる(ステップS103)。そして、学習用データセット生成機能135cは、ユーザから心筋16の位置19を受け付けたか否かを判定する(ステップS104)。学習用データセット生成機能135cは、心筋16の位置19を受け付けていないと判定した場合(ステップS104:No)には、再び、ステップS104の判定を行う。
学習用データセット生成機能135cは、心筋16の位置19を受け付けたと判定した場合(ステップS104:Yes)には、短軸断面画像データ15における心筋16の位置19のピクセルの輝度値を特定する(ステップS105)。そして、学習用データセット生成機能135cは、特定した輝度値に対応するCT画像データ11におけるCT値「α」を特定する(ステップS106)。
そして、学習用データセット生成機能135cは、上記の式(1)及び式(2)並びに第1の閾値及び第2の閾値を用いて、ウィンドウ幅W及びウィンドウレベルLを含むウィンドウ条件を決定する(ステップS107)。
そして、学習用データセット生成機能135cは、決定されたウィンドウ条件に基づいて、CT画像データ11から、短軸断面画像データ15が示す断面と同一の断面を示す短軸断面画像データ25を生成する(ステップS108)。
そして、学習用データセット生成機能135cは、ユーザから、輪郭情報を受け付けたか否かを判定する(ステップS109)。学習用データセット生成機能135cは、輪郭情報を受け付けていないと判定した場合(ステップS109:No)には、再び、ステップS109の判定を行う。
学習用データセット生成機能135cは、輪郭情報を受け付けたと判定した場合(ステップS109:Yes)には、輪郭情報に基づいて、輪郭16a,16bが、正確な位置に正確な形状で描出された輪郭画像データ26を生成する(ステップS110)。
そして、学習済みモデル生成機能135dは、短軸断面画像データ15及び短軸断面画像データ25の組と、輪郭画像データ26とを対応付けて学習することによって学習済みモデル28を生成する(ステップS111)。そして、学習済みモデル生成機能135dは、生成した学習済みモデル28をメモリ132に記憶させ(ステップS112)、処理を終了する。
図12は、第1の実施形態に係る画像処理装置130が運用時に実行する処理の流れの一例を示すフローチャートである。図12に示す処理は、例えば、ユーザが入力インターフェース133を介して、解析機能135fによる解析を実行するための指示を処理回路135に入力した場合に実行される。
図12に示すように、取得機能135bは、メモリ132に記憶されたCT画像データ12を取得する(ステップS201)。そして、推定機能135eは、CT画像データ12を用いて短軸断面画像データ30を生成する(ステップS202)。
そして、推定機能135eは、短軸断面画像データ30を用いて短軸断面画像データ31を生成する(ステップS203)。
そして、推定機能135eは、学習済みモデル28を用いて、短軸断面画像データ30及び短軸断面画像データ31を基に、輪郭画像データ32を推定し出力する(ステップS204)。
そして、解析機能135fは、輪郭画像データ32に描出された解析対象の心筋の輪郭を用いて解析を行う(ステップS205)。そして、出力機能135gは、解析結果をディスプレイ134に表示させ(ステップS206)、処理を終了する。
以上、第1の実施形態について説明した。第1の実施形態によれば、上述したように、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
(第1の実施形態の変形例1)
なお、第1の実施形態では、学習済みモデル生成機能135dが学習済みモデル28を生成する場合について説明した。しかしながら、学習済みモデル生成機能135dは、学習済みモデル28に代えて、他の学習済みモデルを生成してもよい。そこで、このような変形例を第1の実施形態の変形例1として説明する。以下の変形例1の説明では、第1の実施形態と異なる点を主に説明し、第1の実施形態と同様の点については説明を省略する場合がある。また、第1の実施形態と同様の構成については、同一の符号を付し、説明を省略する場合がある。
図13は、第1の実施形態の変形例1に係る学習済みモデル生成機能135dが実行する処理の一例を説明するための図である。図13には、変形例1の学習時における学習済みモデル28aの生成方法の一例が示されている。図13に示すように、学習時には、学習済みモデル生成機能135dは、短軸断面画像データ25と、輪郭画像データ26との関係を学習することによって学習済みモデル28aを生成する。
このように、学習済みモデル生成機能135dは、短軸断面画像データ25と、輪郭画像データ26とを対応付けて学習することによって学習済みモデル28aを生成する。例えば、学習時には、学習用データセット生成機能135cは、短軸断面画像データ25及び輪郭画像データ26の組を複数生成する。そして、学習済みモデル生成機能135dは、生成した複数の組を用いて学習済みモデル28aを生成する。
例えば、学習済みモデル生成機能135dは、短軸断面画像データ25を入力データとし、輪郭画像データ26を教師データとして機械エンジンに入力することによって、機械学習を行う。学習済みモデル生成機能135dは、このような機械学習の結果として学習済みモデル28aを生成する。
学習済みモデル28aは、短軸断面画像データ25に相当する画像データが入力されることで、輪郭画像データ26に相当する画像データを推定(生成)し、出力する。
そして、学習済みモデル生成機能135dは、生成した学習済みモデル28aをメモリ132に記憶させる。
変形例1に係る推定機能135eは、運用時に、学習済みモデル28aを用いて、解析対象の部位の輪郭に関する精度が高い画像データを推定し、推定した画像データを出力する。図14を参照して、推定機能135eが実行する処理の一例について説明する。図14は、第1の実施形態の変形例1に係る推定機能135eが実行する処理の一例について説明するための図である。図14には、変形例1の運用時における輪郭画像データ32aの推定方法の一例が示されている。
推定機能135eは、運用時に取得機能135bにより取得されたCT画像データ12を用いて、第1の実施形態と同様に、短軸断面画像データ30(図10参照)を生成する。そして、推定機能135eは、短軸断面画像データ30を用いて、第1の実施形態と同様に、短軸断面画像データ31を生成する。短軸断面画像データ31は、短軸断面画像データ25に相当する画像データである。
そして、図14に示すように、推定機能135eは、短軸断面画像データ31を学習済みモデル28aに入力することで、学習済みモデル28aに輪郭画像データ32aを推定させて出力させる。すなわち、推定機能135eは、学習済みモデル28aを使用して、短軸断面画像データ31を基に、輪郭画像データ32aを推定し出力する。輪郭画像データ32aは、輪郭画像データ26に相当する画像データである。輪郭画像データ32aは、例えば、心筋16の輪郭16a及び輪郭16bを示す情報の一例である。
ここで、短軸断面画像データ31は、相違要因に関わらず、心筋と心筋以外の部分との境界が明瞭に描出された画像データである。また、輪郭画像データ32aにおける心筋の輪郭に関する精度は、短軸断面画像データ31における心筋の輪郭に関する精度よりも高い。
したがって、変形例1に係る学習済みモデル28aは、相違要因に関わらず、解析対象の部位である心筋の輪郭が精度良く描出された輪郭画像データ32aを推定し出力することができる。すなわち、変形例1によれば、相違要因に関わらず、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
以上、変形例1について説明した。変形例1によれば、上述したように、第1の実施形態と同様に、相違要因に関わらず、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
また、上述した第1の実施形態では、学習済みモデル28を生成する際に入力データとして短軸断面画像データ15及び短軸断面画像データ25が用いられる。これに対して、変形例1では、学習済みモデル28aを生成する際に入力データとして短軸断面画像データ25が用いられる。したがって、変形例1の方が、第1の実施形態よりも、学習済みモデルを生成する際に入力データとして用いられる画像データの数及びデータ量が少ない。したがって、変形例1によれば、学習済みモデルを生成する際の機械学習の収束を早めることができる。
また、短軸断面画像データ15が、何らかの原因で画像処理装置130から削除されてしまう場合が考えられる。しかしながら、変形例1によれば、このような場合であっても、短軸断面画像データ25が画像処理装置130に保存(保持、記憶)されていれば、学習済みモデル28aを生成することができる。
同様に、短軸断面画像データ30が、何らかの原因で画像処理装置130から削除されてしまう場合が考えられる。変形例1によれば、このような場合であっても、短軸断面画像データ31が画像処理装置130に保存されていれば、輪郭画像データ32aを推定し、出力することができる。
(第1の実施形態の変形例2)
第1の実施形態では、画像処理装置130が、心筋16の輪郭16a,16bが明瞭に描出された短軸断面画像データ25を用いて、学習済みモデル28を生成する場合について説明した。しかしながら、画像処理装置130は、短軸断面画像データ25に代えて、他の画像データを用いて、学習済みモデルを生成してもよい。そこで、このような変形例を第1の実施形態の変形例2として説明する。以下の変形例2の説明では、第1の実施形態と異なる点を主に説明し、第1の実施形態と同様の点については説明を省略する場合がある。また、第1の実施形態と同様の構成については、同一の符号を付し、説明を省略する場合がある。
図15は、第1の実施形態の変形例2に係る画像処理装置130が実行する処理の一例を説明するための図である。図15には、変形例2の学習時における学習済みモデル28bの生成方法の一例が示されている。変形例2に係る学習用データセット生成機能135cは、図15に示すカラー画像データ35を生成する。カラー画像データ35を構成する複数のピクセルのそれぞれには、RGB値が設定されている。
R(R値)は赤色に対応し、G(G値)は緑色に対応し、B(B値)は青色に対応する。例えば、各ピクセルに設定されるRGB値は、「(R,G,B)」で表される。R、G、Bのそれぞれは、例えば、「0」以上「255」以下の範囲内の値である。
カラー画像データ35のピクセルに設定されるGの決定方法の一例について説明する。図16は、第1の実施形態の変形例2に係る画像処理装置130が実行する処理の一例を説明するための図である。例えば、学習用データセット生成機能135cは、短軸断面画像データ15に基づく短軸断面画像をディスプレイ134に表示させた上で、図16に示すように、ユーザから心筋16の位置40を受け付ける。更に、学習用データセット生成機能135cは、ユーザから内腔17の位置41及び背景18の位置42を受け付ける。
例えば、ユーザが、入力インターフェース133を介して、短軸断面画像に描出された心筋16の1点、内腔17の1点及び背景18の1点を指定した場合について説明する。この場合、学習用データセット生成機能135cは、図16に示すように、短軸断面画像データ15における心筋16の位置40、内腔17の位置41及び背景18の位置42を受け付ける。心筋16の位置40は、指定された心筋16の1点に対応する。内腔17の位置41は、指定された内腔17の1点に対応する。背景18の位置42は、指定された背景18の1点に対応する。
そして、学習用データセット生成機能135cは、短軸断面画像データ15における心筋16の位置40に対応するピクセルを特定する。そして、学習用データセット生成機能135cは、特定したピクセルの輝度値を特定する。そして、学習用データセット生成機能135cは、特定した輝度値に対応するCT値(CT画像データ11におけるCT値)を特定する。例えば、学習用データセット生成機能135cは、短軸断面画像データ15を生成した際に用いたウィンドウ条件に基づいて、特定した輝度値に対応するCT値を特定する。なお、例えば、学習用データセット生成機能135cは、特定したピクセルに対応するCT画像データ11のボクセルを特定し、特定したボクセルのCT値を特定してもよい。このようにして、学習用データセット生成機能135cは、心筋16の位置40に対応するCT値を特定する。以下の説明では、心筋16の位置40に対応するCT値を「β」として説明する。
また、学習用データセット生成機能135cは、心筋16の位置40に対応するCT値「β」を特定した方法と同様の方法で、内腔17の位置41に対応するCT値、及び、背景18の位置42に対応するCT値を特定する。以下の説明では、内腔17の位置41に対応するCT値を「γ」として説明し、背景18の位置42に対応するCT値を「δ」として説明する。
そして、学習用データセット生成機能135cは、カラー画像データ35のピクセルに設定されるGを決定するために、次のようなウィンドウ条件を決定する。例えば、学習用データセット生成機能135cは、CT値「β」を含む所定範囲のCT値に輝度値「255」が対応し、CT値「γ」を含む所定範囲のCT値に輝度値「0」が対応し、CT値「δ」を含む所定範囲のCT値に輝度値「0」が対応するウィンドウ条件を決定する。
図17は、第1の実施形態の変形例2に係る学習用データセット生成機能135cが実行する処理の一例を説明するための図である。例えば、学習用データセット生成機能135cは、カラー画像データ35のピクセルに設定されるGを決定するために、図17に示すウィンドウ条件20aを決定する。図17において、横軸は、CT画像データ11のボクセルのCT値を示し、縦軸は、G値を示す。
ウィンドウ条件20aは、折れ線45により示される。折れ線45は、線分45a、線分45b、線分45c、線分45d及び線分45eにより構成される。なお、図17において、横軸と線分45b,45cが重なっているが、線分45bの一端から他端までの範囲は、符号「45b_1」が示す範囲である。また、線分45cの一端から他端までの範囲は、符号「45c_1」が示す範囲である。
線分45aは、CT値「β」を含む所定範囲のCT値にG値「255」が対応することを示す。また、線分45bは、CT値「γ」を含む所定範囲のCT値にG値「0」が対応することを示す。また、線分45cは、CT値「δ」を含む所定範囲のCT値にG値「0」が対応することを示す。
また、線分45dは、線分45aの両端のうちCT値が大きい側の端と、線分45bの両端のうちCT値が小さい側の端とを結ぶ線分である。線分45dは、線分45dに対応するCT値の範囲内では、CT値が増加するとG値が減少するというCT値とG値との関係を示す。
また、線分45eは、線分45aの両端のうちCT値が小さい側の端と、線分45cの両端のうちCT値が大きい側の端とを結ぶ線分である。線分45eは、線分45eに対応するCT値の範囲内では、CT値が増加するとG値も増加するというCT値とG値との関係を示す。
図18は、第1の実施形態の変形例2に係る学習用データセット生成機能135cが実行する処理の一例を説明するための図である。図18に示すように、学習用データセット生成機能135cは、ウィンドウ条件20aに基づいて、CT画像データ11から、短軸断面画像データ15が示す断面と同一の断面を示すカラー画像データ46を生成する。カラー画像データ46を構成する複数のピクセル46aのそれぞれには、RGB値が設定される。
ただし、図18に示すように、カラー画像データ46の各ピクセル46aに設定されるR値及びB値は「0」である。また、カラー画像データ46の各ピクセル46aに設定されるG値は、ウィンドウ条件20aに基づく値である。すなわち、図18に示すように、各ピクセル46aに設定されるRGB値は、(0,G,0)で表される。
ここで、ウィンドウ条件20aに基づいて生成されたカラー画像データ46では、心筋16に対応するピクセル46aにG値「255」が設定され、内腔17及び背景18に対応するピクセル46aにG値「0」が設定される。このため、カラー画像データ46は、心筋16の特徴を示す画像データであるといえる。より具体的には、カラー画像データ46の各ピクセル46aに設定されるG値が、心筋16の特徴を示すといえる。
次に、カラー画像データ35のピクセルに設定されるRの決定方法の一例について説明する。学習用データセット生成機能135cは、心筋16の位置40を用いてカラー画像データ35の各ピクセルに設定されるG値を決定した方法と同様の方法で、内腔17の位置41を用いてカラー画像データ35の各ピクセルに設定されるR値を決定する。例えば、学習用データセット生成機能135cは、心筋16の位置40を用いてCT値とG値との関係を示すウィンドウ条件20aを決定する方法と同様の方法で、内腔17の位置41を用いて、CT値とR値との関係を示すウィンドウ条件を決定する。
図19は、第1の実施形態の変形例2に係る学習用データセット生成機能135cが実行する処理の一例を説明するための図である。学習用データセット生成機能135cは、CT値とG値との関係を示すウィンドウ条件20aに基づいてカラー画像データ46を生成する方法と同様の方法で、CT値とR値との関係を示すウィンドウ条件に基づいて、図19に示すカラー画像データ47を生成する。
カラー画像データ47を構成する複数のピクセル47aのそれぞれには、RGB値が設定される。ただし、図19に示すように、カラー画像データ47の各ピクセル47aに設定されるG値及びB値は「0」である。また、カラー画像データ47の各ピクセル47aに設定されるR値は、CT値とR値との関係を示すウィンドウ条件に基づく値である。すなわち、図19に示すように、各ピクセル47aに設定されるRGB値は、(R,0,0)で表される。
ここで、CT値とR値との関係を示すウィンドウ条件に基づいて生成されたカラー画像データ47では、内腔17に対応するピクセル47aにR値「255」が設定され、心筋16及び背景18に対応するピクセル47aにR値「0」が設定される。このため、カラー画像データ47は、内腔17の特徴を示す画像データであるといえる。より具体的には、カラー画像データ47の各ピクセル47aに設定されるR値が、内腔17の特徴を示すといえる。
次に、カラー画像データ35のピクセルに設定されるBの決定方法の一例について説明する。学習用データセット生成機能135cは、心筋16の位置40を用いてカラー画像データ35の各ピクセルに設定されるG値を決定した方法と同様の方法で、背景18の位置42を用いてカラー画像データ35の各ピクセルに設定されるB値を決定する。例えば、学習用データセット生成機能135cは、心筋16の位置40を用いてCT値とG値との関係を示すウィンドウ条件20aを決定する方法と同様の方法で、背景18の位置42を用いて、CT値とB値との関係を示すウィンドウ条件を決定する。
図20は、第1の実施形態の変形例2に係る学習用データセット生成機能135cが実行する処理の一例を説明するための図である。学習用データセット生成機能135cは、CT値とG値との関係を示すウィンドウ条件20aに基づいてカラー画像データ46を生成する方法と同様の方法で、CT値とB値との関係を示すウィンドウ条件に基づいて、図20に示すカラー画像データ48を生成する。
カラー画像データ48を構成する複数のピクセル48aのそれぞれには、RGB値が設定される。ただし、図20に示すように、カラー画像データ48の各ピクセル48aに設定されるR値及びG値は「0」である。また、カラー画像データ48の各ピクセル48aに設定されるB値は、CT値とB値との関係を示すウィンドウ条件に基づく値である。すなわち、図20に示すように、各ピクセル48aに設定されるRGB値は、(0,0,B)で表される。
ここで、CT値とB値との関係を示すウィンドウ条件に基づいて生成されたカラー画像データ48では、背景18に対応するピクセル48aにB値「255」が設定され、心筋16及び内腔17に対応するピクセル48aにB値「0」が設定される。このため、カラー画像データ48は、背景18の特徴を示す画像データであるといえる。より具体的には、カラー画像データ48の各ピクセル48aに設定されるB値が、背景18の特徴を示すといえる。
そして、学習用データセット生成機能135cは、カラー画像データ46と、カラー画像データ47と、カラー画像データ48とを合成することにより、カラー画像データ35を生成する。これにより、カラー画像データ46の各ピクセル46aに設定されたG値が、カラー画像データ35の対応する各ピクセルに設定される。また、カラー画像データ47の各ピクセル47aに設定されたR値が、カラー画像データ35の対応する各ピクセルに設定される。また、カラー画像データ48の各ピクセル48aに設定されたB値が、カラー画像データ35の対応する各ピクセルに設定される。
したがって、カラー画像データ35は、心筋16の特徴、内腔17の特徴及び背景18の特徴を示す画像データであるといえる。
図15の説明に戻り、学習時には、学習済みモデル生成機能135dは、短軸断面画像データ15とカラー画像データ35との組と、輪郭画像データ26との関係を学習することによって学習済みモデル28bを生成する。
このように、学習済みモデル生成機能135dは、短軸断面画像データ15とカラー画像データ35と輪郭画像データ26とを対応付けて学習することによって学習済みモデル28bを生成する。例えば、学習時には、学習用データセット生成機能135cは、短軸断面画像データ15、カラー画像データ35及び輪郭画像データ26の組を複数生成する。そして、学習済みモデル生成機能135dは、生成した複数の組を用いて学習済みモデル28bを生成する。
例えば、学習済みモデル生成機能135dは、短軸断面画像データ15及びカラー画像データ35を入力データとし、輪郭画像データ26を教師データとして機械エンジンに入力することによって、機械学習を行う。学習済みモデル生成機能135dは、このような機械学習の結果として学習済みモデル28bを生成する。
このように、学習済みモデル生成機能135dは、心筋16の特徴、内腔17の特徴及び背景18の特徴を示すカラー画像データ35を用いて学習済みモデル28bを生成する。このため、学習済みモデル生成機能135dは、より精度良く、心筋16と内腔17とを判別するとともに、心筋16と背景18とを判別することが可能な学習済みモデル28bを生成することができる。
学習済みモデル28bは、短軸断面画像データ15に相当する画像データ、及び、カラー画像データ35に相当する画像データが入力されることで、輪郭画像データ26に相当する画像データを推定(生成)し、出力する。
そして、学習済みモデル生成機能135dは、生成した学習済みモデル28bをメモリ132に記憶させる。
変形例2に係る推定機能135eは、運用時に、学習済みモデル28bを用いて、解析対象の部位の輪郭に関する精度が高い画像データを推定し、推定した画像データを出力する。図21を参照して、推定機能135eが実行する処理の一例について説明する。図21は、第1の実施形態の変形例2に係る推定機能135eが実行する処理の一例について説明するための図である。図21には、変形例2の運用時における輪郭画像データ50の推定方法の一例が示されている。
推定機能135eは、運用時に取得機能135bにより取得されたCT画像データ12を用いて、第1の実施形態と同様に、短軸断面画像データ30(図10参照)を生成する。そして、推定機能135eは、学習用データセット生成機能135cが短軸断面画像データ15を用いてカラー画像データ35を生成した方法と同様の方法で、短軸断面画像データ30を用いてカラー画像データ49を生成する。カラー画像データ49は、カラー画像データ35に相当する画像データである。
そして、図21に示すように、推定機能135eは、短軸断面画像データ30及びカラー画像データ49を学習済みモデル28bに入力することで、学習済みモデル28bに輪郭画像データ50を推定させて出力させる。すなわち、推定機能135eは、学習済みモデル28bを用いて、短軸断面画像データ30及びカラー画像データ49を基に、輪郭画像データ50を推定し出力する。輪郭画像データ50は、輪郭画像データ26に相当する画像データである。輪郭画像データ50は、例えば、心筋16の輪郭16a及び輪郭16bを示す情報の一例である。
ここで、推定機能135eは、心筋の特徴、内腔の特徴及び背景の特徴を示すカラー画像データ49を学習済みモデル28bに入力する。このため、推定機能135eは、より精度良く、心筋と内腔とが判別されるとともに、心筋と背景とが判別された輪郭画像データ50を出力することができる。したがって、変形例2によれば、精度の良い心筋の輪郭を示す情報を得ることができる。
以上、変形例2について説明した。変形例2によれば、上述したように、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
なお、変形例2において、学習用データセット生成機能135cは、短軸断面画像データ15を生成した際に用いたウィンドウ条件に基づいて、心筋16に対応するCT値「β」、内腔17に対応するCT値「γ」及び背景18に対応するCT値「δ」を特定する場合について説明した。また、学習用データセット生成機能135cは、特定したピクセルに対応するCT画像データ11のボクセルを特定し、特定したボクセルのCT値「β」、「γ」及び「δ」を特定する場合について説明した。しかしながら、学習用データセット生成機能135cは、他の方法によっても、心筋16に対応するCT値、内腔17に対応するCT値及び背景18に対応するCT値を特定してもよい。そこで、以下、学習用データセット生成機能135cが、他の方法により、心筋16に対応するCT値、内腔17に対応するCT値及び背景18に対応するCT値を特定する処理の一例について説明する。
図22は、第1の実施形態の変形例2に係るデータベース51のデータ構造の一例を示す図である。図22に示すデータベース51は、メモリ132に記憶されている。データベース51には、複数のレコードが登録されている。各レコードは、「対象」の項目及び「CT値」の項目を有する。
「対象」の項目には、画像処理装置130がCT値を得ようとする対象の識別子(ID(Identification))が登録されている。例えば、図22に示すように、「対象」の項目には、このような対象として、心筋16を示す識別子「ID1」、内腔17を示す識別子「ID2」及び背景18を示す識別子「ID3」が登録されている。
「CT値」の項目には、「対象」の項目に登録されている識別子が示す対象の一般的なCT値が登録されている。例えば、図22に示すように、「CT値」の項目には、心筋16のCT値「AA」、内腔17のCT値「BB」及び背景18のCT値「CC」が登録されている。
変形例2に係る学習用データセット生成機能135cは、データベース51を用いて、心筋16に対応するCT値、内腔17に対応するCT値及び背景18に対応するCT値を特定する。具体的には、例えば、学習用データセット生成機能135cは、データベース51に登録されている全レコードの中から、心筋16を示す識別子「ID1」が「対象」の項目に登録されているレコードを検索する。
そして、学習用データセット生成機能135cは、検索の結果得られたレコードの「CT値」の項目に登録されたCT値「AA」を取得する。このようにして、学習用データセット生成機能135cは、心筋16に対応するCT値「AA」を特定する。学習用データセット生成機能135cは、同様の方法により、内腔17に対応するCT値「BB」及び背景18に対応するCT値「CC」を特定する。
上述したような方法によれば、ユーザが心筋16の位置、内腔17の位置及び背景18の位置を指定することなく、心筋16に対応するCT値、内腔17に対応するCT値及び背景18に対応するCT値が特定される。したがって、ユーザが煩雑な手動操作を行うことなく、心筋16に対応するCT値、内腔17に対応するCT値及び背景18に対応するCT値を特定することができる。なお、第1の実施形態及び変形例1においても、学習用データセット生成機能135cは、同様の方法により、心筋16に対応するCT値「AA」を特定してもよい。
(第1の実施形態の変形例3)
なお、第1の実施形態及び変形例1では、画像処理装置130が、短軸断面画像データ25を用いて学習済みモデル28,28aを生成した。しかしながら、画像処理装置130が、短軸断面画像データ25に代えて、複数の時相の短軸断面画像データ25の加算平均画像データを用いて学習済みモデルを生成してもよい。そこで、このような変形例を第1の実施形態の変形例3として説明する。以下の変形例3の説明では、第1の実施形態及び変形例1と異なる点を主に説明し、第1の実施形態及び変形例1と同様の点については説明を省略する場合がある。また、第1の実施形態及び変形例1と同様の構成については、同一の符号を付し、説明を省略する場合がある。
図23は、第1の実施形態の変形例3に係る学習用データセット生成機能135cが実行する処理の一例を説明するための図である。図23には、複数の時相の短軸断面画像データ25が示されている。例えば、図23において、一番左側に示された短軸断面画像データ25は、時相t1の画像データである。また、図23において、中央に示された短軸断面画像データ25は、時相t2の画像データである。また、図23において、一番右側に示された短軸断面画像データ25は、時相t3の画像データである。時相t1と、時相t2と、時相t3は、異なる時相である。
そして、学習用データセット生成機能135cは、複数の時相の短軸断面画像データ25に対して加算平均処理を実行することにより、複数の時相の短軸断面画像データ25の加算平均画像データ52を生成する。
そして、学習済みモデル生成機能135dは、短軸断面画像データ25に代えて加算平均画像データ52を用いて学習済みモデルを生成する。例えば、学習済みモデル生成機能135dは、第1の実施形態において短軸断面画像データ25を用いて学習済みモデル28を生成した方法と同様の方法で、加算平均画像データ52を用いて学習済みモデルを生成する。
又は、学習済みモデル生成機能135dは、変形例1において短軸断面画像データ25を用いて学習済みモデル28aを生成した方法と同様の方法で、加算平均画像データ52を用いて学習済みモデルを生成する。そして、変形例3に係る処理回路135は、運用時に変形例3において生成された学習済みモデルを用いて、第1の実施形態において学習済みモデル28を用いて行われた運用時の処理と同様の処理を行う。
以上、変形例3について説明した。変形例3によれば、複数の時相の情報に基づいて学習済みモデルが生成されるので、更に精度の良い輪郭を出力することが可能な学習済みモデルを生成することができる。
(第2の実施形態)
次に、第2の実施形態に係る画像処理装置について説明する。以下の第2の実施形態の説明では、第1の実施形態と異なる点を主に説明し、第1の実施形態と同様の点については説明を省略する場合がある。また、第1の実施形態と同様の構成については、同一の符号を付し、説明を省略する場合がある。
図24は、第2の実施形態に係る医用処理システム1aの構成の一例を示す図である。図24に示す医用処理システム1aは、画像処理装置130に代えて画像処理装置130aを備える点が、図1に示す医用処理システム1と異なる。図24に示す画像処理装置130aは、処理回路135に代えて処理回路235を備える点が、図1に示す画像処理装置130と異なる。処理回路235は、例えば、プロセッサにより実現される。処理回路235は、学習用データセット生成機能135c、学習済みモデル生成機能135d及び推定機能135eに代えて、学習用データセット生成機能235c、学習済みモデル生成機能235d及び推定機能235eを備える点が、図1に示す処理回路135と異なる。
以下、学習用データセット生成機能235c、学習済みモデル生成機能235d及び推定機能235eが実行する処理のうち、学習用データセット生成機能135c、学習済みモデル生成機能135d及び推定機能135eが実行する処理と異なる点を主に説明する。図25は、第2の実施形態に係る学習用データセット生成機能235cが運用時に実行する処理の一例を説明するための図である。
図25に示すように、学習用データセット生成機能235cは、CT画像データ11に描出された左心室14の長軸14aを検出する。そして、学習用データセット生成機能235cは、第1の実施形態と同様に、CT画像データ11に基づいて断面15aを示す短軸断面画像データ15を生成する。
また、学習用データセット生成機能235cは、長軸14aに沿って断面15aから心臓の心基部に向かう方向に、断面15aから所定距離離れた断面15bを特定する。また、学習用データセット生成機能235cは、長軸14aに沿って断面15aから左心室の心尖に向かう方向に、断面15aから所定距離離れた断面15cを特定する。断面15b及び断面15cは、断面15aと同様に、長軸14aに直交する断面である。また、断面15a、断面15b及び断面15cのそれぞれは、異なる位置の断面である。
そして、学習用データセット生成機能235cは、CT画像データ11に基づいて断面15bを示す短軸断面画像データ55を生成する。CT画像データ11に基づいて断面15cを示す短軸断面画像データ56を生成する。
短軸断面画像データ55,56には、短軸断面画像データ15と同様に、解析対象の部位である心筋16と、左心室の内腔17と、背景18とが描出されている。また、短軸断面画像データ55,56には、短軸断面画像データ15と同様に、心筋16の外壁の輪郭16a、及び、心筋16の内壁の輪郭16bが描出されている。
第2の実施形態では、短軸断面画像データ15、短軸断面画像データ55及び短軸断面画像データ56は、学習済みモデルを生成する際に、入力データとして用いられる。
学習済みモデル生成機能235dは、学習時に、学習済みモデルを生成する。図26は、第2の実施形態に係る学習済みモデル生成機能235dが実行する処理の一例を説明するための図である。図26には、第2の実施形態の学習時における学習済みモデル58の生成方法の一例が示されている。図26に示すように、学習時には、学習済みモデル生成機能235dは、短軸断面画像データ15、短軸断面画像データ55及び短軸断面画像データ56の組と、輪郭画像データ26との関係を学習することによって学習済みモデル58を生成する。
このように、学習済みモデル生成機能235dは、短軸断面画像データ15、短軸断面画像データ55及び短軸断面画像データ56の組と、輪郭画像データ26とを対応付けて学習することによって学習済みモデル58を生成する。例えば、学習時には、学習用データセット生成機能235cは、短軸断面画像データ15、短軸断面画像データ55、短軸断面画像データ56及び輪郭画像データ26の組を複数生成する。そして、学習済みモデル生成機能235dは、生成した複数の組を用いて学習済みモデル58を生成する。
例えば、学習済みモデル生成機能235dは、短軸断面画像データ15、短軸断面画像データ55及び短軸断面画像データ56を入力データとし、輪郭画像データ26を教師データとして機械エンジンに入力することによって、機械学習を行う。
学習済みモデル生成機能235dは、このような機械学習の結果として学習済みモデル58を生成する。学習済みモデル58は、短軸断面画像データ15に相当する画像データ、短軸断面画像データ55に相当する画像データ及び短軸断面画像データ56に相当する画像データの組が入力されることで、輪郭画像データ26に相当する画像データを推定(生成)し、出力する。
そして、学習済みモデル生成機能235dは、生成した学習済みモデル58をメモリ132に記憶させる。
ここで、解析対象の部位(例えば、心筋)は、2次元の構造ではなく3次元の構造である。第2の実施形態では、学習済みモデル生成機能235dは、短軸断面画像データ15が示す断面15aに関する2次元的な情報ではなく、断面15a、断面15b及び断面15cの3つの断面の解析対象の部位に関する3次元的な情報を用いて機械学習を行う。そのため、第2の実施形態によれば、2次元的な情報を用いて機械学習を行う場合と比較して、学習精度及び学習の収束速度を向上させることができる。
推定機能235eは、学習済みモデル58を用いて、運用時に、解析対象の部位の輪郭に関する精度が高い画像データを推定し、推定した画像データを出力する。図27を参照して、推定機能235eが実行する処理の一例について説明する。図27は、第2の実施形態に係る推定機能235eが実行する処理の一例について説明するための図である。図27には、第2の実施形態の運用時における輪郭画像データ62の推定方法の一例が示されている。
推定機能235eは、運用時に取得機能135bにより取得されたCT画像データ12を用いて、図27に示す短軸断面画像データ30を生成する。例えば、推定機能235eは、学習用データセット生成機能235cが学習時にCT画像データ11を用いて短軸断面画像データ15を生成した方法と同様の方法で、CT画像データ12を用いて短軸断面画像データ30を生成する。
また、推定機能235eは、CT画像データ12を用いて、図27に示す短軸断面画像データ60を生成する。例えば、推定機能235eは、学習用データセット生成機能235cが学習時にCT画像データ11を用いて短軸断面画像データ55を生成した方法と同様の方法で、CT画像データ12を用いて短軸断面画像データ60を生成する。
また、推定機能235eは、CT画像データ12を用いて、図27に示す短軸断面画像データ61を生成する。例えば、推定機能235eは、学習用データセット生成機能235cが学習時にCT画像データ11を用いて短軸断面画像データ56を生成した方法と同様の方法で、CT画像データ12を用いて短軸断面画像データ61を生成する。
短軸断面画像データ60,61は、例えば、短軸断面画像データ15と同様に、解析対象の部位である心筋、左心室の内腔、及び、背景が描出されている。短軸断面画像データ30は、短軸断面画像データ15に相当する画像データである。短軸断面画像データ60は、短軸断面画像データ55に相当する画像データである。短軸断面画像データ61は、短軸断面画像データ56に相当する画像データである。短軸断面画像データ30、短軸断面画像データ60及び短軸断面画像データ61は、第1の画像データの一例である。
そして、図27に示すように、推定機能235eは、短軸断面画像データ30、短軸断面画像データ60及び短軸断面画像データ61を学習済みモデル58に入力することで、学習済みモデル58に輪郭画像データ62を推定させて出力させる。すなわち、推定機能235eは、学習済みモデル58を用いて、短軸断面画像データ30、短軸断面画像データ60及び短軸断面画像データ61を基に、輪郭画像データ62を推定し出力する。例えば、推定機能235eは、輪郭画像データ62を解析機能135fに出力する。輪郭画像データ62は、輪郭画像データ26に相当する画像データである。推定機能235eは、出力部の一例である。輪郭画像データ62は、例えば、心筋16の輪郭16a及び輪郭16bを示す情報の一例である。
第2の実施形態に係る学習済みモデル58は、解析対象の部位である心筋の輪郭が精度良く描出された輪郭画像データ62を推定し出力することができる。すなわち、第2の実施形態によれば、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
図28は、第2の実施形態に係る画像処理装置130aが学習時に実行する処理の流れの一例を示すフローチャートである。図28に示す処理は、例えば、ユーザが入力インターフェース133を介して学習済みモデル58を生成する処理を実行するための指示を処理回路235に入力した場合に実行される。
図28に示すように、取得機能135bは、メモリ132に記憶されたCT画像データ11を取得する(ステップS301)。そして、学習用データセット生成機能235cは、CT画像データ11に基づいて短軸断面画像データ15を生成する(ステップS302)。
そして、学習用データセット生成機能235cは、CT画像データ11に基づいて短軸断面画像データ55を生成する(ステップS303)。そして、学習用データセット生成機能235cは、CT画像データ11に基づいて短軸断面画像データ56を生成する(ステップS304)。
そして、学習済みモデル生成機能235dは、短軸断面画像データ15、短軸断面画像データ55及び短軸断面画像データ56の組と、輪郭画像データ26とを対応付けて機械学習することによって学習済みモデル58を生成する(ステップS305)。そして、学習済みモデル生成機能235dは、生成した学習済みモデル58をメモリ132に記憶させ(ステップS306)、処理を終了する。
図29は、第2の実施形態に係る画像処理装置130aが運用時に実行する処理の流れの一例を示すフローチャートである。図29に示す処理は、例えば、ユーザが入力インターフェース133を介して、解析機能135fによる解析を実行するための指示を処理回路235に入力した場合に実行される。
図29に示すように、取得機能135bは、メモリ132に記憶されたCT画像データ12を取得する(ステップS401)。そして、推定機能235eは、CT画像データ12を用いて短軸断面画像データ30を生成する(ステップS402)。
そして、推定機能235eは、CT画像データ12に基づいて短軸断面画像データ60を生成する(ステップS403)。そして、推定機能235eは、CT画像データ12に基づいて短軸断面画像データ61を生成する(ステップS404)。
そして、推定機能235eは、学習済みモデル58を用いて、短軸断面画像データ30、短軸断面画像データ60及び短軸断面画像データ61を基に、輪郭画像データ62を推定し出力する(ステップS405)。
そして、解析機能135fは、輪郭画像データ62に描出された解析対象の心筋の輪郭を用いて解析を行う(ステップS406)。そして、出力機能135gは、解析結果をディスプレイ134に表示させ(ステップS407)、処理を終了する。
以上、第2の実施形態について説明した。第2の実施形態によれば、上述したように、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
(第2の実施形態の変形例1)
なお、第2の実施形態では、学習済みモデル生成機能235dが学習済みモデル58を生成する場合について説明した。しかしながら、学習済みモデル生成機能235dは、学習済みモデル58に代えて、他の学習済みモデルを生成してもよい。そこで、このような変形例を第2の実施形態の変形例1として説明する。以下の変形例1の説明では、第2の実施形態と異なる点を主に説明し、第2の実施形態と同様の点については説明を省略する場合がある。また、第2の実施形態と同様の構成については、同一の符号を付し、説明を省略する場合がある。
図30は、第2の実施形態の変形例1に係る学習済みモデル生成機能235dが実行する処理の一例を説明するための図である。図30には、変形例1の学習時における学習済みモデル65の生成方法の一例が示されている。図30に示すように、学習時には、学習済みモデル生成機能235dは、短軸断面画像データ55及び短軸断面画像データ56の組と、輪郭画像データ26との関係を学習することによって学習済みモデル65を生成する。
このように、学習済みモデル生成機能235dは、短軸断面画像データ55及び短軸断面画像データ56の組と、輪郭画像データ26とを対応付けて学習することによって学習済みモデル65を生成する。例えば、学習時には、学習用データセット生成機能235cは、短軸断面画像データ55、短軸断面画像データ56及び輪郭画像データ26の組を複数生成する。そして、学習済みモデル生成機能235dは、生成した複数の組を用いて学習済みモデル65を生成する。
例えば、学習済みモデル生成機能235dは、短軸断面画像データ55及び短軸断面画像データ56を入力データとし、輪郭画像データ26を教師データとして機械エンジンに入力することによって、機械学習を行う。学習済みモデル生成機能235dは、このような機械学習の結果として学習済みモデル65を生成する。
学習済みモデル65は、短軸断面画像データ55に相当する画像データ及び短軸断面画像データ56に相当する画像データが入力されることで、輪郭画像データ26に相当する画像データを推定(生成)し、出力する。
そして、学習済みモデル生成機能235dは、生成した学習済みモデル65をメモリ132に記憶させる。
変形例1に係る推定機能235eは、運用時に、学習済みモデル65を用いて、解析対象の部位の輪郭に関する精度が高い画像データを推定し、推定した画像データを出力する。図31を参照して、推定機能235eが実行する処理の一例について説明する。図31は、第2の実施形態の変形例1に係る推定機能235eが実行する処理の一例について説明するための図である。図31には、変形例1の運用時における輪郭画像データ66の推定方法の一例が示されている。
推定機能235eは、運用時に取得機能235bにより取得されたCT画像データ12を用いて、第2の実施形態と同様に、短軸断面画像データ60を生成する。また、推定機能235eは、CT画像データ12を用いて、第2の実施形態と同様に、短軸断面画像データ61を生成する。短軸断面画像データ60は、短軸断面画像データ55に相当する画像データである。短軸断面画像データ61は、短軸断面画像データ56に相当する画像データである。
そして、図31に示すように、推定機能235eは、短軸断面画像データ60及び短軸断面画像データ61を学習済みモデル65に入力することで、学習済みモデル65に輪郭画像データ66を推定させて出力させる。すなわち、推定機能235eは、学習済みモデル65を用いて、短軸断面画像データ60及び短軸断面画像データ61を基に、輪郭画像データ66を推定し出力する。輪郭画像データ66は、輪郭画像データ26に相当する画像データである。
変形例1に係る学習済みモデル65は、第2の実施形態に係る学習済みモデル58と同様に、解析対象の部位である心筋の輪郭が精度良く描出された輪郭画像データ66を推定し出力することができる。すなわち、変形例1によれば、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
以上、第2の実施形態の変形例1について説明した。変形例1によれば、上述したように、第2の実施形態と同様に、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
また、上述した第2の実施形態では、学習済みモデル58を生成する際に入力データとして短軸断面画像データ15、短軸断面画像データ55及び短軸断面画像データ56が用いられる。これに対して、変形例1では、学習済みモデル65を生成する際に入力データとして短軸断面画像データ55及び短軸断面画像データ56が用いられる。したがって、変形例1の方が、第2の実施形態よりも、学習済みモデルを生成する際に入力データとして用いられる画像データの数及びデータ量が少ない。したがって、変形例1によれば、学習済みモデルを生成する際の機械学習の収束を早めることができる。
また、短軸断面画像データ15が、何らかの原因で画像処理装置130aから削除されてしまう場合が考えられる。しかしながら、変形例1によれば、このような場合であっても、短軸断面画像データ55及び短軸断面画像データ56が画像処理装置130aに保存されていれば、学習済みモデル65を生成することができる。
同様に、短軸断面画像データ30が、何らかの原因で画像処理装置130aから削除されてしまう場合が考えられる。しかしながら、変形例1によれば、このような場合であっても、短軸断面画像データ60及び短軸断面画像データ61が画像処理装置130aに保存されていれば、輪郭画像データ66を推定し、出力することができる。
(第2の実施形態の変形例2)
第2の実施形態では、画像処理装置130aが、短軸断面画像データ15、短軸断面画像データ55及び短軸断面画像データ56を用いて、学習済みモデル58を生成する場合について説明した。しかしながら、画像処理装置130aは、短軸断面画像データ15、短軸断面画像データ55及び短軸断面画像データ56が1つに纏められたカラー画像データを用いて、学習済みモデルを生成してもよい。そこで、このような変形例を第2の実施形態の変形例2として説明する。以下の変形例2の説明では、第2の実施形態と異なる点を主に説明し、第2の実施形態と同様の点については説明を省略する場合がある。また、第2の実施形態と同様の構成については、同一の符号を付し、説明を省略する場合がある。
図32は、第2の実施形態の変形例2に係る画像処理装置130aが実行する処理の一例を説明するための図である。図32には、変形例2の学習時における学習済みモデル71の生成方法の一例が示されている。変形例2に係る学習用データセット生成機能235cは、図32に示すカラー画像データ70を生成する。カラー画像データ70を構成する複数のピクセルのそれぞれには、RGB値が設定されている。
なお、カラー画像データ70を構成する複数のピクセルは、短軸断面画像データ15を構成する複数のピクセルに対応する。また、カラー画像データ70を構成する複数のピクセルは、短軸断面画像データ55を構成する複数のピクセルにも対応する。また、カラー画像データ70を構成する複数のピクセルは、短軸断面画像データ56を構成する複数のピクセルにも対応する。
カラー画像データ70の生成方法の一例について説明する。例えば、学習用データセット生成機能235cは、短軸断面画像データ15の各ピクセルに設定された輝度値をG値として、カラー画像データ70の対応する各ピクセルに設定する。また、学習用データセット生成機能235cは、短軸断面画像データ55の各ピクセルに設定された輝度値をR値として、カラー画像データ70の対応する各ピクセルに設定する。また、学習用データセット生成機能235cは、短軸断面画像データ56の各ピクセルに設定された輝度値をB値として、カラー画像データ70の対応する各ピクセルに設定する。このようにして、学習用データセット生成機能235cは、各ピクセルにRGB値が設定されたカラー画像データ70を生成する。
ここで、カラー画像データ70の各ピクセルに設定されたG値は、断面15aの特徴を示す。また、カラー画像データ70の各ピクセルに設定されたR値は、断面15aよりも心基部側の断面15bの特徴を示す。また、カラー画像データ70の各ピクセルに設定されたB値は、断面15aよりも心尖部側の断面15cの特徴を示す。したがって、カラー画像データ70は、断面15aの特徴、断面15bの特徴及び断面15cの特徴を示す画像データであるといえる。すなわち、カラー画像データ70は、左心室14の心筋16の複数の位置(断面15aの位置、断面15bの位置及び断面15cの位置)における左心室14の心筋16を示す。
図32の説明に戻り、学習時には、学習済みモデル生成機能235dは、カラー画像データ70と、輪郭画像データ26との関係を学習することによって学習済みモデル71を生成する。
このように、学習済みモデル生成機能235dは、カラー画像データ70と輪郭画像データ26とを対応付けて学習することによって学習済みモデル71を生成する。例えば、学習時には、学習用データセット生成機能235cは、カラー画像データ70及び輪郭画像データ26の組を複数生成する。そして、学習済みモデル生成機能235dは、生成した複数の組を用いて学習済みモデル71を生成する。
例えば、学習済みモデル生成機能235dは、カラー画像データ70を入力データとし、輪郭画像データ26を教師データとして機械エンジンに入力することによって、機械学習を行う。学習済みモデル生成機能235dは、このような機械学習の結果として学習済みモデル71を生成する。
変形例2では、学習済みモデル生成機能235dは、カラー画像データ70が示す断面15a、断面15b及び断面15cの3つの断面の解析対象の部位に関する3次元的な情報を用いて機械学習を行う。そのため、変形例2によれば、2次元的な情報を用いて機械学習を行う場合と比較して、学習精度及び学習の収束速度を向上させることができる。
学習済みモデル71は、カラー画像データ70に相当する画像データが入力されることで、輪郭画像データ26に相当する画像データを推定(生成)し、出力する。
そして、学習済みモデル生成機能235dは、生成した学習済みモデル71をメモリ132に記憶させる。
変形例2に係る推定機能235eは、運用時に、学習済みモデル71を用いて、解析対象の部位の輪郭に関する精度が高い画像データを推定し、推定した画像データを出力する。図33を参照して、推定機能235eが実行する処理の一例について説明する。図33は、第2の実施形態の変形例2に係る推定機能235eが実行する処理の一例について説明するための図である。図33には、変形例2の運用時における輪郭画像データ73の推定方法の一例が示されている。
推定機能235eは、学習用データセット生成機能235cがCT画像データ11を用いてカラー画像データ70を生成した方法と同様の方法で、CT画像データ12を用いて、図33に示すカラー画像データ72を生成する。カラー画像データ72は、カラー画像データ70に相当する画像データである。したがって、カラー画像データ72は、断面15aの特徴、断面15bの特徴及び断面15cの特徴を示す画像データであるといえる。すなわち、カラー画像データ72は、左心室14の心筋16の複数の位置(断面15aの位置、断面15bの位置及び断面15cの位置)における左心室14の心筋16を示す。カラー画像データ72は、例えば、第1の画像データ及び第5の画像データの一例である。
そして、図33に示すように、推定機能235eは、カラー画像データ72を学習済みモデル71に入力することで、学習済みモデル71に輪郭画像データ73を推定させて出力させる。すなわち、推定機能235eは、学習済みモデル71を用いて、カラー画像データ72を基に、輪郭画像データ73を推定し出力する。輪郭画像データ73は、輪郭画像データ26に相当する画像データである。
以上、変形例2について説明した。変形例2に係る学習済みモデル71は、解析対象の部位である心筋の輪郭が精度良く描出された輪郭画像データ73を推定し出力することができる。したがって、変形例2によれば、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
なお、変形例2において、学習済みモデル生成機能235dは、カラー画像データ70と、短軸断面画像データ25とを用いて学習済みモデルを生成してもよい。この場合、推定機能235eは、カラー画像データ72と、短軸断面画像データ31とを学習済みモデルに入力することにより、輪郭画像データを出力すればよい。この輪郭画像データは、例えば、心筋16の輪郭16a及び輪郭16bを示す情報の一例である。
(第2の実施形態の変形例3)
第2の実施形態では、画像処理装置130aが、短軸断面画像データ15、短軸断面画像データ55、短軸断面画像データ56及び輪郭画像データ26を用いて、学習済みモデル58を生成する場合について説明した。しかしながら、画像処理装置130aは、短軸断面画像データ15に代えて、短軸断面画像データ25を用いて、学習済みモデルを生成してもよい。そこで、このような変形例を第2の実施形態の変形例3として説明する。以下の変形例3の説明では、第2の実施形態と異なる点を主に説明し、第2の実施形態と同様の点については説明を省略する場合がある。また、第2の実施形態と同様の構成については、同一の符号を付し、説明を省略する場合がある。
図34は、第2の実施形態の変形例3に係る画像処理装置130aが実行する処理の一例を説明するための図である。図34には、変形例3の学習時における学習済みモデル85の生成方法の一例が示されている。
学習時に、学習済みモデル生成機能235dは、短軸断面画像データ25と短軸断面画像データ55と短軸断面画像データ56との組と、輪郭画像データ26との関係を学習することによって学習済みモデル85を生成する。
このように、学習済みモデル生成機能235dは、短軸断面画像データ25と短軸断面画像データ55と短軸断面画像データ56との組と、輪郭画像データ26とを対応付けて学習することによって学習済みモデル85を生成する。例えば、学習時には、学習用データセット生成機能235cは、短軸断面画像データ25、短軸断面画像データ55、短軸断面画像データ56及び輪郭画像データ26の組を複数生成する。そして、学習済みモデル生成機能235dは、生成した複数の組を用いて学習済みモデル85を生成する。
例えば、学習済みモデル生成機能235dは、短軸断面画像データ25、短軸断面画像データ55及び短軸断面画像データ56を入力データとし、輪郭画像データ26を教師データとして機械エンジンに入力することによって、機械学習を行う。学習済みモデル生成機能235dは、このような機械学習の結果として学習済みモデル85を生成する。
短軸断面画像データ25は、断面15aの特徴を示す。したがって、変形例3では、第2の実施形態と同様に、断面15a、断面15b及び断面15cの3つの断面の解析対象の部位に関する3次元的な情報を用いて機械学習を行う。そのため、変形例3によれば、2次元的な情報を用いて機械学習を行う場合と比較して、学習精度及び学習の収束速度を向上させることができる。
学習済みモデル85は、短軸断面画像データ25に相当する画像データ、短軸断面画像データ55に相当する画像データ及び短軸断面画像データ56に相当する画像データが入力されることで、輪郭画像データ26に相当する画像データを推定(生成)し、出力する。
そして、学習済みモデル生成機能235dは、生成した学習済みモデル85をメモリ132に記憶させる。
変形例3に係る推定機能235eは、運用時に、学習済みモデル85を用いて、解析対象の部位の輪郭に関する精度が高い画像データを推定し、推定した画像データを出力する。図35を参照して、推定機能235eが実行する処理の一例について説明する。図35は、第2の実施形態の変形例3に係る推定機能235eが実行する処理の一例について説明するための図である。図35には、変形例3の運用時における輪郭画像データ86の推定方法の一例が示されている。
図35に示すように、推定機能235eは、短軸断面画像データ31、短軸断面画像データ60及び短軸断面画像データ61を学習済みモデル85に入力することで、学習済みモデル85に輪郭画像データ86を推定させて出力させる。すなわち、推定機能235eは、学習済みモデル85を使用して、短軸断面画像データ31、短軸断面画像データ60及び短軸断面画像データ61を基に、輪郭画像データ86を推定し出力する。輪郭画像データ86は、輪郭画像データ26に相当する画像データである。輪郭画像データ86は、例えば、心筋16の輪郭16a及び輪郭16bを示す情報の一例である。短軸断面画像データ60及び短軸断面画像データ61は、例えば、第3の画像データの一例である。
以上、変形例3について説明した。変形例3に係る学習済みモデル85は、解析対象の部位である心筋の輪郭が精度良く描出された輪郭画像データ86を推定し出力することができる。したがって、変形例3によれば、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
なお、変形例3において、学習済みモデル生成機能235dは、短軸断面画像データ55及び短軸断面画像データ56のうち少なくとも1つの短軸断面画像データと、短軸断面画像データ25と、輪郭画像データ26とを用いて学習済みモデルを生成すればよい。この場合、推定機能235eは、短軸断面画像データ60及び短軸断面画像データ61のうち少なくとも1つの短軸断面画像データと、短軸断面画像データ31とを学習済みモデルに入力することにより、輪郭画像データを出力すればよい。この輪郭画像データは、例えば、心筋16の輪郭16a及び輪郭16bを示す情報の一例である。
(第2の実施形態の変形例4)
第2の実施形態の変形例3では、画像処理装置130aが、短軸断面画像データ25、短軸断面画像データ55、短軸断面画像データ56及び輪郭画像データ26を用いて、学習済みモデル85を生成する場合について説明した。しかしながら、画像処理装置130aは、短軸断面画像データ55及び短軸断面画像データ56に代えて、輪郭画像データを用いて、学習済みモデルを生成してもよい。そこで、このような変形例を第2の実施形態の変形例4として説明する。以下の変形例4の説明では、第2の実施形態と異なる点を主に説明し、第2の実施形態と同様の点については説明を省略する場合がある。また、第2の実施形態と同様の構成については、同一の符号を付し、説明を省略する場合がある。
図36は、第2の実施形態の変形例4に係る画像処理装置130aが実行する処理の一例を説明するための図である。図36には、変形例4の学習時における学習済みモデル90の生成方法の一例が示されている。
変形例4に係る学習用データセット生成機能235cは、図36に示す輪郭画像データ75及び輪郭画像データ76を生成する。輪郭画像データ75は、断面15bにおける心筋16の輪郭16a及び輪郭16bが描出された画像データである。また、輪郭画像データ76は、断面15cにおける心筋16の輪郭16a及び輪郭16bが描出された画像データである。
輪郭画像データ75の生成方法の一例について説明する。例えば、学習用データセット生成機能235cは、短軸断面画像データ55を用いて、心筋16の輪郭16a及び輪郭16bを検出し、検出した輪郭16a及び輪郭16bが描出された輪郭画像データ75を生成する。例えば、学習用データセット生成機能235cは、短軸断面画像データ55を用いて、公知の技術により、心筋16の輪郭16a及び輪郭16bを検出する。
例えば、学習用データセット生成機能235cは、短軸断面画像データ55のピクセルに設定された輝度値の分布を利用して輪郭16bを検出する。具体例を挙げて説明すると、被検体に造影剤が投与された場合、造影剤の影響により、心臓の左心室の内腔に対応する輝度値は、左心室の心筋に対応する輝度値よりも高くなる傾向がある。そこで、学習用データセット生成機能235cは、短軸断面画像データ55における心筋16の中心を始点として、始点に対応するピクセルに設定された輝度値と同一又は略同一の輝度値を有するピクセルを探索する。なお、ここでいう心筋16の中心とは、例えば、心筋16により囲まれた領域の中心であり、内腔17の1点を指す。そして、学習用データセット生成機能235cは、このような探索の結果、内腔17の領域を得る。そして、学習用データセット生成機能235cは、内腔17の領域の端部を、心筋16の内壁の輪郭16bとして検出する。
また、学習用データセット生成機能235cは、短軸断面画像データ55を用いて輪郭画像データ75を生成する方法と同様の方法で、短軸断面画像データ56を用いて輪郭画像データ76を生成する。
なお、輪郭画像データ75及び輪郭画像データ76は、画像処理装置130aにより生成されるのではなく、ユーザにより生成されてもよい。
また、後述するように、運用時には、学習済みモデル90により長軸40aに沿った複数の位置で輪郭画像データ92が推定される。このため、学習済みモデル90により、既に、断面15bを示す輪郭画像データ92が推定されている場合には、学習用データセット生成機能235cは、断面15bを示す輪郭画像データ92を輪郭画像データ75として扱ってもよい。同様に、学習済みモデル90により、既に、断面15cを示す輪郭画像データ92が推定されている場合には、学習用データセット生成機能235cは、断面15cを示す輪郭画像データ92を輪郭画像データ76として扱ってもよい。
学習時に、学習済みモデル生成機能235dは、短軸断面画像データ25と輪郭画像データ75と輪郭画像データ76との組と、輪郭画像データ26との関係を学習することによって学習済みモデル90を生成する。
このように、学習済みモデル生成機能235dは、短軸断面画像データ25と輪郭画像データ75と輪郭画像データ76との組と、輪郭画像データ26とを対応付けて学習することによって学習済みモデル90を生成する。例えば、学習時には、学習用データセット生成機能235cは、短軸断面画像データ25、輪郭画像データ75、輪郭画像データ76及び輪郭画像データ26の組を複数生成する。そして、学習済みモデル生成機能235dは、生成した複数の組を用いて学習済みモデル90を生成する。
例えば、学習済みモデル生成機能235dは、短軸断面画像データ25、輪郭画像データ75及び輪郭画像データ76を入力データとし、輪郭画像データ26を教師データとして機械エンジンに入力することによって、機械学習を行う。学習済みモデル生成機能235dは、このような機械学習の結果として学習済みモデル90を生成する。
ここで、短軸断面画像データ25は、断面15aの特徴を示す。例えば、短軸断面画像データ25は、断面15aにおける輪郭16a及び輪郭16bの特徴を示す。また、輪郭画像データ75は、断面15bにおける輪郭16a及び輪郭16bの特徴を示す。また、輪郭画像データ76は、断面15cにおける輪郭16a及び輪郭16bの特徴を示す。したがって、変形例4では、第2の実施形態と同様に、断面15a、断面15b及び断面15cの3つの断面の解析対象の部位に関する3次元的な情報を用いて機械学習を行う。そのため、変形例4によれば、2次元的な情報を用いて機械学習を行う場合と比較して、学習精度及び学習の収束速度を向上させることができる。
学習済みモデル90は、短軸断面画像データ25に相当する画像データ、輪郭画像データ75に相当する画像データ及び輪郭画像データ76に相当する画像データが入力されることで、輪郭画像データ26に相当する画像データを推定(生成)し、出力する。
そして、学習済みモデル生成機能235dは、生成した学習済みモデル90をメモリ132に記憶させる。
変形例4に係る推定機能235eは、運用時に、学習済みモデル90を用いて、解析対象の部位の輪郭に関する精度が高い画像データを推定し、推定した画像データを出力する。図37を参照して、推定機能235eが実行する処理の一例について説明する。図37は、第2の実施形態の変形例4に係る推定機能235eが実行する処理の一例について説明するための図である。図37には、変形例4の運用時における輪郭画像データ91の推定方法の一例が示されている。
画像処理装置130aは、学習時において、輪郭画像データ75を得た方法と同様の方法で、図37に示す輪郭画像データ81を得る。例えば、推定機能235eは、学習用データセット生成機能235cが短軸断面画像データ55を用いて輪郭画像データ75を生成する方法と同様の方法で、短軸断面画像データ60を用いて輪郭画像データ81を生成する。輪郭画像データ81は、輪郭画像データ75に相当する画像データである。
また、画像処理装置130aは、学習時において、輪郭画像データ76を得た方法と同様の方法で、図37に示す輪郭画像データ82を得る。例えば、推定機能235eは、学習用データセット生成機能235cが短軸断面画像データ56を用いて輪郭画像データ76を生成する方法と同様の方法で、短軸断面画像データ61を用いて輪郭画像データ82を生成する。輪郭画像データ82は、輪郭画像データ76に相当する画像データである。
輪郭画像データ81及び輪郭画像データ82は、例えば、第1の画像データ及び第4の画像データの一例である。
図37に示すように、推定機能235eは、短軸断面画像データ31、輪郭画像データ81及び輪郭画像データ82を学習済みモデル90に入力することで、学習済みモデル90に輪郭画像データ91を推定させて出力させる。すなわち、推定機能235eは、学習済みモデル90を用いて、短軸断面画像データ31、輪郭画像データ81及び輪郭画像データ82を基に、輪郭画像データ91を推定し出力する。輪郭画像データ91は、輪郭画像データ26に相当する画像データである。輪郭画像データ91は、例えば、心筋16の輪郭16a及び輪郭16bを示す情報の一例である。
以上、変形例4について説明した。変形例4に係る学習済みモデル90は、解析対象の部位である心筋の輪郭が精度良く描出された輪郭画像データ91を推定し出力することができる。したがって、変形例4によれば、精度の良い解析対象の部位の輪郭を示す情報を得ることができる。
なお、変形例4において、学習済みモデル生成機能235dは、輪郭画像データ75及び輪郭画像データ76のうち少なくとも1つの輪郭画像データと、短軸断面画像データ25と、輪郭画像データ26とを用いて学習済みモデルを生成すればよい。この場合、推定機能235eは、輪郭画像データ81及び輪郭画像データ82のうち少なくとも1つの輪郭画像データと、短軸断面画像データ31とを学習済みモデルに入力することにより、輪郭画像データを出力すればよい。この輪郭画像データは、例えば、心筋16の輪郭16a及び輪郭16bを示す情報の一例である。
また、変形例4において、学習済みモデル生成機能235dは、短軸断面画像データ25を用いずに、学習済みモデルを生成してもよい。すなわち、学習済みモデル生成機能235dは、輪郭画像データ75及び輪郭画像データ76の組と、輪郭画像データ26との関係を学習することにより学習済みモデルを生成してもよい。この場合、推定機能235eは、短軸断面画像データ31を学習済みモデルに入力せずに輪郭画像データを推定する。すなわち、推定機能235eは、輪郭画像データ81及び輪郭画像データ82を学習済みモデルに入力することで、輪郭画像データを推定する。この輪郭画像データは、例えば、心筋16の輪郭16a及び輪郭16bを示す情報の一例である。
また、上述した各実施形態及び各変形例では、解析対象の部位が心筋16である場合について説明した。しかしながら、解析対象の部位は、これに限られない。図38は、解析対象の他の一例について説明するための図である。例えば、解析対象の部位は、図38に示すように、血管(例えば、大動脈又は冠動脈)等の管状構造物95であってもよい。解析対象の部位が管状構造物95である場合、長軸14aに代えて芯線が用いられる。また、心基部側の断面15bに代えて、例えば、血流方向の上流側の断面が用いられる。また、心尖部側の断面15cに代えて、例えば、血流方向の下流側の断面が用いられる。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、又は、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、若しくは、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ132に保存されたプログラムを読み出し実行することで機能を実現する。
なお、図1及び図24においては、単一のメモリ132が各処理機能に対応する各プログラムを記憶するものとして説明した。しかしながら、複数のメモリ132を分散して配置し、処理回路135,235は、個別のメモリ132から対応するプログラムを読み出す構成としても構わない。また、メモリ132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
以上説明した少なくとも1つの実施形態又は変形例によれば、精度の良い輪郭を示す情報を得ることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
132 メモリ
135e,235e 推定機能

Claims (6)

  1. 検出対象物の対象位置の第1の画像データの、前記検出対象物の輝度値に基づいて、前記検出対象物の輝度値と前記検出対象物以外の部位の輝度値との差が所定値以上となるようにウィンドウ条件を加工した第2の画像データが入力されることで、前記検出対象物の輪郭を示す情報を出力する学習済みモデルを記憶する記憶部と、
    前記学習済みモデルを使用して、前記第2の画像データを基に、前記検出対象物の輪郭を示す情報を出力する出力部と、
    を備え、
    前記学習済みモデルは、更に、前記第1の画像データが入力されることで、前記輪郭を示す情報を出力し、
    前記出力部は、前記学習済みモデルを使用して、前記第1の画像データ及び前記第2の画像データを基に、前記検出対象物の輪郭を示す情報を出力する、
    画像処理装置。
  2. コンピュータに、
    検出対象物の対象位置の第1の画像データの、前記検出対象物の輝度値に基づいて、前記検出対象物の輝度値と前記検出対象物以外の部位の輝度値との差が所定値以上となるようにウィンドウ条件を加工した第2の画像データが入力されることで、前記検出対象物の輪郭を示す情報を出力する学習済みモデルが記憶された記憶部から前記学習済みモデルを取得し、
    取得された前記学習済みモデルを使用して、前記第2の画像データを基に、前記検出対象物の輪郭を示す情報を出力する、
    処理を実行させるためのプログラムであって、
    前記学習済みモデルは、更に、前記第1の画像データが入力されることで、前記輪郭を示す情報を出力し、
    前記検出対象物の輪郭を示す情報を出力する処理は、前記学習済みモデルを使用して、前記第1の画像データ及び前記第2の画像データを基に、前記検出対象物の輪郭を示す情報を出力することを含む、
    プログラム
  3. コンピュータが、
    検出対象物の対象位置の第1の画像データの、前記検出対象物の輝度値に基づいて、前記検出対象物の輝度値と前記検出対象物以外の部位の輝度値との差が所定値以上となるようにウィンドウ条件を加工した第2の画像データが入力されることで、前記検出対象物の輪郭を示す情報を出力する学習済みモデルが記憶された記憶部から前記学習済みモデルを取得し、
    取得された前記学習済みモデルを使用して、前記第2の画像データを基に、前記検出対象物の輪郭を示す情報を出力する、
    処理を実行する方法であって、
    前記学習済みモデルは、更に、前記第1の画像データが入力されることで、前記輪郭を示す情報を出力し、
    前記検出対象物の輪郭を示す情報を出力する処理は、前記学習済みモデルを使用して、前記第1の画像データ及び前記第2の画像データを基に、前記検出対象物の輪郭を示す情報を出力することを含む、
    方法
  4. 検出対象物の対象位置の第1の画像データの、前記検出対象物の輝度値に基づいて、前記検出対象物の輝度値と前記検出対象物以外の部位の輝度値との差が所定値以上となるようにウィンドウ条件を加工した第2の画像データが入力されることで、前記検出対象物の輪郭を示す情報を出力する学習済みモデルを記憶する記憶部と、
    前記学習済みモデルを使用して、前記第2の画像データを基に、前記検出対象物の輪郭を示す情報を出力する出力部と、
    を備え、
    前記学習済みモデルは、更に、前記検出対象物の前記対象位置とは異なる少なくとも1つの位置における前記検出対象物の輪郭が描出された第4の画像データが入力されることで、前記検出対象物の輪郭を示す情報を出力し、
    前記出力部は、前記学習済みモデルを使用して、前記第2の画像データ及び前記第4の画像データを基に、前記検出対象物の輪郭を示す情報を出力する、
    画像処理装置。
  5. コンピュータに、
    検出対象物の対象位置の第1の画像データの、前記検出対象物の輝度値に基づいて、前記検出対象物の輝度値と前記検出対象物以外の部位の輝度値との差が所定値以上となるようにウィンドウ条件を加工した第2の画像データが入力されることで、前記検出対象物の輪郭を示す情報を出力する学習済みモデルが記憶された記憶部から前記学習済みモデルを取得し、
    取得された前記学習済みモデルを使用して、前記第2の画像データを基に、前記検出対象物の輪郭を示す情報を出力する、
    処理を実行させるためのプログラムであって、
    前記学習済みモデルは、更に、前記検出対象物の前記対象位置とは異なる少なくとも1つの位置における前記検出対象物の輪郭が描出された第4の画像データが入力されることで、前記検出対象物の輪郭を示す情報を出力し、
    前記検出対象物の輪郭を示す情報を出力する処理は、前記学習済みモデルを使用して、前記第2の画像データ及び前記第4の画像データを基に、前記検出対象物の輪郭を示す情報を出力することを含む、
    プログラム
  6. コンピュータが、
    検出対象物の対象位置の第1の画像データの、前記検出対象物の輝度値に基づいて、前記検出対象物の輝度値と前記検出対象物以外の部位の輝度値との差が所定値以上となるようにウィンドウ条件を加工した第2の画像データが入力されることで、前記検出対象物の輪郭を示す情報を出力する学習済みモデルが記憶された記憶部から前記学習済みモデルを取得し、
    取得された前記学習済みモデルを使用して、前記第2の画像データを基に、前記検出対象物の輪郭を示す情報を出力する、
    処理を実行する方法であって、
    前記学習済みモデルは、更に、前記検出対象物の前記対象位置とは異なる少なくとも1つの位置における前記検出対象物の輪郭が描出された第4の画像データが入力されることで、前記検出対象物の輪郭を示す情報を出力し、
    前記検出対象物の輪郭を示す情報を出力する処理は、前記学習済みモデルを使用して、前記第2の画像データ及び前記第4の画像データを基に、前記検出対象物の輪郭を示す情報を出力することを含む、
    方法
JP2019236725A 2019-12-26 2019-12-26 画像処理装置、プログラム及び方法 Active JP7408381B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019236725A JP7408381B2 (ja) 2019-12-26 2019-12-26 画像処理装置、プログラム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019236725A JP7408381B2 (ja) 2019-12-26 2019-12-26 画像処理装置、プログラム及び方法

Publications (2)

Publication Number Publication Date
JP2021104193A JP2021104193A (ja) 2021-07-26
JP7408381B2 true JP7408381B2 (ja) 2024-01-05

Family

ID=76919101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019236725A Active JP7408381B2 (ja) 2019-12-26 2019-12-26 画像処理装置、プログラム及び方法

Country Status (1)

Country Link
JP (1) JP7408381B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019219387A1 (en) 2018-05-16 2019-11-21 Koninklijke Philips N.V. Automated tumor identification during surgery using machine-learning
WO2019225084A1 (ja) 2018-05-23 2019-11-28 Eizo株式会社 情報処理装置、情報処理方法、コンピュータプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019219387A1 (en) 2018-05-16 2019-11-21 Koninklijke Philips N.V. Automated tumor identification during surgery using machine-learning
WO2019225084A1 (ja) 2018-05-23 2019-11-28 Eizo株式会社 情報処理装置、情報処理方法、コンピュータプログラム

Also Published As

Publication number Publication date
JP2021104193A (ja) 2021-07-26

Similar Documents

Publication Publication Date Title
CN110944586B (zh) 来自x射线图像数据的炎症估计
CN111429502B (zh) 用于生成对象的中心线的方法和系统以及计算机可读介质
CN112116615B (zh) 根据血管中心线获取血管轮廓线的方法和装置
CN112419484B (zh) 三维血管合成方法、系统及冠状动脉分析系统和存储介质
JP7187244B2 (ja) 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
CN112419276A (zh) 调节血管轮廓及中心线的方法及存储介质
CN109949300B (zh) 解剖树结构分析的方法、系统和计算机可读介质
CN110335236A (zh) 心脏医学图像的处理方法、处理装置、处理系统和介质
US11488297B2 (en) Medical information processing apparatus and medical information processing system
US20230222668A1 (en) Image processing apparatus, image processing method, and recording medium
JP7408381B2 (ja) 画像処理装置、プログラム及び方法
EP3606433B1 (en) Standardized coronary artery disease metric
CN116309346A (zh) 医学图像的检测方法、装置、设备、存储介质及程序产品
EP3886702B1 (en) Most relevant x-ray image selection for hemodynamic simulation
CN110546684B (zh) 时变数据的定量评估
JP7433901B2 (ja) 学習装置及び学習方法
US20230386113A1 (en) Medical image processing apparatus and medical image processing method
US20230260119A1 (en) Image processing apparatus, image processing method, and computer program product
US20220068469A1 (en) Medical image processing apparatus, system, and method
US20220079539A1 (en) Medical image display apparatus
CN112529919B (zh) 用于生成受试者的心脏的牛眼图生成的系统和方法
EP4362042A1 (en) Estimating pharmacokinetics of a contrast medium through a cardiovascular system analytical model and/or neural network algorithm
JP2023081573A (ja) 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム
JP2023083660A (ja) 心筋エネルギー計算方法、心筋エネルギー計算システム、心筋エネルギー計算装置及び心筋エネルギー計算プログラム
JP2023092327A (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230710

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231023

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R150 Certificate of patent or registration of utility model

Ref document number: 7408381

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150