JP7350595B2 - 画像処理装置、医用画像診断装置及び画像処理プログラム - Google Patents

画像処理装置、医用画像診断装置及び画像処理プログラム Download PDF

Info

Publication number
JP7350595B2
JP7350595B2 JP2019181185A JP2019181185A JP7350595B2 JP 7350595 B2 JP7350595 B2 JP 7350595B2 JP 2019181185 A JP2019181185 A JP 2019181185A JP 2019181185 A JP2019181185 A JP 2019181185A JP 7350595 B2 JP7350595 B2 JP 7350595B2
Authority
JP
Japan
Prior art keywords
image
trained model
input
processing
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019181185A
Other languages
English (en)
Other versions
JP2021053256A (ja
Inventor
春樹 岩井
剛 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Canon Medical Systems Corp
Original Assignee
Canon Inc
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc, Canon Medical Systems Corp filed Critical Canon Inc
Priority to JP2019181185A priority Critical patent/JP7350595B2/ja
Publication of JP2021053256A publication Critical patent/JP2021053256A/ja
Application granted granted Critical
Publication of JP7350595B2 publication Critical patent/JP7350595B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施の形態は、画像処理装置、医用画像診断装置及び画像処理プログラムに関する。
従来、医用画像を用いた診断においては、医用画像に対して種々の処理が施されている。例えば、医用画像の診断価値を高めるために、ノイズ低減処理や、超解像処理など、画像の信号に積極的な変化を加える処理が行われている。特に、近年は、大規模な機械学習を用いた画像処理が行われており、ノイズ低減や、超解像などの性能の向上が著しい。
特開2019-30623号公報
Noise2Noise: Learning Image Restoration without Clean Data, J.Lehtinen, et.al.(2018) クリストファー M. ビショップ(Christopher M. Bishop)著、「パターン認識と機械学習(Pattern recognition and machine learning)」、(米国)、第1版、スプリンガー(Springer)、2006年、P.225-290
本発明が解決しようとする課題は、画像に対する処理の結果の信頼性を向上させることである。
実施形態の画像処理装置は、取得部と、判定部と、決定部とを備える。取得部は、医用画像の入力に応じて処理結果を出力する第1の学習済みモデルに対する入力画像及び当該入力画像の入力に応じて前記第1の学習済みモデルから出力された出力結果のうち少なくとも1つを取得する。判定部は、前記入力画像及び前記出力結果のうち少なくとも1つの入力に応じて前記出力結果の評価情報を出力する第2の学習済みモデルに対して、前記入力画像及び前記出力結果のうち少なくとも1つを入力することで、前記出力結果の評価情報を出力させ、当該評価情報を判定する。決定部は、前記第2の学習済みモデルの出力結果に基づく判定結果に応じた処理を決定する。
図1は、第1の実施形態に係る画像処理装置の構成の一例を示すブロック図である。 図2Aは、第1の実施形態に係る学習済みモデルの一例を説明するための図である。 図2Bは、第1の実施形態に係る学習済みモデルの一例を説明するための図である。 図3Aは、第1の実施形態に係る判定機能の処理の一例を説明するための図である。 図3Bは、第1の実施形態に係る判定機能の処理の一例を説明するための図である。 図4Aは、第1の実施形態に係る学習済みモデルの一例を説明するための図である。 図4Bは、第1の実施形態に係る判定機能の処理の一例を説明するための図である。 図5Aは、第1の実施形態に係る決定機能の処理の一例を説明するための図である。 図5Bは、第1の実施形態に係る決定機能の処理の一例を説明するための図である。 図5Cは、第1の実施形態に係る決定機能の処理の一例を説明するための図である。 図6は、本実施形態に係る画像処理装置による学習時の処理の手順を示すフローチャートである。 図7は、本実施形態に係る画像処理装置による運用時の処理の手順を示すフローチャートである。 図8は、第2の実施形態に係る学習済みモデルの一例を説明するための図である。 図9は、第2の実施形態に係る判定機能の処理の一例を説明するための図である。 図10は、第3の実施形態に係る学習済みモデルの一例を説明するための図である。 図11は、第3の実施形態に係る学習済みモデルの一例を説明するための図である。 図12は、第3の実施形態に係る決定機能の処理の一例を説明するための図である。
以下、図面を参照しながら、画像処理装置、医用画像診断装置及び画像処理プログラムの実施形態について詳細に説明する。なお、本願に係る画像処理装置、医用画像診断装置及び画像処理プログラムは、以下に示す実施形態によって限定されるものではない。また、実施形態は、処理内容に矛盾が生じない範囲で他の実施形態や従来技術との組み合わせが可能である。
(第1の実施形態)
第1の実施形態では、本願の画像処理装置を一例に挙げて、実施形態の詳細について説明する。図1は、第1の実施形態に係る画像処理装置130の構成の一例を示すブロック図である。例えば、第1の実施形態に係る画像処理装置130は、図1に示すように、ネットワーク200を介して医用画像診断装置110及び端末装置120と通信可能に接続された画像処理システム100に含まれる。なお、図1に示す画像処理システム100には、画像保管装置などの他の装置が通信可能に接続される場合でもよい。
医用画像診断装置110は、被検体を撮像して医用画像を収集する。そして、医用画像診断装置110は、収集した医用画像を端末装置120や画像処理装置130に送信する。例えば、医用画像診断装置110は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置等である。ここで、本願の技術は、上記した種々のモダリティに適用可能であり、適用することにより、各モダリティが、以下で説明する処理をそれぞれ実行することができるようになる。
端末装置120は、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置である。例えば、端末装置120は、病院内に勤務する医師や検査技師により操作されるパーソナルコンピュータ(PC:Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等によって実現される。例えば、端末装置120は、医用画像診断装置110又は画像処理装置130から受信した医用画像を自装置のディスプレイに表示させるとともに、自装置の入力インターフェースを介して医用画像に対する各種操作を受け付ける。例えば、端末装置120は、画像処理装置130から受信した画像処理後の医用画像を表示することができる。
画像処理装置130は、医用画像診断装置110及び端末装置120から各種の情報を取得し、取得した情報を用いて各種の情報処理を行う。例えば、画像処理装置130は、サーバやワークステーション、パーソナルコンピュータ、タブレット端末等のコンピュータ機器によって実現される。
図1に示すように、画像処理装置130は、通信インターフェース131と、記憶回路132と、入力インターフェース133と、ディスプレイ134と、処理回路135とを有する。
通信インターフェース131は、処理回路135に接続されており、画像処理装置130と各装置との間で行われる通信を制御する。具体的には、通信インターフェース131は、各装置から各種の情報を受信し、受信した情報を処理回路135に出力する。例えば、通信インターフェース131は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。
記憶回路132は、処理回路135に接続されており、各種のデータを記憶する。例えば、記憶回路132は、医用画像診断装置110から受信した医用画像や、端末装置120から取得した医用画像などを記憶する。また、記憶回路132は、処理回路135が読み出して実行することで各種機能を実現するための種々のプログラムを記憶する。また、記憶回路132は、図1に示すように、学習済みモデル132aと、学習済みモデル132bとを記憶する。なお、学習済みモデル132aと学習済みモデル132bについては、後に詳述する。例えば、記憶回路132は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。
入力インターフェース133は、処理回路135に接続されており、操作者から各種の指示及び情報の入力操作を受け付ける。具体的には、入力インターフェース133は、操作者から受け付けた入力操作を電気信号へ変換して処理回路135に出力する。例えば、入力インターフェース133は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。なお、本明細書において、入力インターフェース133は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェース133の例に含まれる。
ディスプレイ134は、処理回路135に接続されており、各種の情報及び画像を表示する。具体的には、ディスプレイ134は、処理回路135から送られる情報及び画像のデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ134は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。
処理回路135は、入力インターフェース133を介して操作者から受け付けた入力操作に応じて、画像処理装置130の動作を制御する。例えば、処理回路135は、プロセッサによって実現される。
以上、第1の実施形態に係る画像処理装置130の構成について説明した。例えば、第1の実施形態に係る画像処理装置130を含む画像処理システム100は、病院や医院等の医療機関に設置され、医療機関に入院又は通院する患者等を被検体として、医用画像診断装置110によって生成される医用画像を用いた各種の画像診断に利用される。
ここで、医用画像を用いた画像診断では、上述したように、医用画像診断装置110によって収集された医用画像に対して、ノイズ低減処理や、超解像処理、散乱線低減処理などの画像処理が施され、処理後の医用画像が診断などに用いられるようになってきている。例えば、近年の機械学習の発展により、上述した画像処理を機械学習によって生成した学習済みモデルによって実行することで、より効果の高い画像処理が実現可能となってきている。
しかしながら、機械学習を用いた画像処理では、学習に用いたデータ(医用画像)に近いデータに対しての性能は極めて高いが、学習に用いたデータの特徴から外れたデータに対しては脆弱であり、高い効果を発揮できない場合がある。一例を挙げると、ノイズ低減処理や、超解像処理など、画像の信号に積極的な変化を加える処理を学習済みモデルによって行った場合、学習済みモデルの生成に用いたデータの特徴から外れたデータの入力に対して、偽像を含む出力画像が出力される場合がある。
このような出力画像の出力を低減するためには、例えば、全ての条件を網羅したデータを用いて学習済みモデルを生成することが考えられるが、全ての条件を網羅した学習用データを収集することは、現実的に困難である。そこで、本願では、画像処理の処理結果の妥当性を検証するための判定器による判定結果に応じた処理を行うことで、画像に対する処理の結果の信頼性を向上させる。
具体的には、画像処理装置130は、医用画像の入力に応じて処理結果を出力する第1の学習済みモデルに対する入力画像及び当該入力画像の入力に応じて第1の学習済みモデルから出力された出力結果のうち少なくとも1つを取得する。そして、画像処理装置130は、入力画像及び出力結果のうち少なくとも1つの入力に応じて出力結果の評価情報を出力する第2の学習済みモデルに対して、入力画像及び出力結果のうち少なくとも1つを入力することで、出力結果の評価情報を出力させ、当該評価情報を判定する。そして、画像処理装置130は、第2の学習済みモデルの出力結果に基づく判定結果に応じた処理を決定する。その結果、例えば、画像処理の処理結果が妥当であることを条件に、画像処理の学習済みモデルの出力結果を採用することで、画像に対する処理の結果の信頼性を向上させることを可能にする。
以下、本実施形態に係る画像処理装置130の詳細について説明する。図1に示すように、画像処理装置130の処理回路135は、制御機能135a、画像処理機能135b、学習機能135c、判定機能135d、及び、決定機能135eを実行する。ここで、制御機能135aは、取得部の一例である。また、画像処理機能135bは、処理部の一例である。また、学習機能135cは、学習部の一例である。また、判定機能135dは、判定部の一例である。また、決定機能135eは、決定部の一例である。
制御機能135aは、入力インターフェース133を介して入力された各種要求に応じた処理を実行するように制御する。例えば、制御機能135aは、通信インターフェース131を介した医用画像等の送受信、記憶回路132への情報の格納、ディスプレイ134への情報(例えば、表示画像や、各機能による処理結果など)の表示などを制御する。
例えば、制御機能135aは、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。また、例えば、制御機能135aは、医用画像診断装置110から取得した医用画像に対して処理を実行するためのGUIや、各機能による処理結果をディスプレイ134に表示させるように制御する。
画像処理機能135bは、医用画像診断装置110から取得した医用画像に対して画像処理を実行する。具体的には、画像処理機能135bは、機械学習を用いた画像処理を実行する。例えば、画像処理機能135bは、通信インターフェース131を介して取得された医用画像を、記憶回路132に記憶された学習済みモデル132aに対して入力して、出力画像を出力させることで、医用画像に対して画像処理を実行する。すなわち、処理回路135が、記憶回路132に記憶された学習済みモデル132aを読み込んで実行することで、画像処理機能135bが実現される。
ここで、記憶回路132によって記憶される学習済みモデル132aは、例えば、ディープラーニング(Deep Learning)などの機械学習エンジンに対して、入力の対象となる医用画像と、目的の画像処理の処理結果に相当する医用画像とを学習用データとして入力することによって生成された学習済みモデルである。例えば、学習済みモデル132aは、入力画像の画質を変化させる画像処理後の出力画像を出力する学習済みモデルである。
図2Aは、第1の実施形態に係る学習済みモデル132aの一例を説明するための図である。例えば、学習済みモデル132aは、図2Aに示すように、元画像(入力画像)の入力に応じて、ノイズ低減処理を施した画像処理後の出力画像を出力する。なお、図2Aは、あくまでも一例であり、学習済みモデル132aは、超解像処理、散乱線低減処理など種々の画像処理に対応する学習済みモデルが含まれる。
また、画像処理機能135bは、医用画像診断装置110から取得された医用画像に対して、機械学習を用いない画像処理を実行する。具体的には、画像処理機能135bは、医用画像の種別などに基づくルールベースの画像処理を実行する。例えば、画像処理機能135bは、医用画像に対して、空間フィルタや、コンボリューションフィルタなどを用いた画像処理を実行する。すなわち、画像処理機能135bは、医用画像に対して通常のノイズ低減処理などを行うことができる。また、例えば、画像処理機能135bは、医用画像に対して、単純なbilinear拡大などを用いた画像処理を実行する。すなわち、画像処理機能135bは、医用画像に対して通常の超解像処理などを行うことができる。
また、画像処理機能135bは、複数の医用画像に対して画像処理を行うことで、合成画像や、混合画像などを生成することもできる。なお、合成画像、混合画像については後に詳述する。画像処理機能135bは、上述した種々の画像処理の処理結果(画像処理後の医用画像)を記憶回路132に格納する。
学習機能135cは、学習済みモデル132aに対して入力された医用画像と、当該医用画像の入力に応じて学習済みモデル132aから出力された出力画像の評価結果との関係を学習することにより、出力画像の妥当性を検証するための評価情報を出力するように機能付けられた学習済みモデル132bを生成する。ここで、本実施形態では、画像処理装置130の処理回路135が学習機能135cを実行することで、学習済みモデル132bを生成する場合について説明するが、実施形態はこれに限定されるものではない。例えば、他の情報処理装置が以下で説明する処理を実行することで、学習済みモデル132bを生成し、生成された学習済みモデル132bが、記憶回路132に格納される場合でもよい。
図2Bは、第1の実施形態に係る学習済みモデル132bの一例を説明するための図である。図2Bに示すように、学習機能135cは、学習済みモデル132aに入力された元画像と、学習済みモデル132aの出力画像である画像処理後の画像の評価指標とを学習用データとして機械学習することにより、学習済みモデル132bを生成する。ここで、第1の実施形態における画像処理後の画像の評価は、画像の画質であり、例えば、偽像の有無や、単純な画質に関する評価である。なお、以下では、画像処理後の画質の評価として、偽像の有無を一例に挙げて説明する。
かかる場合には、まず、制御機能135aが、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。画像処理機能135bは、制御機能135aによって取得された医用画像(元画像)を学習済みモデル132aに入力することで、画像処理後の出力画像を出力させ、出力画像を元画像に対応付けて記憶回路132に格納する。
そして、制御機能135aは、出力画像をディスプレイ134に表示させる。操作者(医師)は、入力インターフェースを介して、ディスプレイ134に表示された出力画像について偽像の有無に関する評価指標を入力する。例えば、操作者は、出力画像に偽像が含まれる場合を「1」、偽像が含まれない場合を「0」とする定性的な評価指標を入力する。操作者によって評価指標が入力されると、制御機能135aは、入力された評価指標を元画像に対応付けて、記憶回路132に格納する。
学習機能135cは、記憶回路132に記憶された元画像と偽像の定性的な指標との関係を学習することで、学習済みモデル132bを生成する。例えば、学習機能135cは、元画像における各画素の画素値と、元画像に対応付けられた評価指標(1or0)とを学習用データとして機械学習エンジンに入力することによって、機械学習を行う。ここで、機械学習エンジンとしては、例えば、公知である非特許文献「クリストファー M. ビショップ(Christopher M. Bishop)著、「パターン認識と機械学習(Pattern recognition and machine learning)」、(米国)、第1版、スプリンガー(Springer)、2006年、P.225-290」に記載のニューラルネットワーク(Neural Network)などを適用することができる。
なお、機械学習エンジンについては、上記したニューラルネットワークの他、例えば、ディープラーニングや、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bayes)等の各種のアルゴリズムを用いるものでもよい。
このような機械学習の結果として、学習機能135cは、学習済みモデル132aに入力される元画像の入力に対して、偽像の有無を「0~1」の数値で示した評価指標(確率)を出力する学習済みモデル132bを生成する。そして、学習機能135cは、生成した学習済みモデル132bを記憶回路132に記憶させる。なお、このとき、学習機能135cは、以前に作成した学習済みモデル132bが既に記憶回路132に記憶されていた場合には、新しく作成した学習済みモデル132bで、記憶されている学習済みモデル132bを置き換えることもできる。
また、学習機能135cは、モダリティごと、撮像条件ごとに、学習済みモデル132bを生成して、記憶回路132にそれぞれ記憶させることもできる。例えば、CT画像や、MRI画像、超音波画像など、医用画像の種別によって偽像の発生が異なる場合が考えられる。また、撮像条件(対象部位、X線の照射条件、超音波の周波数など)によっても偽像の発生が異なる可能性も考えられる。そこで、学習機能135cは、モダリティごと(X線CT装置、MRI装置など)に、かつ、撮像条件ごと(頭部、胸部、腹部、下部など)に学習済みモデル132bを生成して、記憶回路132に記憶させることも可能である。
なお、上述した例では、評価情報として、単一の定性的な評価指標(出力画像に偽像が含まれる場合を「1」、偽像が含まれない場合を「0」とする評価指標)を学習用データとして用いる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、複数の評価指標を学習用データとして用いる場合でもよい。例えば、出力画像における偽像の輪郭の有無を「1」と「0」で示す評価指標、出力画像における偽像に相当する高周波成分の有無を「1」と「0」で示す評価指標、出力画像におけるアーチファクトの有無を「1」と「0」で示す評価指標などの複数の評価指標が学習用データとして用いられる場合でもよい。
また、評価情報として、定量的な評価指標が用いられる場合でもよい。例えば、非偽像領域の特徴量及び偽像領域の特徴量や、学習済みモデル132aに対して入力された元画像と、入力に応じて出力された出力画像との比較結果(例えば、非偽像領域に対応する画素の画素値の差分と、偽像領域に対応する画素の画素値の差分)などが学習用データとして用いられる場合でもよい。
上述したように、画像処理装置130は、学習機能135cによって、学習済みモデル132aによる画像処理の処理結果の妥当性を検証するための学習済みモデル132b(判定器)を生成する。そして、画像処理装置130は、学習済みモデル132bを用いて学習済みモデル132aによる画像処理の処理結果の妥当性を検証する。
判定機能135dは、元画像及び出力画像のうち少なくとも1つを学習済みモデル132bに対して入力することで出力画像における画質の評価情報を出力させ、当該評価情報を判定する。具体的には、判定機能135dは、通信インターフェース131を介して取得された医用画像、及び/又は、取得された医用画像が学習済みモデル132aに対して入力され、出力された出力画像を、記憶回路132に記憶された学習済みモデル132bに対して入力することで、評価情報を出力させる。そして、判定機能135dは、出力された評価情報に基づいて、出力画像に偽像が含まれるか否かを判定する。すなわち、処理回路135が、記憶回路132に記憶された学習済みモデル132bを読み込んで実行することで、判定機能132dにおける評価情報の出力が実現される。
図3Aは、第1の実施形態に係る判定機能135dの処理の一例を説明するための図である。ここで、図3Aにおいては、学習済みモデル132bが、元画像と、単一の評価指標(出力画像に偽像が含まれる場合を「1」、偽像が含まれない場合を「0」とする評価指標)とを学習用データとして用いて生成されている場合について示す。
例えば、制御機能135aは、通信インターフェース131を介して、学習済みモデル132aの画像処理の対象となる医用画像を取得する。判定機能135dは、図3Aに示すように、ニューラルネットワークで構成された学習済みモデル132bに対して、制御機能135aによって取得された医用画像(元画像)を入力させることで、単一の出力層から出力結果「0.3」を出力させる。ここで、学習済みモデル132bから出力された出力結果「0.3」は、学習済みモデル132bに入力させた元画像を学習済みモデル132aに入力させた場合の出力画像に偽像が含まれるか否かを数値で示した評価指標(確率)を意味する。
そして、判定機能135dは、出力結果「0.3」に基づいて、元画像を学習済みモデル132aに入力させた場合の出力画像に偽像が含まれるか否かを判定する。例えば、判定機能135dは、閾値処理によって出力画像に偽像が含まれるか否かを判定する。一例を挙げると、出力画像に偽像が含まれるか否かを判定する閾値が「0.5」の場合、判定機能135dは、出力結果が「0.3」であることから、出力画像に偽像が含まれないと判定する。ここで、仮に出力結果が「0.5」を上回った場合、判定機能135dは、出力画像に偽像が含まれると判定する。
上述したように、判定機能135dは、学習済みモデル132bの出力結果に基づいて、出力画像に偽像が含まれるか否かを判定する。ここで、判定機能135dは、学習済みモデル132bの生成に用いられた学習用データに応じて、学習済みモデル132bに入力させる入力データ、及び、判定に用いる出力結果を種々変更する。以下、判定機能135dによる処理の例について説明する。
図3Bは、第1の実施形態に係る判定機能135dの処理の一例を説明するための図である。ここで、図3Bにおいては、学習済みモデル132bが、元画像と、複数の評価指標(偽像の輪郭の有無を「1」と「0」で示す評価指標、出力画像における偽像に相当する高周波成分の有無を「1」と「0」で示す評価指標、出力画像におけるアーチファクトの有無を「1」と「0」で示す評価指標など)とを学習用データとして用いて生成されている場合について示す。すなわち、学習済みモデル132bが、学習済みモデル132aから出力される出力結果について複数の評価情報を出力する。
例えば、制御機能135aは、通信インターフェース131を介して、学習済みモデル132aの画像処理の対象となる医用画像を取得する。判定機能135dは、図3Bに示すように、ニューラルネットワークで構成された学習済みモデル132bに対して、制御機能135aによって取得された医用画像(元画像)を入力させることで、複数の出力層から出力結果をそれぞれ出力させる。すなわち、図3Bに示す学習済みモデル132bは、元画像の入力に応じて、輪郭に関する出力層「偽輪郭スコア0~1の箱」と、高周波成分に関する出力層「高周波スコア0~1の箱」と、アーチファクトに関する出力層「アーチファクトスコア0~1の箱」と、その他の因子に関する出力層「Etc」とから、それぞれ数値を出力する。ここで、学習済みモデル132bから出力された各出力結果は、学習済みモデル132bに入力させた元画像を学習済みモデル132aに入力させた場合の出力画像に各因子が含まれるか否かを数値で示した評価指標(確率)を意味する。
そして、判定機能135dは、複数の出力結果に基づいて、元画像を学習済みモデル132aに入力させた場合の出力画像に偽像が含まれるか否かを判定する。すなわち、判定機能135dは、学習済みモデル132bから出力された複数の評価情報を統合して、学習済みモデル132aから出力される出力結果の評価情報を判定する。例えば、判定機能135dは、各スコアの平均値を算出し、算出した平均値と閾値とを比較することによって出力画像に偽像が含まれるか否かを判定する。また、例えば、判定機能135dは、各スコアの加算値を算出し、算出した加算値と閾値とを比較することによって出力画像に偽像が含まれるか否かを判定する。
上述した図3A、図3Bでは、学習済みモデル132bの学習用データとして、元画像のみを用いる例について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、元画像と、元画像を学習済みモデル132aに入力させることで得られる出力画像とが学習用データに用いられる場合でもよい。また、例えば、元画像を学習済みモデル132aに入力させることで得られる出力画像のみが学習用データに用いられる場合でもよい。
以下、元画像と、元画像を学習済みモデル132aに入力させることで得られる出力画像とが学習用データに用いられる場合について説明する。かかる場合には、学習済みモデル132bは、元画像と、出力画像と、評価指標との関係を機械学習することによって生成される。
図4Aは、第1の実施形態に係る学習済みモデル132bの一例を説明するための図である。図4Aに示すように、学習機能135cは、学習済みモデル132aに入力された元画像と、学習済みモデル132aの出力画像(画像処理後)と、学習済みモデル132aの出力画像である画像処理後の画像の評価指標とを学習用データとして機械学習することにより、学習済みモデル132bを生成する。ここで、画像処理後の画像の評価指標は、例えば、上述した偽像の有無や、偽像の輪郭の有無を「1」と「0」で示す評価指標、出力画像における偽像に相当する高周波成分の有無を「1」と「0」で示す評価指標、出力画像におけるアーチファクトの有無を「1」と「0」で示す評価指標などである。
このように、学習済みモデル132bが生成されている場合、判定機能135dは、学習済みモデル132bに対して、元画像及び画像処理後の画像を入力させることで、偽像の有無を判定するための評価指標を出力させる。図4Bは、第1の実施形態に係る判定機能135dの処理の一例を説明するための図である。ここで、図4Bにおいては、学習済みモデル132bが、元画像と、画像処理後の画像と、単一の評価指標(出力画像に偽像が含まれる場合を「1」、偽像が含まれない場合を「0」とする評価指標)とを学習用データとして用いて生成されている場合について示す。
例えば、制御機能135aは、通信インターフェース131を介して、学習済みモデル132aの画像処理の対象となる医用画像を取得する。画像処理機能135bは、取得された医用画像を学習済みモデル132aに入力させることで、画像処理後の画像を出力させる。判定機能135dは、図4Bに示すように、ニューラルネットワークで構成された学習済みモデル132bに対して、制御機能135aによって取得された医用画像(元画像)と、画像処理機能135bの処理によって出力された画像処理後の画像とを入力させることで、単一の出力層から出力結果を出力させる。
そして、判定機能135dは、出力結果に基づいて、元画像を学習済みモデル132aに入力させた場合の出力画像に偽像が含まれるか否かを判定する。例えば、判定機能135dは、閾値処理によって出力画像に偽像が含まれるか否かを判定する。
なお、図4Bでは、学習済みモデル132bの学習用データとして単一の評価指標が用いられる場合について説明したが、実施形態はこれに限定されるものではなく、複数の評価指標が学習用データとして用いられる場合でもよい。また、図3A、図3B、図4Bでは、定性的な評価指標が学習用データとして用いられる場合について説明したが、実施形態はこれに限定されるものではなく、定量的な評価指標が学習用データとして用いられる場合でもよい。
上述したように、判定機能135dが判定処理を実行すると、決定機能135eは、判定結果に応じた処理を決定する。具体的には、決定機能135eは、評価情報の判定結果に基づいて、入力画像(元画像)に対する処理動作を決定する。以下、図5A~図5Cを用いて、第1の実施形態に係る決定機能135eの処理について説明する。図5A~図5Cは、第1の実施形態に係る決定機能135eの処理の一例を説明するための図である。ここで、図5A~図5Cにおいては、元画像及び画像処理後の画像が学習用データとして用いられた学習済みモデル132bの出力結果に基づく決定処理の例を示す。
例えば、決定機能135eは、評価情報の判定結果が所定の評価を下回る場合に、入力画像を表示用の画像として決定し、評価情報の判定結果が所定の評価を上回る場合に、入力画像を学習済みモデル132aに入力することで出力される出力画像を表示用の画像として決定する。一例を挙げると、図5Aに示すように、判定機能135dが、元画像と、Deep Learningに基づく画像処理後の画像とを学習済みモデル132bに対して入力し、出力された評価指標に基づいて、偽像の有無の判定を行う。
ここで、判定機能135dによって、画像処理後の画像に偽像が含まれていないと判定されると(判定結果:OK)、決定機能135eは、図5Aに示すように、画像処理後の画像を出力(表示)するように決定する。一方、判定機能135dによって、画像処理後の画像に偽像が含まれていると判定されると(判定結果:NG)、決定機能135eは、図5Aに示すように、元画像を出力(表示)するように決定する。
また、例えば、決定機能135eは、評価情報の判定結果が所定の評価を下回る場合に、入力画像に対して学習済みモデル132aにおける画像処理とは異なる画像処理を施した処理後画像を表示用の画像として決定し、評価情報の判定結果が所定の評価を上回る場合に、入力画像を学習済みモデル132aに入力することで出力される出力画像を表示用の画像として決定する。一例を挙げると、図5Bに示すように、判定機能135dが、元画像と、Deep Learningに基づく第一画像処理後の画像とを学習済みモデル132bに対して入力し、出力された評価指標に基づいて、偽像の有無の判定を行う。
ここで、判定機能135dによって、第一画像処理後の画像に偽像が含まれていないと判定されると(判定結果:OK)、決定機能135eは、図5Bに示すように、第一画像処理後の画像を出力(表示)するように決定する。一方、判定機能135dによって、第一画像処理後の画像に偽像が含まれていると判定されると(判定結果:NG)、決定機能135eは、図5Bに示すように、元画像に対してルールベースの第二画像処理を施した第二画像処理後の画像を出力(表示)するように決定する。すなわち、画像処理機能135bは、決定機能135eによって第二画像処理後の画像を出力するように決定されると、元画像に対してルールベースの第二画像処理を実行する。
また、例えば、決定機能135eは、入力画像に対して学習済みモデル132aにおける画像処理とは異なる画像処理を施した処理後画像と、入力画像を学習済みモデル132aに入力することで出力される出力画像とを、評価情報の判定結果に応じた混合比率で混合した混合画像を表示用の画像として決定する。一例を挙げると、画像処理機能135bは、図5Cに示すように、元画像に対して、第一画像処理及び第二画像処理をそれぞれ実行する。判定機能135dは、元画像と、Deep Learningに基づく第一画像処理後の画像とを学習済みモデル132bに対して入力し、出力された評価指標の数値を決定機能135eに通知する。
決定機能135eは、判定機能135dから通知された評価指標の数値に基づく混合率で、第一画像処理後の画像と第二画像処理後の画像とを混合した混合画像を出力するように決定する(ブレンド出力)。例えば、決定機能135eは、第一画像処理後の画像と第二画像処理後の画像に対して、評価指標の数値に基づく重み付け加算処理によって生成した混合画像を表示するように決定する。一例を挙げると、評価指標の出力結果が「0.5」の場合、決定機能135eは、第一画像処理後の画像及び第二画像処理後の画像に対してそれぞれ「0.5」を積算し、積算後の画像を加算した混合画像を表示するように決定する。画像処理機能135bは、第一画像処理後の画像及び第二画像処理後の画像を用いて、決定機能135eによって決定された混合比の混合画像を生成する。
制御機能135aは、決定機能135eによって決定された表示用の画像を、ディスプレイ134に表示させるように制御する。例えば、制御機能135aは、決定機能135eの決定に沿って、元画像、学習済みモデル132bの出力画像(第一画像処理後の画像)、ルールベースの画像処理後の画像(第二画像処理後の画像)、或いは、混合画像をディスプレイ134に表示させるように制御する。
なお、図5A~図5Cで示した例では、元画像と学習済みモデル132aの出力画像とが学習済みモデル132bの入力画像で用いられるため、画像処理機能135bが、学習済みモデル132aから事前に出力画像を出力させる場合について説明したが、元画像のみが学習済みモデル132bの入力画像として用いられる場合、決定機能135eの決定の後に、画像処理機能135bが、入力画像を学習済みモデル132aに入力させて出力画像を出力させる場合でもよい。
また、図5A~図5Cで説明した各処理は、医用画像の種別や、ルールベースの画像処理の効果の度合いに応じて、切り替えて用いられる場合でもよい。すなわち、決定機能135eは、対象の医用画像の種別や、ルールベースの画像処理の効果の度合いに応じて、図5A~図5Cで示したいずれかの処理を実行するかを決定し、決定した処理内容に基づいて、表示用の画像を決定する。
また、学習済みモデル132bの入力画像となる元画像は、どのようなフェーズの画像データが用いられる場合でもよい。例えば、学習済みモデル132bの入力画像となる元画像は、医用画像診断装置110によって収集された生データの場合でもよく、或いは、生データに対して前処理や、画像処理が施された画像データでもよい。
次に、画像処理装置130による処理の手順を説明する。図6は、本実施形態に係る画像処理装置130による学習時の処理の手順を示すフローチャートである。ここで、図6におけるステップS101~ステップS104は、処理回路135が、記憶回路132から学習機能135cに対応するプログラムを呼び出して実行することにより、実現されるステップである。
図6に示すように、画像処理装置130においては、処理回路135が、まず、学習が開始されたか否かを判定する(ステップS101)。ここで、学習が開始されると(ステップS101、肯定)、処理回路135は、学習用データの入力画像及び評価指標を取得する(ステップS102)。なお、学習が開始されるまで、処理回路135は待機状態である(ステップS101、否定)。
そして、処理回路135は、取得した入力画像及び評価指標を学習用データとした機械学習によって、学習済みモデル132bを生成して(ステップS103)、生成した学習済みモデル132bを記憶回路132に記憶させる(ステップS104)。
図7は、本実施形態に係る画像処理装置130による運用時の処理の手順を示すフローチャートである。ここで、図7におけるステップS201~ステップS203は、処理回路135が記憶回路132から判定機能135dに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図7におけるステップS204は、処理回路135が記憶回路132から決定機能135eに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図7におけるステップS205は、処理回路135が記憶回路132から制御機能135aに対応するプログラムを呼び出して実行することにより、実現されるステップである。
図7に示すように、画像処理装置130においては、処理回路135が、まず、学習済みモデル132aの対象となる画像が取得されたか否かを判定する(ステップS201)。ここで、画像が取得されると(ステップS201、肯定)、処理回路135は、取得した画像を学習済みモデル132bに対して入力させる(ステップS202)。なお、学習済みモデル132aの対象となる画像が取得されるまで、処理回路135は待機状態である(ステップS201、否定)。
そして、処理回路135は、学習済みモデル132bの出力結果に基づいて、学習済みモデル132aの出力画像の妥当性を判定する(ステップS203)。その後、処理回路135は、判定結果に基づいて、ディスプレイ134にて表示させる出力画像を選択して(ステップS204)、選択した出力画像をディスプレイ134にて表示させる。
上述したように、第1の実施形態によれば、制御機能135a、医用画像の入力に応じて処理結果を出力する学習済みモデル132aに対する入力画像及び当該入力画像の入力に応じて学習済みモデル132aから出力された出力結果のうち少なくとも1つを取得する。判定機能135dは、入力画像及び出力結果のうち少なくとも1つの入力に応じて出力結果の評価情報を出力する学習済みモデル132bに対して、入力画像及び出力結果のうち少なくとも1つを入力することで、出力結果の評価情報を出力させ、当該評価情報を判定する。決定機能135eは、学習済みモデル132bの出力結果に基づく判定結果に応じた処理を決定する。したがって、第1の実施形態に係る画像処理装置130は、学習済みモデル132aのよる画像処理の妥当性を判定し、判定結果に応じた処理を実行することができ、画像に対する処理の結果の信頼性を向上させることを可能にする。
また、第1の実施形態によれば、学習済みモデル132aは、入力画像の画質を変化させる画像処理後の出力画像を出力する。判定機能135dは、入力画像及び出力画像のうち少なくとも1つを学習済みモデル132bに対して入力することで出力画像における画質の評価情報を出力させ、当該評価情報を判定する。決定機能135eは、評価情報の判定結果に基づいて、入力画像に対する処理動作を決定する。したがって、第1の実施形態に係る画像処理装置130は、入力画像に対して適切な画像処理を施すことができ、画像に対する処理の結果の信頼性を向上させることを可能にする。
また、第1の実施形態によれば、決定機能135eは、評価情報の判定結果が所定の評価を下回る場合に、入力画像を表示用の画像として決定し、評価情報の判定結果が所定の評価を上回る場合に、入力画像を学習済みモデル132aに入力することで出力される出力画像を表示用の画像として決定する。したがって、第1の実施形態に係る画像処理装置130は、学習済みモデル132aによる画像処理の妥当性が高いと検証された場合にのみ、学習済みモデル132aの出力画像を表示用の画像とすることができ、画像処理の結果の信頼性を向上させることを可能にする。
また、第1の実施形態によれば、決定機能135eは、評価情報の判定結果が所定の評価を下回る場合に、入力画像に対して学習済みモデル132aにおける画像処理とは異なる画像処理を施した処理後画像を表示用の画像として決定し、評価情報の判定結果が所定の評価を上回る場合に、入力画像を学習済みモデル132aに入力することで出力される出力画像を表示用の画像として決定する。したがって、第1の実施形態に係る画像処理装置130は、学習済みモデル132aによる出力画像が妥当ではない場合でも、ルールベースの画像処理により画質を向上させた画像を提供することを可能にする。
また、第1の実施形態によれば、決定機能135eは、入力画像に対して学習済みモデル132aにおける画像処理とは異なる画像処理を施した処理後画像と、入力画像を学習済みモデル132aに入力することで出力される出力画像とを、評価情報の判定結果に応じた混合比率で混合した混合画像を表示用の画像として決定する。したがって、本実施形態に係る画像処理装置130は、評価結果に応じた表示用の画像を生成して表示することを可能にする。
また、第1の実施形態によれば、学習済みモデル132bは、出力画像における偽像の有無に関する評価情報を出力する。したがって、第1の実施形態に係る画像処理装置130は、画質の劣化の原因となりうる偽像を含む表示用の画像が表示されることを抑止し、信頼性の高い表示用の画像の提供を可能にする。その結果、画像処理によって生成される医用画像の診断価値を高めることを可能にする。
また、第1の実施形態によれば、学習済みモデル132bは、学習済みモデル132aから出力される出力結果について複数の評価情報を出力する。判定機能132dは、学習済みモデル132bから出力された複数の評価情報を統合して、学習済みモデル132aから出力される出力結果の評価情報を判定する。したがって、第1の実施形態に係る画像処理装置130は、複数の評価指標を考慮した判定を行うことができ、より信頼性向上させることを可能にする。
(第2の実施形態)
上述した第1の実施形態では、画像単位で偽像の有無を検証する場合について説明した。第2の実施形態では、画素ごとに偽像であるか否かを検証する場合について説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する各実施形態は、個別に実施されてもよいし、適宜に組み合わせて実施されてもよい。
第2の実施形態に係る判定機能135dは、画素ごとに、出力画像における画質の評価情報を出力させ、当該評価情報を判定する。具体的には、判定機能135dは、学習用データとして画素ごとの評価結果が用いられた学習済みモデル132bを用いることで、学習済みモデル132aの出力画像における画質の評価情報を画素ごとに出力させる。図8は、第2の実施形態に係る学習済みモデル132bの一例を説明するための図である。
図8に示すように、学習機能135cは、学習済みモデル132aに入力された元画像と、学習済みモデル132aの出力画像である画像処理後の画像の画素ごとの評価指標とを学習用データとして機械学習することにより、学習済みモデル132bを生成する。ここで、第2の実施形態における画像処理後の画像の評価は、画像の画質であり、例えば、偽像の有無や、単純な画質に関する評価である。なお、以下では、画像処理後の画質の評価として、偽像の有無を一例に挙げて説明する。
かかる場合には、まず、制御機能135aが、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。画像処理機能135bは、制御機能135aによって取得された医用画像(元画像)を学習済みモデル132aに入力することで、画像処理後の出力画像を出力させ、出力画像を元画像に対応付けて記憶回路132に格納する。
そして、制御機能135aは、出力画像をディスプレイ134に表示させる。操作者(医師)は、入力インターフェースを介して、ディスプレイ134に表示された出力画像について偽像に関する評価指標を入力する。例えば、操作者は、出力画像における偽像領域を指定することで、偽像領域における画素値の情報を入力する。制御機能135aは、入力された画素値の情報を画像に対応付けて、記憶回路132に格納する。
一例を挙げると、制御機能135aは、操作者による偽像領域の指定操作に基づいて、出力画像の各画素値について偽像であるか否かを示す情報(例えば、偽像である場合を「1」、偽像ではない場合を「0」とする情報)を出力画像に対応付けて記憶回路132に格納する。かかる場合には、第2の実施形態に係る学習機能135cは、記憶回路132に記憶された出力画像の画素値と、当該画素値が偽像であるか否かを示す情報(1or0)との関係を学習することで、学習済みモデル132bを生成する。ここで生成された学習済みモデル132bは、出力画像の入力に応じて、各画素が偽像であるか否かを示す「0~1」の数値を出力する。
また、例えば、制御機能135aは、操作者による出力画像に対する偽像領域の指定操作に基づいて、偽像領域における元画像と出力画像との差分値、及び、非偽像領域における元画像と出力画像との差分値を算出し、各差分値について偽像であるか否かを示す情報(例えば、偽像である場合を「1」、偽像ではない場合を「0」とする情報)を元画像及び出力画像に対応付けて記憶回路132に格納する。かかる場合には、学習機能135cは、記憶回路132に記憶された元画像と出力画像との差分値と、当該差分値が偽像であるか否かを示す情報(1or0)との関係を学習することで、学習済みモデル132bを生成する。ここで生成された学習済みモデル132bは、元画像と出力画像の入力に応じて、各画素が偽像であるか否かを示す「0~1」の数値を出力する。
また、例えば、制御機能135aは、操作者による出力画像に対する偽像領域の指定操作に基づいて、出力画像の偽像領域に対応する元画像の領域の画素値と偽像領域となることを示す情報(例えば、「1」)とを対応付けた対応情報と、出力画像の非偽像領域(偽像領域以外の領域)の画素値と偽像領域とはならないことを示す情報(例えば、「0」)とを対応付けた対応情報とを、元画像に対応付けて記憶回路132に格納する。かかる場合には、学習機能135cは、記憶回路132に記憶された元画像の画素値と、当該画素値が偽像となるか否かを示す対応情報(1or0)との関係を学習することで、学習済みモデル132bを生成する。ここで生成された学習済みモデル132bは、元画像の入力に応じて、各画素が偽像となるか否かを示す「0~1」の数値を出力する。
上述したように、第2の実施形態に係る画像処理装置130は、学習機能135cによって、学習済みモデル132aによる画像処理の処理結果の画素ごとの妥当性を検証するための学習済みモデル132b(判定器)を生成する。そして、画像処理装置130は、学習済みモデル132bを用いて学習済みモデル132aによる画像処理の処理結果の画素ごとの妥当性を検証する。
第2の実施形態に係る判定機能135dは、元画像及び出力画像のうち少なくとも1つを学習済みモデル132bに対して入力することで出力画像における画素ごとの画質の評価情報を出力させ、当該評価情報を判定する。具体的には、判定機能135dは、通信インターフェース131を介して取得された医用画像、及び/又は、取得された医用画像が学習済みモデル132aに対して入力され、出力された出力画像を、記憶回路132に記憶された学習済みモデル132bに対して入力することで、画素ごとの評価情報を出力させる。そして、判定機能135dは、出力された画素ごとの評価情報に基づいて、出力画像の各画素が偽像であるか否かを判定する。
図9は、第2の実施形態に係る判定機能135dの処理の一例を説明するための図である。ここで、図9においては、学習済みモデル132bが、元画像の画素値と、当該画素値が偽像となるか否かを示す対応情報とを学習用データとして用いて生成されている場合について示す。
例えば、制御機能135aは、通信インターフェース131を介して、学習済みモデル132aの画像処理の対象となる医用画像を取得する。判定機能135dは、図9に示すように、ニューラルネットワークで構成された学習済みモデル132bに対して、制御機能135aによって取得された医用画像(元画像)を入力させることで、単一の出力層から出力結果を出力させる。そして、判定機能135dは、出力結果を閾値と比較することで、各画素が偽像となるか否かを判定する。なお、閾値処理については、上述した第1の実施形態と同様である。
さらに、判定機能135dは、図9に示すように、画素ごとの画質の評価情報を示す評価マップを生成する。具体的には、判定機能135dは、学習済みモデル132bから出力された画素ごとの評価情報に基づく判定結果を用いて、元画像における各画素について、学習済みモデル132aにおける画像処理が実施されることで、偽像となるか否かを示す評価マップを生成する。例えば、判定機能135dは、偽像と判定した画素を強調した評価マップを生成する。なお、評価マップは、元画像における偽像の画素を示したものでもよく、或いは、画像を用いずに、単に画素の位置ごとに偽像か否かを示したものでもよい。
なお、図9では、学習済みモデル132bが、元画像の画素値と、当該画素値が偽像となるか否かを示す対応情報とを学習用データとして用いて生成されている場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、学習済みモデル132bが、出力画像の画素値と、当該画素値が偽像であるか否かを示す情報とを学習用データとして用いて生成されている場合でもよい。かかる場合には、判定機能135dは、学習済みモデル132bに対して、学習済みモデル132aの出力画像を入力することで画素ごとの評価情報を出力させ、当該評価情報に基づいて偽像領域を示す評価マップを生成する。
また、例えば、学習済みモデル132bが、元画像と出力画像との差分値と、当該差分値が偽像であるか否かを示す情報とを学習用データとして用いて生成されている場合でもよい。かかる場合には、判定機能135dは、学習済みモデル132aに入力された元画像、及び、出力画像を、学習済みモデル132bに対して入力することで画素ごとの評価情報を出力させ、当該評価情報に基づいて偽像領域を示す評価マップを生成する。
上述したように、判定機能135dが判定処理を実行すると、第2の実施形態に係る決定機能135eは、判定結果に応じた処理を決定する。具体的には、決定機能135eは、画素ごとの評価情報の判定結果に基づいて、入力画像の画素ごとに処理動作を決定する。
例えば、決定機能135eは、評価情報の判定結果が所定の評価を下回る画素について、入力画像の対応する画素を表示用の画素として決定し、評価情報の判定結果が所定の評価を上回る画素について、入力画像を学習済みモデル132aに入力することで出力される出力画像の対応する画素を表示用の画素として決定する。
すなわち、決定機能135eは、判定機能135dによって偽像と判定された画素については、元画像における対応する画素の画素値を、表示用の画像に用いることを決定する。一方、判定機能135dによって偽像ではないと判定された画素について、決定機能135eは、学習済みモデル132aによる画像処理後の出力画像における対応する画素の画素値を、表示用の画像に用いることを決定する。すなわち、決定機能135eは、偽像領域を元画像の画素値で示し、非偽像領域を画像処理後の画像の画素値で示した画像を、表示用の画像と決定する。
また、例えば、決定機能135eは、評価情報の判定結果が所定の評価を下回る画素について、入力画像に対して学習済みモデル132aにおける画像処理とは異なる画像処理を施した処理後画像の対応する画素を表示用の画素として決定し、評価情報の判定結果が所定の評価を上回る画素について、入力画像を学習済みモデル132aに入力することで出力される出力画像の対応する画素を表示用の画素として決定する。
すなわち、決定機能135eは、判定機能135dによって偽像と判定された画素については、元画像に対してルールベースの第二画像処理を施した画像における対応する画素の画素値を、表示用の画像に用いることを決定する。一方、判定機能135dによって偽像ではないと判定された画素について、決定機能135eは、学習済みモデル132aによる第一画像処理後の出力画像における対応する画素の画素値を、表示用の画像に用いることを決定する。すなわち、決定機能135eは、偽像領域を第二画像処理後の画像の画素値で示し、非偽像領域を第一画像処理後の画像の画素値で示した画像を、表示用の画像と決定する。
また、例えば、決定機能135eは、入力画像に対して学習済みモデル132aにおける画像処理とは異なる画像処理を施した処理後画像の各画素と、入力画像を学習済みモデル132aに入力することで出力される出力画像の各画素とを、画素ごとの評価情報の判定結果に応じた混合比率で混合した混合画像を表示用の画像として決定する。
すなわち、決定機能135eは、各画素について、学習済みモデル132bから出力された偽像か否かを示す数値に基づく混合率で、第一画像処理後の画像における画素値と第二画像処理後の画像における画素値とを混合した混合画像を出力するように決定する(ブレンド出力)。例えば、決定機能135eは、第一画像処理後の画像の画素P1と、第二画像処理後の画像の画素P1に対して、評価指標の数値に基づく重み付け加算処理を行う。同様に、決定機能135eは、その他の画素についても、数値に基づく重み付け加算処理を行う。これにより、決定機能135eは、偽像か否かを示す数値に基づく混合率で、各画素の画素値を混合する。
第2の実施形態に係る制御機能135aは、決定機能135eによって決定された表示用の画像を、ディスプレイ134に表示させるように制御する。例えば、制御機能135aは、決定機能135eの決定に沿って、表示される画素値が元画像と第一画像処理後の画像とで画素ごとに切り替えられた画像、表示される画素値が第二画像処理後の画像と第一画像処理後の画像とで画素ごとに切り替えられた画像、或いは、混合画像をディスプレイ134に表示させるように制御する。
上述したように、第2の実施形態によれば、判定機能135dは、画素ごとに、出力画像における画質の評価情報を出力させ、当該評価情報を判定する。決定機能135eは、画素ごとの評価情報の判定結果に基づいて、入力画像の画素ごとに処理動作を決定する。したがって、第2の実施形態に係る画像処理装置130は、学習済みモデル132aのよる画像処理の妥当性を画素ごとに判定し、判定結果に応じた処理を実行することができ、画像に対する処理の結果の信頼性をより向上させることを可能にする。
また、第2の実施形態によれば、判定機能135dは、画素ごとの画質の評価情報を示す評価マップを生成する。したがって、第2の実施形態に係る画像処理装置130は、学習済みモデル132aのよる画像処理の妥当性を画素ごとに示した情報を提供することを可能にする。
また、第2の実施形態によれば、決定機能135eは、評価情報の判定結果が所定の評価を下回る画素について、入力画像の対応する画素を表示用の画素として決定し、評価情報の判定結果が所定の評価を上回る画素について、入力画像を学習済みモデル132aに入力することで出力される出力画像の対応する画素を表示用の画素として決定する。したがって、第2の実施形態に係る画像処理装置130は、学習済みモデル132aによる画像処理の妥当性が高いと検証された画素に対してのみ、学習済みモデル132aの出力画像を表示用の画像とすることができ、画像処理の結果の信頼性を向上させることを可能にする。
また、第2の実施形態によれば、決定機能135eは、評価情報の判定結果が所定の評価を下回る画素について、入力画像に対して学習済みモデル132aにおける画像処理とは異なる画像処理を施した処理後画像の対応する画素を表示用の画素として決定し、評価情報の判定結果が所定の評価を上回る画素について、入力画像を学習済みモデル132aに入力することで出力される出力画像の対応する画素を表示用の画素として決定する。したがって、第2の実施形態に係る画像処理装置130は、学習済みモデル132aによる出力画像が妥当ではない画素に対して、ルールベースの画像処理により画質を向上させた画像を提供することを可能にする。
また、第2の実施形態によれば、決定機能135eは、入力画像に対して学習済みモデル132aにおける画像処理とは異なる画像処理を施した処理後画像の各画素と、入力画像を学習済みモデル132aに入力することで出力される出力画像の各画素とを、画素ごとの評価情報の判定結果に応じた混合比率で混合した混合画像を表示用の画像として決定する。したがって、本実施形態に係る画像処理装置130は、評価結果に応じた表示用の画像を画素ごとに生成して表示することを可能にする。
(第3の実施形態)
上述した第1及び第2の実施形態では、画像処理後の画像の評価が、画像の画質(偽像の有無など)である場合について説明した。第3の実施形態では、画像処理後の画像の評価がセグメンテーションの結果である場合について説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する各実施形態は、個別に実施されてもよいし、適宜に組み合わせて実施されてもよい。
第3の実施形態に係る学習済みモデル132aは、入力画像の領域を区分させる画像処理後の処理結果を出力する学習済みモデルである。図10は、第3の実施形態に係る学習済みモデル132aの一例を説明するための図である。例えば、学習済みモデル132aは、図10に示すように、入力画像の入力に応じて、画像内での絞りに対応する領域と、有感領域とを区分するセグメンテーション結果を出力する。
第3の実施形態に係る画像処理機能135bは、医用画像診断装置110から取得された医用画像を、上述した学習済みモデル132aに対して入力させることで、医用画像における絞りに対応する領域と有感領域とのセグメンテーション結果を出力させる。
また、画像処理機能135bは、医用画像診断装置110から取得された医用画像に対して、機械学習を用いない画像処理を実行することで、医用画像における絞りに対応する領域と有感領域とのセグメンテーションを実行することができる。例えば、画像処理機能135bは、医用画像が収集された際の医用画像診断装置110のシステムの絞り開度の情報を取得する。そして、画像処理機能135bは、取得した絞り開度の情報に基づいて、医用画像における絞りに対応する領域を抽出することで、絞りに対応する領域と有感領域とを区分するセグメンテーションを実行する。
第3の実施形態に係る学習機能135cは、学習済みモデル132aに対して入力された医用画像と、当該医用画像の入力に応じて学習済みモデル132aから出力されたセグメンテーションの結果との関係を学習することにより、セグメンテーションの妥当性を検証するための評価情報を出力するように機能付けられた学習済みモデル132bを生成する。ここで、本実施形態では、画像処理装置130の処理回路135が学習機能135cを実行することで、学習済みモデル132bを生成する場合について説明するが、実施形態はこれに限定されるものではない。例えば、他の情報処理装置が以下で説明する処理を実行することで、第3の実施形態に係る学習済みモデル132bを生成し、生成された学習済みモデル132bが、記憶回路132に格納される場合でもよい。
図11は、第3の実施形態に係る学習済みモデル132bの一例を説明するための図である。図11に示すように、学習機能135cは、学習済みモデル132aに入力された入力画像、及び/又は、画像処理結果(セグメンテーション結果)と、学習済みモデル132aの出力である画像処理後の評価指標(セグメンテーション結果の評価)とを学習用データとして機械学習することにより、学習済みモデル132bを生成する。
上記した学習済みモデル132bを生成する場合、まず、制御機能135aが、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。画像処理機能135bは、制御機能135aによって取得された医用画像を学習済みモデル132aに入力することで、画像処理後のセグメンテーション結果を出力させ、セグメンテーション結果を入力画像に対応付けて記憶回路132に格納する。
そして、制御機能135aは、セグメンテーション結果をディスプレイ134に表示させる。操作者(医師)は、入力インターフェースを介して、ディスプレイ134に表示されたセグメンテーション結果について評価指標を入力する。例えば、操作者は、セグメンテーション結果の正誤について、DICESCOREなどで示したGround Truthとの合致率を評価指標として入力する。操作者によって評価指標が入力されると、制御機能135aは、入力された評価指標を入力画像、及び/又は、画像処理結果(セグメンテーション結果)に対応付けて、記憶回路132に格納する。
学習機能135cは、記憶回路132に記憶された入力画像と評価指標との関係を学習することで、学習済みモデル132bを生成する。例えば、学習機能135cは、入力画像、及び/又は、画像処理結果(セグメンテーション結果)と、これらに対応付けられた合致率とを学習用データとして機械学習エンジンに入力することによって、機械学習を行う。
このような機械学習の結果として、学習機能135cは、学習済みモデル132aに入力される入力画像の入力に対して、セグメンテーション結果とGround Truthとの合致率を出力する学習済みモデル132bを生成する。そして、学習機能135cは、生成した学習済みモデル132bを記憶回路132に記憶させる。
第3の実施形態に係る判定機能135dは、入力画像及び画像処理後の処理結果のうち少なくとも1つを学習済みモデル132bに対して入力することで画像処理後の処理結果における領域区分の評価情報を出力させ、当該評価情報を判定する。一例を挙げると、まず、制御機能135aは、通信インターフェース131を介して、学習済みモデル132aによるセグメンテーションの対象となる医用画像を取得する。判定機能135dは、学習済みモデル132bに対して、制御機能135aによって取得された医用画像(入力画像)を入力させることで、出力結果である合致率を出力させる。
そして、判定機能135dは、出力された合致率に基づいて、入力画像を学習済みモデル132aに入力させた場合のセグメンテーションの結果がOKであるか、或いは、NGであるかを判定する。例えば、合致率が閾値を上回った場合、判定機能135dは、セグメンテーション結果がOKであると判定する。一方、合致率が閾値を下回った場合、判定機能135dは、セグメンテーション結果がNGであると判定する。
上述したように、判定機能135dが判定処理を実行すると、第3の実施形態に係る決定機能135eは、判定結果に応じた処理を決定する。例えば、決定機能135eは、評価情報の判定結果が所定の評価を下回る場合に、入力画像に対して学習済みモデル132aにおける領域区分とは異なる処理により領域区分を施した処理結果を用いることを決定し、評価情報の判定結果が所定の評価を上回る場合に、入力画像を学習済みモデル132aに入力することで出力される処理結果を用いることを決定する。図12は、第3の実施形態に係る決定機能135eの処理の一例を説明するための図である。ここで、図12においては、入力画像及び画像処理後のセグメンテーション結果が学習用データとして用いられた学習済みモデル132bの出力結果に基づく決定処理の例を示す。
例えば、図12に示すように、判定機能135dが、入力画像と、第一画像処理後の画セグメンテーション結果とを学習済みモデル132bに対して入力し、出力された評価指標に基づいて、セグメンテーション結果の正誤の判定を行う。
ここで、判定機能135dによって、第一画像処理後のセグメンテーション結果がOKであると判定されると、決定機能135eは、図12に示すように、第一画像処理後の絞り位置を採用するように決定する。一方、判定機能135dによって、第一画像処理後のセグメンテーション結果がNGであると判定されると、決定機能135eは、図12に示すように、入力画像に対してルールベースの第二画像処理を施したセグメンテーション結果の絞り位置を採用するように決定する。すなわち、画像処理機能135bは、決定機能135eによって第二画像処理後のセグメンテーション結果を出力するように決定されると、入力画像に対してルールベースの第二画像処理を実行する。
上述したように、第3の実施形態によれば、学習済みモデル132aは、入力画像の領域を区分させる画像処理後の処理結果を出力する。判定機能135dは、入力画像及び画像処理後の処理結果のうち少なくとも1つを学習済みモデル132bに対して入力することで画像処理後の処理結果における領域区分の評価情報を出力させ、当該評価情報を判定する。決定機能135eは、評価情報の判定結果に基づいて、入力画像に対する処理動作を決定する。したがって、第3の実施形態に係る画像処理装置130は、学習済みモデル132aのよるセグメンテーションの妥当性を判定し、判定結果に応じた処理を実行することができ、画像に対するセグメンテーション処理の結果の信頼性を向上させることを可能にする。
また、第3の実施形態によれば、決定機能135eは、評価情報の判定結果が所定の評価を下回る場合に、入力画像に対して学習済みモデル132aにおける領域区分とは異なる処理により領域区分を施した処理結果を用いることを決定し、評価情報の判定結果が所定の評価を上回る場合に、入力画像を学習済みモデル132aに入力することで出力される処理結果を用いることを決定する。したがって、第3の実施形態に係る画像処理装置130は、学習済みモデル132aのよるセグメンテーション結果の妥当性に応じた処理を実行することができ、画像に対するセグメンテーション処理の結果の信頼性をより向上させることを可能にする。
(その他の実施形態)
さて、これまで第1~第3の実施形態について説明したが、上述した第1~第3の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
上述した第1の実施形態では、画像処理後の画質の評価として、偽像の有無を一例に挙げて説明したが、実施形態はこれに限定されるものではない。例えば、画像処理後の画質の評価として、単純な画質に関する評価が用いられる場合でもよい。かかる場合には、例えば、制御機能135aが、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。画像処理機能135bは、制御機能135aによって取得された医用画像(元画像)を学習済みモデル132aに入力することで、画像処理後の出力画像を出力させ、出力画像を元画像に対応付けて記憶回路132に格納する。
そして、制御機能135aは、出力画像をディスプレイ134に表示させる。操作者(医師)は、入力インターフェースを介して、ディスプレイ134に表示された出力画像について画質を評価する評価指標を入力する。例えば、操作者は、出力画像の画質を5段階の数値で示した評価指標を入力する。操作者によって評価指標が入力されると、制御機能135aは、入力された評価指標を画像に対応付けて、記憶回路132に格納する。
学習機能135cは、画質の評価指標と、画像とを学習用データとして用い、学習済みモデル132bを生成する。ここで、学習用データとして用いられる画像は、偽像と例と同様に、元画像及び画像処理後の画像のうち少なくとも1つである。判定機能135dは、上述したように生成された学習済みモデル132bを用いて、判定処理を実行する。決定機能135eは、判定結果に応じて元画像に対する処理を決定する。なお、単純な画質に関する妥当性を検証する場合においても、判定機能135d、及び、決定機能135eは、偽像を対象として説明した判定処理及び決定処理と同様の処理を実行することができる。
また、上述した実施形態では、画像処理装置130が各処理を実行する場合の例を説明したが、実施形態はこれに限定されるものではない。すなわち、医用画像診断装置110が、上述した各処理を実行する場合でもよい。かかる場合には、医用画像診断装置110に含まれる記憶回路が、上述した各機能に対応するプログラムを記憶する。そして、医用画像診断装置110に含まれる処理回路が、記憶回路から各プログラムを読み出して実行することで、各プログラムに対応する機能を実現する。すなわち、医用画像診断装置110に含まれる処理回路が、収集した医用画像に対して、画像処理の妥当性の検証を行う。
また、上述した実施形態では、画像処理装置130(或いは、医用画像診断装置110)が、学習時の処理及び運用時の処理の両方を行う場合の例を説明したが、実施形態はこれに限られるものではない。例えば、画像処理装置130(或いは、医用画像診断装置110)が有する機能のうち、学習済みモデルを生成する機能が、医療機関とは別の場所に設置されてネットワーク200を介して接続された他の装置(以下、モデル生成装置と呼ぶ)に実装されていてもよい。
かかる場合には、例えば、モデル生成装置が、定期的に、ネットワーク200を介して、各医用機関に設置された医用画像診断装置110から医用画像を収集して、学習済みモデルを生成又は更新する。そして、画像処理装置130が、モデル生成装置から最新の学習済みモデルを取得して、処理を実行する。
この場合に、例えば、画像処理システム100は、画像処理装置130(或いは、医用画像診断装置110)をクライアントとし、モデル生成装置をサーバとしたクライアントサーバシステムとして実現される。より具体的には、例えば、画像処理システム100(或いは、医用画像診断装置110)は、インターネット等を介して、モデル生成装置と画像処理装置130(或いは、医用画像診断装置110)とを接続したクラウドシステムとして実現される。この場合に、例えば、画像処理システム100は、クライアントである画像処理装置130(或いは、医用画像診断装置110)には必要最小限の処理を実行させ、サーバであるモデル生成装置に大部分の処理を実行させるシンクライアント(Thin Client)の形態で実現される。
また、上述した各実施形態では、本明細書における取得部、処理部、学習部、判定部及び決定部を、それぞれ、処理回路135の制御機能135a、画像処理機能135b、学習機能135c、判定機能135d及び決定機能135eによって実現する場合の例を説明したが、実施形態はこれに限られるものではない。例えば、本明細書における取得部、処理部、学習部、判定部及び決定部は、実施形態で述べた制御機能135a、画像処理機能135b、学習機能135c、判定機能135d及び決定機能135eによって実現する他にも、ハードウェアのみ、又は、ハードウェアとソフトウェアとの混合によって同機能を実現するものであっても構わない。
上述したように、処理回路135がプロセッサによって実現される場合には、処理回路135が有する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路132に記憶されている。そして、処理回路135は、記憶回路132から各プログラムを読み出して実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路135は、図1の処理回路135に示された各機能を有することとなる。なお、図1では、単一のプロセッサによって各処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路135が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、図1に示す例では、単一の記憶回路132が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路が個別の記憶回路から対応するプログラムを読み出す構成としても構わない。
なお、上述した説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは、記憶回路132に保存されたプログラムを読み出して実行することで、機能を実現する。なお、記憶回路132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合は、プロセッサは回路内に組み込まれたプログラムを読み出して実行することで機能を実現する。また、本実施形態のプロセッサは、単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。
ここで、プロセッサによって実行されるプログラム(画像処理プログラム)は、ROM(Read Only Memory)や記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)-ROM、FD(Flexible Disk)、CD-R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に保存され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。例えば、このプログラムは、上述した各機能部を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。
以上説明した少なくとも1つの実施形態によれば、画像に対する処理の結果の信頼性を向上させることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
100 画像処理システム
130 画像処理装置
132 記憶回路
135 処理回路
135a 制御機能
135b 画像処理機能
135c 学習機能
135d 判定機能
135e 決定機能

Claims (19)

  1. 医用画像の入力に応じて処理結果を出力する第1の学習済みモデルに対する入力画像及び当該入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果のうち少なくとも1つを取得する取得部と、
    前記第1の学習済みモデルに対する入力画像と当該入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果の精度を評価した評価情報とを学習データとして学習され、入力画像の入力に応じて前記第1の学習済みモデルによる処理結果の精度を評価した評価情報を出力する第2の学習済みモデルに対して、前記取得部によって取得された入力画像を入力する、又は、入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果と当該処理結果の精度を評価した評価情報とを学習データとして学習され、前記第1の学習済みモデルの処理結果の入力に応じて前記第1の学習済みモデルによる処理結果の精度を評価した評価情報を出力する第3の学習済みモデルに対して、前記取得部によって取得された処理結果を入力する、又は、前記第1の学習済みモデルに対する入力画像と当該入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果と当該処理結果の精度を評価した評価情報とを学習データとして学習され、入力画像及び前記第1の学習済みモデルの処理結果の入力に応じて第1の学習済みモデルによる処理結果の精度を評価した評価情報を出力する第4の学習済みモデルに対して、前記取得部によって取得された入力画像及び処理結果を入力することで、前記取得部によって取得された処理結果の精度を評価する評価情報を出力させ、当該評価情報を判定する判定部と、
    前記第2の学習済みモデル、前記第3の学習済みモデル又は前記第4の学習済みモデルの出力結果に基づく判定結果に応じた処理を決定する決定部と、
    を備える、画像処理装置。
  2. 前記第1の学習済みモデルは、前記入力画像の画質を変化させる画像処理後の出力画像を出力し、
    前記判定部は、前記入力画像及び前記出力画像のうち少なくとも1つを前記第2の学習済みモデル、前記第3の学習済みモデル又は前記第4の学習済みモデルに対して入力することで前記出力画像における画質の評価情報を出力させ、当該評価情報を判定し、
    前記決定部は、前記評価情報の判定結果に基づいて、前記入力画像に対する処理動作を決定する、請求項1に記載の画像処理装置。
  3. 前記決定部は、前記評価情報の判定結果が所定の評価を下回る場合に、前記取得部によって取得された前記入力画像を表示用の画像として決定し、前記評価情報の判定結果が前記所定の評価を上回る場合に、前記取得部によって取得された前記入力画像を前記第1の学習済みモデルに入力することで出力され出力画像を表示用の画像として決定する、請求項2に記載の画像処理装置。
  4. 前記決定部は、前記評価情報の判定結果が所定の評価を下回る場合に、前記取得部によって取得された前記入力画像に対して前記第1の学習済みモデルにおける画像処理とは異なる画像処理を施した処理後画像を表示用の画像として決定し、前記評価情報の判定結果が前記所定の評価を上回る場合に、前記取得部によって取得された前記入力画像を前記第1の学習済みモデルに入力することで出力され出力画像を表示用の画像として決定する、請求項2に記載の画像処理装置。
  5. 前記決定部は、前記取得部によって取得された前記入力画像に対して前記第1の学習済みモデルにおける画像処理とは異なる画像処理を施した処理後画像と、前記取得部によって取得された前記入力画像を前記第1の学習済みモデルに入力することで出力され出力画像とを、前記評価情報の判定結果に応じた混合比率で混合した混合画像を表示用の画像として決定する、請求項2に記載の画像処理装置。
  6. 前記判定部は、前記出力画像の画素ごとに、前記入力画像の画質を変化させる画像処理の精度を評価する評価情報を出力させ、当該評価情報を判定し、
    前記決定部は、前記画素ごとの前記評価情報の判定結果に基づいて、前記入力画像の画素ごとに処理動作を決定する、請求項2に記載の画像処理装置。
  7. 前記判定部は、前記画素ごとの評価情報を示す評価マップを生成する、請求項6に記載の画像処理装置。
  8. 前記決定部は、前記評価情報の判定結果が所定の評価を下回る画素について、前記取得部によって取得された前記入力画像の対応する画素を表示用の画素として決定し、前記評価情報の判定結果が前記所定の評価を上回る画素について、前記取得部によって取得された前記入力画像を前記第1の学習済みモデルに入力することで出力され出力画像の対応する画素を表示用の画素として決定する、請求項6又は7に記載の画像処理装置。
  9. 前記決定部は、前記評価情報の判定結果が所定の評価を下回る画素について、前記取得部によって取得された前記入力画像に対して前記第1の学習済みモデルにおける画像処理とは異なる画像処理を施した処理後画像の対応する画素を表示用の画素として決定し、前記評価情報の判定結果が前記所定の評価を上回る画素について、前記取得部によって取得された前記入力画像を前記第1の学習済みモデルに入力することで出力され出力画像の対応する画素を表示用の画素として決定する、請求項6又は7に記載の画像処理装置。
  10. 前記決定部は、前記取得部によって取得された前記入力画像に対して前記第1の学習済みモデルにおける画像処理とは異なる画像処理を施した処理後画像の各画素と、前記取得部によって取得された前記入力画像を前記第1の学習済みモデルに入力することで出力され出力画像の各画素とを、前記画素ごとの前記評価情報の判定結果に応じた混合比率で混合した混合画像を表示用の画像として決定する、請求項6又は7に記載の画像処理装置。
  11. 前記第2の学習済みモデル、前記第3の学習済みモデル及び前記第4の学習済みモデルは、前記出力画像における偽像の有無に関する評価情報を出力する、請求項2~10のいずれか1つに記載の画像処理装置。
  12. 前記第1の学習済みモデルは、前記入力画像の領域を分類してグループ分けさせる画像処理後の処理結果を出力し、
    前記判定部は、前記入力画像及び前記画像処理後の処理結果のうち少なくとも1つを前記第2の学習済みモデル、前記第3の学習済みモデル又は前記第4の学習済みモデルに対して入力することで前記画像処理後の処理結果における分類の精度を評価する評価情報を出力させ、当該評価情報を判定し、
    前記決定部は、前記評価情報の判定結果に基づいて、前記入力画像に対する処理動作を決定する、請求項1に記載の画像処理装置。
  13. 前記決定部は、前記評価情報の判定結果が所定の評価を下回る場合に、前記取得部によって取得された前記入力画像に対して前記第1の学習済みモデルによる画像処理とは異なる処理により領域の分類を施した処理結果を用いることを決定し、前記評価情報の判定結果が前記所定の評価を上回る場合に、前記取得部によって取得された前記入力画像を前記第1の学習済みモデルに入力することで出力され処理結果を用いることを決定する、請求項12に記載の画像処理装置。
  14. 前記第2の学習済みモデル、前記第3の学習済みモデル及び前記第4の学習済みモデルは、前記第1の学習済みモデルから出力される処理結果について複数の評価情報を出力し、
    前記判定部は、前記第2の学習済みモデル、前記第3の学習済みモデル又は前記第4の学習済みモデルから出力された複数の評価情報を統合して、前記第1の学習済みモデルから出力される処理結果の評価情報を判定する、請求項1~13のいずれか1つに記載の画像処理装置。
  15. 前記第2の学習済みモデル、前記第3の学習済みモデル及び前記第4の学習済みモデルを生成する学習部をさらに備える、請求項1~14のいずれか1つに記載の画像処理装置。
  16. 前記第1の学習済みモデルに対して前記入力画像を入力することで、前記処理結果を出力させる処理部をさらに備える、請求項1~15のいずれか1つに記載の画像処理装置。
  17. 前記評価情報は、少なくとも偽像が含まれる確率を含む、請求項11に記載の画像処理装置。
  18. 医用画像の入力に応じて処理結果を出力する第1の学習済みモデルに対して入力される入力画像を収集する収集部と、
    前記第1の学習済みモデルに対する入力画像と当該入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果の精度を評価した評価情報とを学習データとして学習され、入力画像の入力に応じて前記第1の学習済みモデルによる処理結果の精度を評価した評価情報を出力する第2の学習済みモデルに対して、前記収集部によって収集された入力画像を入力する、又は、入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果と当該処理結果の精度を評価した評価情報とを学習データとして学習され、前記第1の学習済みモデルの処理結果の入力に応じて前記第1の学習済みモデルによる処理結果の精度を評価した評価情報を出力する第3の学習済みモデルに対して、前記収集部によって収集された入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果を入力する、又は、前記第1の学習済みモデルに対する入力画像と当該入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果と当該処理結果の精度を評価した評価情報とを学習データとして学習され、入力画像及び前記第1の学習済みモデルの処理結果の入力に応じて第1の学習済みモデルによる処理結果の精度を評価した評価情報を出力する第4の学習済みモデルに対して、前記収集部によって収集された入力画像及び当該入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果を入力することで、前記収集部によって収集された入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果の精度を評価する評価情報を出力させ、当該評価情報を判定する判定部と、
    前記第2の学習済みモデル、前記第3の学習済みモデル又は前記第4の学習済みモデルの出力結果に基づく判定結果に応じた処理を決定する決定部と、
    を備える、医用画像診断装置。
  19. 医用画像の入力に応じて処理結果を出力する第1の学習済みモデルに対する入力画像及び当該入力画像の入力に応じて前記第1の学習済みモデルから出力された出力結果のうち少なくとも1つを取得する取得機能と、
    前記第1の学習済みモデルに対する入力画像と当該入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果の精度を評価した評価情報とを学習データとして学習され、入力画像の入力に応じて前記第1の学習済みモデルによる処理結果の精度を評価した評価情報を出力する第2の学習済みモデルに対して、前記取得機能によって取得された入力画像を入力する、又は、入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果と当該処理結果の精度を評価した評価情報とを学習データとして学習され、前記第1の学習済みモデルの処理結果の入力に応じて前記第1の学習済みモデルによる処理結果の精度を評価した評価情報を出力する第3の学習済みモデルに対して、前記取得機能によって取得された処理結果を入力する、又は、前記第1の学習済みモデルに対する入力画像と当該入力画像の入力に応じて前記第1の学習済みモデルから出力された処理結果と当該処理結果の精度を評価した評価情報とを学習データとして学習され、入力画像及び前記第1の学習済みモデルの処理結果の入力に応じて第1の学習済みモデルによる処理結果の精度を評価した評価情報を出力する第4の学習済みモデルに対して、前記取得機能によって取得された入力画像及び処理結果を入力することで、前記取得機能によって取得された処理結果の精度を評価する評価情報を出力させ、当該評価情報を判定する判定機能と、
    前記第2の学習済みモデル、前記第3の学習済みモデル又は前記第4の学習済みモデルの出力結果に基づく判定結果に応じた処理を決定する決定機能と、
    をコンピュータに実現させるための画像処理プログラム。
JP2019181185A 2019-10-01 2019-10-01 画像処理装置、医用画像診断装置及び画像処理プログラム Active JP7350595B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019181185A JP7350595B2 (ja) 2019-10-01 2019-10-01 画像処理装置、医用画像診断装置及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019181185A JP7350595B2 (ja) 2019-10-01 2019-10-01 画像処理装置、医用画像診断装置及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2021053256A JP2021053256A (ja) 2021-04-08
JP7350595B2 true JP7350595B2 (ja) 2023-09-26

Family

ID=75271787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019181185A Active JP7350595B2 (ja) 2019-10-01 2019-10-01 画像処理装置、医用画像診断装置及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP7350595B2 (ja)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264965A (ja) 2003-02-28 2004-09-24 Sony Corp 学習装置および方法、画像処理装置および方法、記録媒体、並びにプログラム
JP2009512528A (ja) 2005-10-25 2009-03-26 ブラッコ イメージング ソチエタ ペル アチオニ 診断画像の自動的処理および評価のための方法およびシステム
US20140233820A1 (en) 2012-11-01 2014-08-21 Virginia Commonweath University Segmentation and Fracture Detection in CT Images
JP2015503153A (ja) 2011-11-17 2015-01-29 ベイヤー メディカル ケア インク. 医療診断手順についての情報を収集し、報告し、管理する方法及び技法
US20180144465A1 (en) 2016-11-23 2018-05-24 General Electric Company Deep learning medical systems and methods for medical procedures
JP2019048060A (ja) 2013-03-15 2019-03-28 ハートフロー, インコーポレイテッド シミュレーションの正確度および性能に対する画質評価
JP2019093137A (ja) 2017-11-22 2019-06-20 ゼネラル・エレクトリック・カンパニイ 放射線学的所見のためのポイントオブケア警報を送達するためのシステムおよび方法
JP2019093126A (ja) 2017-11-24 2019-06-20 キヤノンメディカルシステムズ株式会社 医用データ処理装置、磁気共鳴イメージング装置及び学習済みモデル生成方法
JP2019111322A (ja) 2017-12-20 2019-07-11 キヤノンメディカルシステムズ株式会社 医用信号処理装置
US20190228547A1 (en) 2018-01-24 2019-07-25 New York University Systems and methods for diagnostic oriented image quality assessment
JP2019148473A (ja) 2018-02-27 2019-09-05 シスメックス株式会社 画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264965A (ja) 2003-02-28 2004-09-24 Sony Corp 学習装置および方法、画像処理装置および方法、記録媒体、並びにプログラム
JP2009512528A (ja) 2005-10-25 2009-03-26 ブラッコ イメージング ソチエタ ペル アチオニ 診断画像の自動的処理および評価のための方法およびシステム
JP2015503153A (ja) 2011-11-17 2015-01-29 ベイヤー メディカル ケア インク. 医療診断手順についての情報を収集し、報告し、管理する方法及び技法
US20140233820A1 (en) 2012-11-01 2014-08-21 Virginia Commonweath University Segmentation and Fracture Detection in CT Images
JP2019048060A (ja) 2013-03-15 2019-03-28 ハートフロー, インコーポレイテッド シミュレーションの正確度および性能に対する画質評価
US20180144465A1 (en) 2016-11-23 2018-05-24 General Electric Company Deep learning medical systems and methods for medical procedures
JP2019093137A (ja) 2017-11-22 2019-06-20 ゼネラル・エレクトリック・カンパニイ 放射線学的所見のためのポイントオブケア警報を送達するためのシステムおよび方法
JP2019093126A (ja) 2017-11-24 2019-06-20 キヤノンメディカルシステムズ株式会社 医用データ処理装置、磁気共鳴イメージング装置及び学習済みモデル生成方法
JP2019111322A (ja) 2017-12-20 2019-07-11 キヤノンメディカルシステムズ株式会社 医用信号処理装置
US20190228547A1 (en) 2018-01-24 2019-07-25 New York University Systems and methods for diagnostic oriented image quality assessment
JP2019148473A (ja) 2018-02-27 2019-09-05 シスメックス株式会社 画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム

Also Published As

Publication number Publication date
JP2021053256A (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
US11954902B2 (en) Generalizable medical image analysis using segmentation and classification neural networks
US10499857B1 (en) Medical protocol change in real-time imaging
US10853449B1 (en) Report formatting for automated or assisted analysis of medical imaging data and medical diagnosis
US10692602B1 (en) Structuring free text medical reports with forced taxonomies
US20200294288A1 (en) Systems and methods of computed tomography image reconstruction
US10997475B2 (en) COPD classification with machine-trained abnormality detection
JP7187244B2 (ja) 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
EP3893198A1 (en) Method and system for computer aided detection of abnormalities in image data
US11229377B2 (en) System and method for next-generation MRI spine evaluation
US20150173705A1 (en) Apparatus and method for adapting diagnostic model for computer-aided diagnosis
Gillmann et al. Uncertainty‐aware Visualization in Medical Imaging‐A Survey
WO2021021329A1 (en) System and method for interpretation of multiple medical images using deep learning
US20200311911A1 (en) Apparatus and method for training models
US20210383262A1 (en) System and method for evaluating a performance of explainability methods used with artificial neural networks
US20210142480A1 (en) Data processing method and apparatus
US20220375610A1 (en) Multi-Variable Heatmaps for Computer-Aided Diagnostic Models
EP4107662A1 (en) Out-of-distribution detection of input instances to a model
JP7350595B2 (ja) 画像処理装置、医用画像診断装置及び画像処理プログラム
US20230041575A1 (en) Ai-based region-of-interest masks for improved data reconstruction
US11244754B2 (en) Artificial neural network combining sensory signal classification and image generation
CN115482936A (zh) 用于评估医学图像数据的方法和设备
CN115393246A (zh) 图像分割系统及图像分割方法
EP4356837A1 (en) Medical image diagnosis system, medical image diagnosis system evaluation method, and program
Bel Bordes Fairness and Explainability in Chest X-ray Image Classifiers
US11923072B2 (en) Image diagnosis supporting device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230913

R150 Certificate of patent or registration of utility model

Ref document number: 7350595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150