JP7418730B2 - 医用画像処理装置、医用画像処理方法および医用画像処理プログラム - Google Patents

医用画像処理装置、医用画像処理方法および医用画像処理プログラム Download PDF

Info

Publication number
JP7418730B2
JP7418730B2 JP2019155519A JP2019155519A JP7418730B2 JP 7418730 B2 JP7418730 B2 JP 7418730B2 JP 2019155519 A JP2019155519 A JP 2019155519A JP 2019155519 A JP2019155519 A JP 2019155519A JP 7418730 B2 JP7418730 B2 JP 7418730B2
Authority
JP
Japan
Prior art keywords
image
model
medical image
images
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019155519A
Other languages
English (en)
Other versions
JP2021033826A (ja
Inventor
龍一 中原
圭一郎 西田
敏文 尾崎
義久 那須
達郎 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2019155519A priority Critical patent/JP7418730B2/ja
Publication of JP2021033826A publication Critical patent/JP2021033826A/ja
Application granted granted Critical
Publication of JP7418730B2 publication Critical patent/JP7418730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明の実施形態は、医用画像処理装置、医用画像処理方法および医用画像処理プログラムに関する。
機械学習の発展に伴い、画像処理分野において行われている機械学習の手法が医用分野にも適用されている。画像処理分野では、主にカラー画像に対する機械学習方法が研究されているが、医用分野における主な画像はグレースケール画像であるため、画像処理分野の機械学習の手法が必ずしも当てはまらない。例えば、画像処理分野で使用される機械学習の学習モデルとして、カラー画像のRGBそれぞれを入力するように、3チャネルの入力があるモデルを医用分野での機械学習に適用しようとすると、1チャネルにはグレースケール画像を入力するが、残り2チャネルは有効利用できない。
特開2019-97805号公報 特開2016-116843号公報 特表2019-500100号公報
本発明が解決しようとする課題は、モデルの入力チャネルを有効利用することである。
本実施形態に係る医用画像処理装置は、格納部、取得部及び生成部を含む。格納部は、解析結果を生成する複数の学習済みモデルと、入力画像から1以上の追加画像を生成するための複数のデータ処理方法と、を対応付けて格納する。取得部は、処理対象画像と学習済みモデルに関する選択情報とを取得する。生成部は、前記選択情報に基づき選択された学習済みモデルに対応するデータ処理方法により、前記処理対象画像から1以上の追加画像を生成する。
図1は、第1の実施形態に係る医用画像処理装置を示すブロック図である。 図2は、学習済みモデル生成システムの一例を示すブロック図である。 図3は、学習済みモデルの学習時の一例を示す図である。 図4は、学習済みモデルに関するテーブルの一例を示す図である。 図5は、第1の実施形態に係る医用画像処理装置の動作を示すフローチャートである。 図6は、本実施形態に係る学習済みモデルの利用時の一例を示す図である。 図7は、第2の実施形態に係る医用画像処理システムの一例を示すブロック図である。
以下、図面を参照しながら本実施形態に係る医用画像処理装置、医用画像処理方法および医用画像処理プログラムについて説明する。以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。以下、一実施形態について図面を用いて説明する。
(第1の実施形態)
第1の実施形態に係る医用画像処理装置について図1のブロック図を参照して説明する。
第1の実施形態に係る医用画像処理装置1は、処理回路10、メモリ12、入力インタフェース14および通信インタフェース16を含む。処理回路10、メモリ12、入力インタフェース14および通信インタフェース16は、例えばバスを介して、互いに通信可能に接続されている。
医用画像処理装置1は、ワークステーションに搭載されることを想定するが、医用撮像装置を搭載する医用画像診断装置(ガントリまたはコンソール)に搭載されてもよい。または、当該医用画像診断装置にケーブルやネットワーク等を介して通信可能に接続されたコンピュータに搭載されてもよい。
処理回路10は、CPU(Central Processing Unit)などのプロセッサであり、取得機能101、判定機能103、生成機能105、学習機能107及びモデル実行機能109を実行する。処理回路10は、メモリ12等に記憶されている上述の各機能に関するプログラムを実行することにより、上述の各機能を実現する。なお、各機能101から109までは単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより各機能101から109を実現するものとしても構わない。
取得機能101により処理回路10は、1つ以上の処理対象画像を取得し、学習済みモデルに関する選択情報を取得する。処理対象画像は、超音波画像、CT(Computed Tomography)画像、MR(Magnetic Resonance)画像、PET(Positron Emission Tomography)画像、およびSPECT(Single Photon Emission Computed Tomography)画像など、どのような医用画像であってもよい。
判定機能103により処理回路10は、1つ以上の処理対象画像が、選択された学習済みモデルの入力と整合するか否かを判定する。例えば、学習済みモデルの入力層のチャネル数と、処理対象画像の数とが一致するか否かを判定する。
生成機能105により処理回路10は、学習済みモデルの利用時には、選択情報に基づき選択された学習済みモデルに対応するデータ処理方法により、選択された学習済みモデルの入力に整合するように、処理対象画像から1つ以上の追加画像を生成する。モデルの学習時には、生成機能105により処理回路10は、モデルの入力に整合するように、モデルの用途に応じたデータ処理方法により前記処理対象画像から1つ以上の追加画像を生成する。
学習機能107により処理回路10は、処理対象画像と1つ以上の追加画像を入力データとし、処理対象画像の解析結果を正解データとする学習用データを用いてモデルを学習させ、学習済みモデルを生成する。
モデル実行機能109により処理回路10は、処理対象画像と1つ以上の追加画像とを選択された学習済みモデルに入力し、解析結果を得る。
メモリ12は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)および集積回路記憶装置等の記憶装置である。メモリ12は、上述した複数の学習済みモデルと複数のデータ処理方法とをそれぞれ対応付けて格納する。また、メモリ12は、学習用データを格納してもよいし、学習済みモデルを利用した際の、処理対象画像と1つ以上の追加画像と解析結果とを対応付けて格納してもよい。
また、メモリ12は、CD-ROMドライブ、DVDドライブ、及びフラッシュメモリ等の可搬型記憶媒体との間で種々の情報を読み書きする駆動装置等であってもよい。なお、メモリ12は、必ずしも単一の記憶装置により実現される必要は無い。例えば、メモリ12は、複数の記憶装置により実現されても構わない。また、メモリ12は、医用画像処理装置1にネットワークを介して接続された他のコンピュータ内にあってもよい。
入力インタフェース14は、ユーザからの各種指示や情報入力を受け付ける回路を有する。入力インタフェース14は、例えば、マウス等のポインティングデバイス、あるいはキーボード等の入力デバイスに関する回路を有する。なお、入力インタフェース14が有する回路は、マウス、キーボードなどの物理的な操作部品に関する回路に限定されない。例えば、入力インタフェース14は、医用画像処理装置1とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、受け取った電気信号を医用画像処理装置1内の種々の回路へ出力するような電気信号の処理回路を有していてもよい。
通信インタフェース16は、有線または無線により外部装置とデータのやり取りを実行する。
なお、第1の実施形態では、医用画像処理装置1において、モデルの学習と学習済みモデルの利用とを行う場合を想定するが、学習用データの生成は医用画像処理装置1で行ない、モデルの学習を外部装置で行なってもよい。また、学習用データの生成およびモデルの学習は外部装置で行ない、学習結果である学習済みモデルをメモリ12に格納してもよい。
次に、学習用データの生成およびモデルの学習を外部装置で行う場合について、図2の学習済みモデル生成システムを参照して説明する。
図2に示す学習済みモデル生成システムは、学習用データ生成装置20と、学習用データ保管装置22と、モデル学習装置24と、医用画像処理装置1とを含む。
学習用データ生成装置20は、入力画像と当該入力画像にデータ処理を実行することで生成される1つ以上の追加画像とを入力データとし、入力画像に対して学習済みモデルを適用することによって取得したい解析結果(分類結果、正解画像など)を正解データとした1組の学習用データを、複数組生成する。
学習用データ保管装置22は、学習用データ生成装置20において生成された学習用データを記憶する。例えば、学習用データ保管装置22は、大容量記憶装置が内蔵されたコンピュータである。また、学習用データ保管装置22は、コンピュータにケーブルや通信ネットワークを介して通信可能に接続された大容量記憶装置であってもよい。当該記憶装置としては、HDD、SSD、集積回路記憶装置などが適宜利用可能である。
モデル学習装置24は、学習用データ保管装置22に記憶された学習用データに基づいて、モデル学習プログラムに従いモデルに機械学習を行わせることで、学習済みモデルを生成する。本実施形態に係るモデルとしては、一般的な画像処理で用いられるニューラルネットワーク、つまりディープラーニングで用いられる多層ネットワークを想定する。具体的には、例えば、ResNet(Residual Network)、DenseNetなどの深層畳み込みネットワーク(DCNN:Deep Convolutional Neural Network)、U-netなどのエンコーダデコーダネットワークを用いればよい。なお、多層ネットワークに限らず、例えば腫瘍の有無を決定する分類を行う場合など学習済みモデルを適用する目的に合わせて、SVM(Support Vector Machine)、決定木、カーネル回帰など学習用データから何らかの特徴を学習できる他の機械学習アルゴリズムを用いてもよい。
モデル学習装置24は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の汎用プロセッサ、または機械学習専用に構成されたプロセッサを有するワークステーション等のコンピュータでもよい。
医用画像処理装置1は、モデル学習装置24が生成した学習済みモデルをメモリ12に格納する。なお、学習済みモデルは、モデル学習装置24、学習用データ保管装置22その他の外部装置に格納され、医用画像処理装置1が学習済みモデルを利用する際に当該外部装置を参照してもよい。
また、医用画像処理装置1とモデル学習装置24とはケーブル、または通信ネットワークを介して通信可能に接続されてもよい。モデル学習装置24で生成された学習済みモデルが医用画像処理装置1へ供給され、学習済みモデルが医用画像処理装置1のメモリ12に記憶される。なお、医用画像処理装置1とモデル学習装置24とは、必ずしも通信可能に接続されてなくてもよい。この場合、学習済みモデルが記憶された可搬型記憶媒体等を介して、モデル学習装置24から医用画像処理装置1へ学習済みモデルが供給される。
モデル学習装置24と学習用データ保管装置22とはケーブル、または通信ネットワークを介して通信可能に接続されてもよい。また、学習用データ保管装置22がモデル学習装置24に搭載されてもよい。これらの場合、学習用データ保管装置22からモデル学習装置24へ学習用データが供給される。なお、モデル学習装置24と学習用データ保管装置22とは通信可能に接続されてなくてもよい。この場合、学習用データが記憶された可搬型記憶媒体を介して、学習用データ保管装置22からモデル学習装置24へ学習用データが供給される。
また、上述した、学習用データ生成装置20と、学習用データ保管装置22と、モデル学習装置24とは、別個の装置として説明したが、上記3つの装置が1つの装置で構成されてもよい。また、上記3つの装置のうちの2つの装置が1つの装置で構成されてもよい。
次に、本実施形態に係る学習済みモデルの学習時の一例について、図3の概念図を参照して説明する。
ここでは、学習済みモデルの用途として、病変を検出する用途、具体的には肝臓のCT画像から腫瘍の領域を検出することを想定する。また、学習前のモデルである多層ネットワーク301の両端には、ネットワークの入力層3011と出力層3013とが模式的に描出される。ここでは、入力層3011は3チャネルのデータが入力され、出力層3013は1チャネルのデータが出力されるモデルであることを示す。なお、モデルからの出力は、腫瘍の領域を示した画像に限られない。例えば、画像中に病変が含まれるか否かを示す情報を解析結果として出力してもよい。また、画像中に含まれる病変の種類を特定して、特定した病変の種類を解析結果として出力してもよい。あるいは、画像中に含まれる病変に関する数値パラメータをテキストやグラフ表示など他の出力形式で出力するものであってもよい。
多層ネットワーク301のモデルの学習においては、複数の画像を入力データとし、解析結果を正解データとした学習用データを用いて、多層ネットワーク301を学習させる。入力層3011の構成が3チャネルとなっている多層ネットワーク301を使用する場合には、入力層3011の構成に合わせ3チャネル分の入力データが必要となる。通常のCT画像は、グレースケールの画像であり、1チャネル分の入力データしかないため、多層ネットワーク301の入力に整合するように、入力層3011のチャネル相当分の画像を加工する必要がある。
図3の例では、入力データとなる複数の画像は、1つの入力画像303と、当該入力画像303から生成される2つの追加画像305とを含む。追加画像を生成するためのデータ処理方法としては、例えば、病変検出といった診断および読影ガイドラインで設定されるパラメータを用いて処理される画像加工方法、または、医師による読影でよく使用される画像加工方法、つまり人間が解析画像を生成するときに使用される画像加工方法を用いればよい。ここでは、具体例として、ウィンドウレベル(WL)およびウィンドウ幅(WW)を調整することにより画像を加工することを想定する。
なお、データ処理方法として、ウィンドウレベルおよびウィンドウ幅を変更することに限らず、リサイズや、ノイズフィルタ、またはスライス厚の変更若しくはカラーテーブルの値の変更など、入力画像に基づいて画像のバリエーションを増やせる手法であれば、どのようなデータ処理方法でもよい。
また、医師が学習済みモデルからの出力画像を確認することを前提とする場合は、多層ネットワーク301の入力データおよび出力データとして、人が見やすい画像、すなわち対象病変の診断を行う際によく用いられるデータ処理を施した画像を入力および出力するようにしてもよい。
図3の例では、入力画像のウィンドウレベル(WL)が「40」であり、ウィンドウ幅(WW)が「400」とする。以下、ウィンドウレベルおよびウィンドウ幅については「WL40/WW400」のように表記する。
肝臓読影の場合は、「WL40/WW400」のCT画像が主に用いられると想定されるが、WLを100下げるような調整されたCT画像を読影する場合もある。よって、当該「WL40/WW400」を入力画像303として、ウィンドウレベルをプラス側およびマイナス側に100ずつ振った、2種類のCT画像が追加画像305として生成される。すなわち、追加画像305として、「WL-60/WW400」のCT画像と、「WL140/WW400」のCT画像とが生成される。
他の具体例として、塞栓物質を投入してCT画像を撮影する場合では、標準的な「WL40/WW400」のCT画像では、治療前と治療後とで疾患部の見え方が同じ状態となってしまう。この場合、読影時にはウィンドウレベルを落とし、ウィンドウ幅を狭めると構造物が見やすくなるため、「WL20/WW300」のCT画像および「WL20/WW200」のCT画像を追加画像305として生成すればよい。
なお、多層ネットワーク301を学習させる際、追加画像の生成方法として複数種類のデータ処理方法を適用し、最も性能の良い学習済みモデルを適用してもよい。
例えば、生成機能105により処理回路10が、1つ目のデータ処理方法として、ウィンドウ幅を変更する場合、入力画像である「WL40/WW400」のCT画像の他に、「WL40/WW300」および「WL40/WW200」のCT画像を追加画像として生成する。学習機能107により処理回路10は、当該入力画像と当該追加画像とを入力データとし、入力画像の解析結果を正解データとした第1の学習用データにより多層ネットワーク301を学習させ、第1の学習済みモデル候補を生成する。
2つ目のデータ処理方法として、ウィンドウレベルを変更する場合、生成機能105により処理回路10が、入力画像である「WL40/WW400」のCT画像の他に、「WL30/WW400」および「WL20/WW400」のCT画像を追加画像として生成する。学習機能107により処理回路10は、当該入力画像と当該追加画像とを入力データとし、入力画像の解析結果を正解データとした第2の学習用データにより多層ネットワーク301を学習させ、第2の学習済みモデル候補を生成する。なお、多層ネットワーク301の構成と正解データとは、データ処理方法の種類によらず同じものを用いる。
上述のように複数種類のデータ処理方法に基づいて生成された学習済みモデル候補に対し、学習機能107により処理回路10は、生成された複数の学習済みモデル候補に対して、同一のテストデータを用いて各学習済みモデル候補の正答率を算出する。学習機能107により処理回路10が、複数の学習済みモデル候補の中から正答率が最も高い学習済みモデル候補を、最終的な学習済みモデルとして決定する。
なお、複数種類のデータ処理方法の設定例としては、上述の例ではウィンドウレベルおよびウィンドウ幅について所定の振り幅を設定しておき、振り幅に応じてデータ処理を実行し、追加画像を生成すればよい。
また、学習済みモデルからの出力が1チャネルであることを想定するが、入力画像ごと処理対象画像および追加画像のそれぞれについて解析結果を出力してもよい。さらに、出力された複数の解析結果は、多数決によりユーザに提示すべき解析結果を絞って出力してもよい。
次に、第1の実施形態に係る学習済みモデルに関するテーブルの一例について図4を参照して説明する。
図4に示すテーブル400は、学習済みモデルを識別するためのモデルIDと、被検体に関する対象部位と、学習済みモデルの用途と、追加画像を生成するためのデータ処理方法(パラメータを含む)と、データ処理方法を調整するための撮像条件とをそれぞれ対応付けて格納する。
なお、複数種類のデータ処理方法から最適な学習済みモデルを決定した場合は、正答率が最も高い学習済みモデルが得られたときのデータ処理方法を、当該学習済みモデルと対応付けてテーブル400に格納すればよい。また、データ処理方法の項目には、データ処理方法に基づく複数画像の種類が格納されてもよい。
例えば、モデルID「AI_a」、対象部位「肝臓」、用途「腫瘍検出」、データ処理方法「1.WL40/WW300,2.WL40/WW200」、撮像条件「管電圧、管電流・・・」がそれぞれ対応付けられて、テーブル400に格納される。
データ処理方法は、追加画像を生成するための画像処理の種類が格納される。なお、複数の追加画像を生成するためのパラメータが格納されてもよい。図4の例では、ウィンドウ幅として「WW300」と「WW200」とが記載されるように、異なるパラメータ値を格納する。
撮像条件は、当該撮像条件に与えられた値に応じてデータ処理方法のパラメータを変更すべきであることを示す。例えば、撮影プロトコルおよび撮像条件が決定した場合、当該撮像条件として与えられたパラメータの1つである管電流がモデルの学習時に用いたCT画像に使用された値に比べ、高い値が設定されている場合を想定する。この場合、撮像条件の管電流の値と当該CT値とに応じてウィンドウレベルを調整すればよい。
なお、モデルの学習時においては、学習前のモデルID、対象部位、用途およびデータ処理方法がそれぞれ対応付けられたテーブルを用意しておき、当該テーブルを参照し、どのようなデータ処理方法で追加画像を生成すればよいかが決定されてもよい。
次に、第1の実施形態に係る医用画像処理装置1の動作について図5のフローチャートを参照して説明する。
ステップS501では、取得機能101により処理回路10が、1つ以上の処理対象画像を取得する。
ステップS502では、取得機能101により処理回路10が、処理対象画像に適用する学習済みモデルを選択する。学習済みモデルの選択方法は、例えば、図4に示すテーブルの対象部位および用途などが参照されることで、入力インタフェース14を介してユーザからの学習済みモデルの選択結果を取得する。または、ユーザに入力に限らず、取得機能101により処理回路10が、検査オーダ情報に記載される部位や症例に関する情報を抽出し、抽出された情報と図4に示すテーブルとを比較することにより、対応する学習済みモデルが自動的に選択されてもよい。
ステップS503では、取得機能101により処理回路10が、選択された学習済みモデルに対応するデータ処理方法を取得する。ここでは、図4に示すテーブルから、選択された学習済みモデルに対応するデータ処理方法が取得される。
ステップS504では、判定機能103により処理回路10が、1つ以上の処理対象画像が、選択された学習済みモデルの入力と整合するか否かを判定する。言い換えれば、判定機能103により、1以上の処理対象画像と選択された学習済みモデルの入力とを比較し、処理対象画像の数が学習済みモデルの入力層のチャネル数に一致し、かつ処理対象画像が当該学習済みモデルを学習した際のデータ処理方法により生成されるべき追加画像が存在するか否か(データ処理方法で規定されるパラメータにより得られる画像と一致するか否か)を判定する。例えば、2つの処理対象画像を取得し、一方はそのまま学習済みモデルに入力するデフォルトの処理対象画像であり、他方はデフォルトの処理対象画像からユーザが画像処理した画像である場合を想定する。判定機能103により処理回路10は、図4に示すテーブルを参照して、ユーザが画像処理した画像が、テーブルに格納されるデータ処理方法により生成されるべき画像(画像の種類)と一致する場合、処理対象画像が当該学習済みモデルを学習した際のデータ処理方法により生成されるべき追加画像と一致すると判定すればよい。
学習済みモデルの入力と整合する場合、ステップS506に進み、学習済みモデルの入力と整合しない、例えば処理対象画像の数が足りない場合、または処理対象画像の数が足りていてもデータ処理方法により生成されるべき追加画像が存在しない場合、ステップS505に進む。
ステップS505では、生成機能105により処理回路10が、データ処理方法を用いて、学習済みモデルに入力として不足する追加画像を生成する。なお、複数の処理対象画像が取得された場合であって、ある処理対象画像がデータ処理方法により生成されるべき追加画像に一致しない場合は、追加画像に一致しない処理対象画像を学習済みモデルへの入力に用いない。
ステップS506では、モデル実行機能109により処理回路10が、処理対象画像を選択された学習済みモデルに入力し、出力となる解析結果を得る。または追加画像が生成された場合は、モデル実行機能109により処理回路10が、処理対象画像と追加画像とを学習済みモデルに入力し、解析結果を得る。
次に、本実施形態に係る学習済みモデルの利用時の一例について、図6を参照して説明する。
図6は、学習済みモデルに対して処理対象画像を入力する場合を示す。ここでは、学習済みモデルの用途として「腫瘍検出」を実行し、データ処理方法としてウィンドウレベルおよびウィンドウ幅を調整する方法を想定する。学習済みモデルの入力層3011のチャネルは3チャネルである。
ここで、判定機能103により処理回路10が、処理対象画像が1チャネル分であり、あと2チャネル分の追加画像が必要であると判定し、データ処理方法に従って追加画像602および追加画像603を生成する。
処理対象画像601と、図4に示すテーブルのデータ処理方法を満たす2つの追加画像602および追加画像603とが、学習済みモデルの入力層3011に入力される。なお、処理対象画像601、追加画像602および追加画像603では、画像におけるウィンドウレベルおよびウィンドウ幅の違いをハッチングにより区別するものとする。
結果として、2種類の処理対象画像601、追加画像602および追加画像603を入力画像として学習済みモデルに入力し、解析画像604を得ることができる。
学習済みモデルの解析結果として、解析画像604には、腫瘍と想定される領域を示すマーカと、当該領域が腫瘍である可能性を示す確率とが重畳表示される。
以上に示した第1の実施形態によれば、学習済みモデルの学習時において、モデルの構成にあわせて、入力画像に対して、画像処理に関するデータ処理方法を適用することにより、複数の追加画像を生成する。これにより、入力画像だけではなく、例えば学習済みモデルの用途に応じて画像のバリエーションを増やすことができ、より情報量の多い精度の高い学習をすることができる。
さらに、学習済みモデルの利用時においては、処理対象画像に対して学習時と同様にデータ処理方法を適用することにより、学習済みモデルの入力チャネルにあわせて処理対象画像のバリエーションを増やした追加画像を生成する。これにより、学習済みモデルの処理精度を高めることができる。結果として、モデルの入力チャネルを有効利用することができる。
(第2の実施形態)
第2の実施形態では、医用画像処理装置とCTまたはMRなどの医用画像診断装置とがネットワークを介して接続された、医用画像処理システムの構成例について図7を参照して説明する。
第2の実施形態に係る医用画像処理システムは、医用画像処理装置1と、1つ以上の医用画像診断装置50とが、ネットワーク3を介して接続される。
医用画像処理装置1は、医用画像診断装置50で撮影された医用画像をネットワーク3を介して受信する。学習済みモデルも学習時であれば、受信した医用画像を入力画像として第1の実施形態で示したモデルの学習を実行すればよい。また、学習済みモデルの利用時であれば、受信した医用画像を処理対象画像として、学習済みモデルを用いて解析結果を生成すればよい。なお、解析結果を医用画像診断装置50に送信し、医用画像を撮影した装置本体で即時に学習済みモデルを利用した解析結果を出力および表示できるようにしてもよい。
以上に示した第2の実施形態によれば、医用画像診断装置で撮影した医用画像を、ネットワークを介して医用画像処理装置に送信する。第1の実施形態と同様に、医用情報処理装置では、医用画像を入力画像とし、さらに入力画像からデータ処理方法に従って追加画像を生成してモデルを学習することで、モデルの入力チャネルを有効利用することができる。また、医用画像処理装置が学習済みモデルによる解析結果を生成し、ネットワークを介して医用画像診断装置に解析結果を送信する。これにより、医用画像診断装置では、メモリおよび計算に関するコストを低減しつつ、高精度な解析結果を取得できる。
すなわち、以上に示した少なくとも1つの実施形態によれば、モデルの入力チャネルを有効利用することができる。
加えて、実施形態に係る各機能は、前記処理を実行するプログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。このとき、コンピュータに前記手法を実行させることのできるプログラムは、磁気ディスク(ハードディスクなど)、光ディスク(CD-ROM、DVDなど)、半導体メモリなどの記憶媒体に格納して頒布することも可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 医用画像処理装置
3 ネットワーク
10 処理回路
12 メモリ
14 入力インタフェース
16 通信インタフェース
20 学習用データ生成装置
22 学習用データ保管装置
24 モデル学習装置
50 医用画像診断装置
101 取得機能
103 判定機能
105 生成機能
107 学習機能
109 モデル実行機能
301 多層ネットワーク
303 入力画像
305 追加画像
400 テーブル
601 処理対象画像
602,603 追加画像
604 解析画像
3011 入力層
3013 出力層

Claims (7)

  1. 解析結果を生成する複数の学習済みモデルと、入力画像から1以上の追加画像を生成するための複数のデータ処理方法と、を対応付けて格納する第1格納部と、
    処理対象画像と学習済みモデルに関する選択情報とを取得する取得部と、
    前記選択情報に基づき選択された学習済みモデルに対応するデータ処理方法により、前記処理対象画像から1以上の追加画像を生成する生成部と、
    を具備する医用画像処理装置。
  2. 前記生成部は、前記処理対象画像と、前記選択された学習済みモデルの入力とを比較し、前記選択された学習済みモデルの入力に整合するデータとなるように、前記データ処理方法により前記1以上の追加画像を生成する、請求項1に記載の医用画像処理装置。
  3. 学習済みモデルごとに、対応するデータ処理方法に基づく複数画像の種類を対応付けて格納する第2格納部をさらに具備し、
    前記生成部は、複数の処理対象画像が入力された場合、前記第2格納部に格納された複数画像の種類と、入力された複数の処理対象画像とを比較し、前記複数の処理対象画像の中に、前記選択された学習済みモデルに対応するデータ処理方法により生成されるべき種類の画像が存在しない場合、前記存在しない画像を生成する、請求項1または請求項2に記載の医用画像処理装置。
  4. 前記処理対象画像と前記1以上の追加画像とを前記選択された学習済みモデルに入力し、解析結果を得るモデル実行部をさらに具備する、請求項1から請求項3のいずれか1項に記載の医用画像処理装置。
  5. 前記学習済みモデルは病変を検出するものであり、
    前記1以上の追加画像のうちの少なくとも1つは、病変検出に関するガイドラインに設定されるパラメータを用いて生成される画像である、請求項1から請求項4のいずれか1項に記載の医用画像処理装置。
  6. 格納部が、解析結果を生成する複数の学習済みモデルと、入力画像から1以上の追加画像を生成するための複数のデータ処理方法と、を対応付けて格納し、
    取得部が、処理対象画像と学習済みモデルに関する選択情報とを取得し、
    生成部が、前記選択情報に基づき選択された学習済みモデルに対応するデータ処理方法により、前記処理対象画像から1以上の追加画像を生成する医用画像処理方法。
  7. コンピュータに、
    解析結果を生成する複数の学習済みモデルと、入力画像から1以上の追加画像を生成するための複数のデータ処理方法と、を対応付けて格納する格納機能と、
    処理対象画像と学習済みモデルに関する選択情報とを取得する取得機能と、
    前記選択情報に基づき選択された学習済みモデルに対応するデータ処理方法により、前記処理対象画像から1以上の追加画像を生成する生成機能と、
    を実現させるための医用画像処理プログラム。
JP2019155519A 2019-08-28 2019-08-28 医用画像処理装置、医用画像処理方法および医用画像処理プログラム Active JP7418730B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019155519A JP7418730B2 (ja) 2019-08-28 2019-08-28 医用画像処理装置、医用画像処理方法および医用画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019155519A JP7418730B2 (ja) 2019-08-28 2019-08-28 医用画像処理装置、医用画像処理方法および医用画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2021033826A JP2021033826A (ja) 2021-03-01
JP7418730B2 true JP7418730B2 (ja) 2024-01-22

Family

ID=74676626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019155519A Active JP7418730B2 (ja) 2019-08-28 2019-08-28 医用画像処理装置、医用画像処理方法および医用画像処理プログラム

Country Status (1)

Country Link
JP (1) JP7418730B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006043007A (ja) 2004-08-02 2006-02-16 Fujitsu Ltd 診断支援プログラムおよび診断支援装置
WO2018180386A1 (ja) 2017-03-30 2018-10-04 国立研究開発法人産業技術総合研究所 超音波画像診断支援方法、およびシステム
JP2019118670A (ja) 2018-01-09 2019-07-22 カシオ計算機株式会社 診断支援装置、画像処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006043007A (ja) 2004-08-02 2006-02-16 Fujitsu Ltd 診断支援プログラムおよび診断支援装置
WO2018180386A1 (ja) 2017-03-30 2018-10-04 国立研究開発法人産業技術総合研究所 超音波画像診断支援方法、およびシステム
JP2019118670A (ja) 2018-01-09 2019-07-22 カシオ計算機株式会社 診断支援装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2021033826A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
JP7053541B2 (ja) 患者固有の深層学習画像ノイズ除去方法およびシステム
US11069056B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
JP4949264B2 (ja) 医療画像データ内の腫瘍境界を自動的に検出及び区分するシステム及び方法
US9317918B2 (en) Apparatus, method, and computer program product for medical diagnostic imaging assistance
KR20200089146A (ko) 의료 영상 처리 장치 및 방법
US20150173705A1 (en) Apparatus and method for adapting diagnostic model for computer-aided diagnosis
CN111563523A (zh) 利用机器训练的异常检测的copd分类
JP5943353B2 (ja) 画像処理装置及び画像処理方法
JP7140630B2 (ja) 画像処理装置、データ生成装置及びプログラム
CN116848588A (zh) 医学图像中的健康状况特征的自动标注
JP2024009342A (ja) 文書作成支援装置、方法およびプログラム
Fontanella et al. Diffusion models for counterfactual generation and anomaly detection in brain images
JP6810212B2 (ja) 画像識別方法及び画像識別装置
CN112750519A (zh) 医学图像数据的匿名化
JP7418730B2 (ja) 医用画像処理装置、医用画像処理方法および医用画像処理プログラム
US20220392619A1 (en) Information processing apparatus, method, and program
EP4293615A1 (en) Learning device, learning method, trained model, and program
US20220036558A1 (en) Method and system for predicting expression of biomarker from medical image
JP2022117177A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN115393246A (zh) 图像分割系统及图像分割方法
US20240037739A1 (en) Image processing apparatus, image processing method, and image processing program
WO2022070574A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7483502B2 (ja) 画像診断支援装置および画像診断支援方法
US11923072B2 (en) Image diagnosis supporting device and image processing method
EP4356837A1 (en) Medical image diagnosis system, medical image diagnosis system evaluation method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220722

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231226

R150 Certificate of patent or registration of utility model

Ref document number: 7418730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150