JP7462188B2 - 医用画像処理装置、医用画像処理方法、およびプログラム - Google Patents

医用画像処理装置、医用画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7462188B2
JP7462188B2 JP2021039923A JP2021039923A JP7462188B2 JP 7462188 B2 JP7462188 B2 JP 7462188B2 JP 2021039923 A JP2021039923 A JP 2021039923A JP 2021039923 A JP2021039923 A JP 2021039923A JP 7462188 B2 JP7462188 B2 JP 7462188B2
Authority
JP
Japan
Prior art keywords
image
images
neural network
affected area
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021039923A
Other languages
English (en)
Other versions
JP2022139503A (ja
Inventor
正 北村
修二 庄司
Original Assignee
株式会社スペック・システム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社スペック・システム filed Critical 株式会社スペック・システム
Priority to JP2021039923A priority Critical patent/JP7462188B2/ja
Publication of JP2022139503A publication Critical patent/JP2022139503A/ja
Application granted granted Critical
Publication of JP7462188B2 publication Critical patent/JP7462188B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、医用画像から患部を特定する医用画像処理技術に関する。
医療分野においては、被検者の患部を特定したり、患部の程度を観察したりするために、様々な撮影装置によって画像が取得され、医療従事者が観察したい患部を目視で特定する画像診断が行われている。
撮影装置の種類には、例えば放射線科分野では、X線撮影装置、X線コンピュータ断層撮影(CT)装置、磁気共鳴イメージング(MRI)装置、陽電子放出断層撮影(PET)等がある。
「U-Net: Convolutional Networks for Biomedical Image Segmentation」、著者 Olaf Ronneberger, Philipp Fischer, Thomas Brox、〈URL: https://link.springer.com/chapter/10.1007/978-3-319-24574-4_28〉
大きな患部であれば、正確に、短時間で画像診断することは容易である。しかし、肺癌の初期では、患部は微細であり球状をしている。平面方向に2、3画素以下、深さ方向に2、3画素の患部を全て特定することは容易ではない。特に画素値の違いが大きくない低コントラスト画像の場合はより容易ではない。
これらの患部を特定するためには、画像を精細に観察する必要があり画像診断に長い時間が必要になる。また、画像診断には熟練が必要とされる。これらの問題の解決のために画像診断の自動化が求められている。
そこで、本発明は、画像から患部を自動的に正確に特定することができる技術を提供する。
一態様では、3次元医用画像から患部を特定するニューラルネットワークと、前記ニューラルネットワークに入力される入力画像の前処理を実施する第1フィルターと、前記ニューラルネットワークから出力された出力画像の後処理を実施する第2フィルターと、ラベリングで得られた領域を前記出力画像から抽出する抽出機能と、前記抽出された領域を前記抽出された領域から得られる数値を使って分類する分類機能を具備する患部特定部を備えた、医用画像処理装置が提供される。
一態様では、画像処理装置は、CT装置と、CT装置が取得した画像を格納する画像サーバーと、画像を表示し操作する画像ビューワーと、画像サーバーのデータベースを制御するデータベース制御部と、DICOM規格(Digital Imaging and Communication in Medicine)に準拠した3次元画像を制御するDICOM制御部と、U-netを使った患部特定部と、患部特定部を制御する患部特定制御部と、を備える。
一態様では、3次元医用画像からなる入力画像の前処理を実施し、前記前処理された入力画像をニューラルネットワークに入力し、患部が特定された出力画像を前記ニューラルネットワークから出力し、前記出力画像の後処理を実施し、ラベリングで得られた領域を前記出力画像から抽出し、前記抽出された領域を前記抽出された領域から得られる数値を使って分類する、医用画像処理方法が提供される。
一態様では、3次元医用画像からなる入力画像の前処理を実施するステップと、前記前処理された入力画像をニューラルネットワークに入力するステップと、患部が特定された出力画像を前記ニューラルネットワークから出力するステップと、前記出力画像の後処理を実施するステップと、ラベリングで得られた領域を前記出力画像から抽出するステップと、前記抽出された領域を前記抽出された領域から得られる数値を使って分類するするステップをコンピュータに実行させるためのプログラムが提供される。
本発明によれば、撮影装置から得られる画像と熟練した医療従事者が作成した患部の形状をニューラルネットワークで学習させ、学習済みモデルであるニューラルネットワークを使って画像から患部を自動的に正確に特定することができる。
医用画像処理装置の一実施形態を示す模式図である。 CT装置によって取得された患部の画像の一例を示す模式図である。 患部特定部の動作の一実施形態を示すフローチャートである。 モフォロジー処理の一実施形態を示す模式図である。 患部特定部の動作の一実施形態を示す模式図である。 入力画像であるCT画像に膨張処理をし、出力画像である患部画像に縮小処理をした一実施形態を示す模式図である。 ラベリングで得られた領域の例を示す模式図である。 図5で示した患部特定部で使用するU-netの重みを学習する方法の一実施形態を示す模式図である。
以下、本発明の実施形態について図面を参照して説明する。
図1は、医用画像処理装置の一実施形態を示す模式図である。医療従事者が撮影装置として使用するCT装置101を操作すると、CT装置101が取得した画像は画像サーバー102にアップロードされる。医療従事者が画像ビューワー103を操作すると、画像ビューワー103は、画像サーバー102の中のデータベースから、データベース制御部104を経由して画像を取得する。取得された画像は、DICOM規格に準拠した3次元画像であり、DICOM制御部104により画像ビューワー103で扱えるフォーマットに変換され、画像は画像ビューワー103上に表示される。
医療従事者が画像ビューワー103を使って画像サーバー102の中の画像から患部を特定したい画像を指定すると、その画像は患部特定制御部106を経由してU-netを使った患部特定部107へ送られる。特定した患部領域は、患部特定制御部106およびデータベース制御部104を経由して画像サーバー102にアップロードされる。
3次元画像の要素はボクセルと呼ばれるが、本実施例では画素として記載する。また、3次元画像は単に画像として記載する。
図2は、CT装置101によって取得された患部の画像の一例を示す模式図である。図2に示す画像は、CT装置101が撮像した肺の3次元画像のなかの1枚である。白い部分は組織であり、黒い部分は空気である。組織には血管201や横隔膜202などがある。患部の例として、孤立した患部203、横隔膜上の患部204、組織に付着した患部205が含まれる。
図3は、患部特定部107の動作の一実施形態を示すフローチャートである。医療従事者が画像ビューワー103を使って患部を特定したい画像を指定すると、画像ビューワー103は指定された画像を患部特定制御部106を経由して患部特定部107に送る。送られた画像は2バイトの整数値の画素値データの集まりである。
患部特定部107は、送られた画像の画素値を0から255の1バイトの画素値に変換し、1バイトの画像にする(ステップS301)。画素値の変換方法の例として以下の方法が使用できる。
変換前の2バイトの画像の画素値をx、変換後の1バイトの画像の画値をyとする。まず、画値xの存在範囲の中の値x,x(x<x)を決める。
0≦x≦xの場合、y=0
≦x≦xの場合、y=ROUND((x-x)/255.0)
ただし、ROUNDは四捨五入関数
≦xの場合、y=255
次に、患部特定部107は、変換画像に画像フィルター処理を実施する(ステップS302)。この画像フィルター処理は、後述のU-netに入力される変換画像(入力画像)を前処理するためのフィルター処理である。画像フィルター処理として、ガンマ補正などの画素値補正処理、スムージングフィルタ、メディアンフィルタ、モフォロジー処理、アンシャープマスク処理などの先鋭化処理などが使用できる。
本実施例では、前処理は、変換画像に実施したが、変換前の2バイトの画像に前処理を実施してもよい。この場合は、四捨五入誤差が小さくなる。
後述のU-netでは特定が困難な低コントラスト画像に存在する微小な患部部分に対しては、モフォロジー処理の一つである膨張処理(dilation)が有効である。膨張処理により微小な患部部分が拡大され、やや大きな患部部分にU-netが実施されるので患部部分が特定できるようになる。
また、微小な患部部分を無視したい場合は、縮小処理(Erosion)が有効である。
図4は、モフォロジー処理の一実施形態を示す模式図である。処理対象の画像の画素の画素値をIとする。処理対象の画像の前、上、左、右、下、後の画像の画素の画素値をそれぞれ、I,I,I,I,I,Iとする。
膨張処理の場合は、患部特定部107は、画素値I,I,I,I,I,Iのうちの最大値を決定し、その最大値を、処理対象の画素の位置と同じ位置にある処理後の膨張画像の画素の画素値Jとする。
縮小処理の場合は、患部特定部107は、画素値I,I,I,I,I,Iのうちの最小値を決定し、その最小値を、処理対象の画素の位置と同じ位置にある処理後の縮小画像の画素の画素値Jとする。
患部特定部107は、学習されたニューラルネットワークであるU-netを使って、フィルター処理された画像から、患部が特定された患部画像を生成する(ステップS303)。生成された患部画像は1バイトデータであり、患部が存在する位置の画素は255の画素値を有し、患部が存在しない位置の画素は0の画素値を有する。
図5は、患部特定部107の動作の一実施形態を示す模式図である。患部特定部107に送られたCT画像(3次元画像)は、512×512×取得枚数の画素から成る画像である。取得枚数は512程度のものが多い。使用メモリを減らすために、患部特定部107は送られたCT画像を分割する。本実施例では64×64×64の画像に分割している。説明を簡単にするために、図5では、8×8×8の画素から成るCT画像を、2×2×2の画素から成る分割画像に分割する場合を例に分割方法を説明する。
患部特定部107は、図5の丸の記号がついた画素(具体的には、○と●がついた画素)を集めて2×2×2の画素から成る分割画像を形成する。この分割画像をU-netの入力画像として使用する。次に、患部特定部107は、図5の四角形の記号がついた画素(具体的には、□と■がついた画素)を集めて2×2×2の画素から成る分割画像を形成する。患部特定部107は、同じようにして分割画像の形成をCT画像の全体に亘って実施し、複数の分割画像を作成する。分割画像間の境界に存在する患部を安定して取得するために、患部特定部107は、隣接する2つの分割画像間の境界を含む境界画像を生成する。図5の●と■がついた画素から成る画像がその一例である。
例えば、3×3×3の画素から成る分割画像を使用する場合は、境界画像として、境界から1画素下にずれた位置で得られた画像、および境界から2画素下にずれた位置で得られた画像のように、複数あっても良い。また、下方向以外に、右方向または後方向にずれた位置で得られた境界画像であってもよい。このようにして生成された境界画像は、入力画像に加えられ、上述した複数の分割画像とともに、U-netに入力される。
U-netは患部画像を出力するように、機械学習によって構築された学習済みモデルである。U-netについては、非特許文献1に説明がある。
上述した複数の分割画像および境界画像は、U-netに1つずつ入力され、前記複数の分割画像および境界画像に対応する複数の患部画像がU-netから出力される。患部画像における、患部の画素の画素値は255であり、そうでない画素の画素値は0である。患部特定部107は、U-netから出力された複数の画像を集結させて1つの患部画像(出力画像)を形成する。具体的には、患部特定部107は、U-netから出力された複数の画像の画素値を、入力画像であるCT画像と同じサイズの患部画像の、CT画像と同じ位置に割り当てる。図5の●と■がついた画素のように患部画像の1画素に割り当てられた画素値が複数ある場合は、それらの画値の論理和、論理積、中央値などを画値にする。
患部特定部107は、得られた患部画像に画像フィルター処理を実施する(ステップS304)。この画像フィルター処理は、U-netから出力された患部画像(出力画像)を後処理するためのフィルター処理である。画像フィルターとして、2値化画像に使用できるメディアンフィルタ、モフォロジー処理が使用できる。
患部画像にメディアンフィルタを実施すれば、ノイズを除去できる。また、モフォロジー処理であるオープニング(Opening)処理を実施すれば余分に特定した患部の画素を除去でき、クロージング(Closing)処理を実施すれば特定できなかった患部の画素を補うことができる。
ステップS302で膨張処理が実施された場合は、ステップS304でモフォロジー処理の一つである縮小処理で患部画像を縮小すれば、膨張処理で融合された患部部分を分離することができる。
縮小処理は以下の手順で実施される。患部画像は、0か255の値のみを含むから、処理対象の画像の画素の画素値I,I,I,I,I,Iの全てが255の場合のみ、処理後の画像の画素の画素値Jは255となり、それ以外の場合は、画素値Jは0になる。
図6は、入力画像であるCT画像に膨張処理をし、出力画像である患部画像に縮小処理をした一実施形態を示す模式図である。入力画像に膨張処理をすることによりU-netが患部画像として特定しやすいようにし、膨張した患部画像に縮小処理をすることで、患部画像を、入力画像に膨張処理をする前の形状に戻している。
ステップS302で縮小処理が実施された場合は、ステップS304でモフォロジー処理の一つである膨張処理で患部画像を膨張する。
膨張処理は以下の手順で実施される。患部画像は、0か255の値のみを含むから、処理対象の画像の画素の画素値I,I,I,I,I,Iの全てが0の場合のみ画像の画素の画素値Jは0となり、それ以外の場合は、画素値Jは255になる。図6の膨張と縮小を、縮小と膨張に替えれば、本処理が実施できる。縮小により消滅したCT画像の患部部分は復元できないが、CT画像の縮小した部分はある程度復元できる。
図7は、ラベリングで得られた領域の例を示す模式図である。患部特定部107は、ラベリングで得られた領域を患部画像から抽出する(ステップS305)。ラベリングとは、近傍に存在する画素同士を連結して、一つの領域を認識する方法である。近傍の例として、画素の左、右、上、下、前、後の位置がある。左上など他の位置関係を用いる方法もある。
患部特定部107は、抽出された領域をこの領域から得られる数値を使って分類する分類する(ステップS306)。以下に分類の具体例を記載する。患部特定部107は、ステップS305で抽出された領域を包含する最小の直方体を決定する。図6において、記号xは前記直方体のx方向(CT装置から得られる画像のx方向)の長さであり、4画素に相当する長さである。記号yは前記直方体のy方向(CT装置から得られる画像のy方向)の辺の長さであり、3画素に相当する長さである。記号zは前記直方体のz方向(CT装置から得られる画像の枚数方向)の辺の長さであり、2画素に相当する長さである。
前記直方体の代わりに、患部を構成する画素の主慣性モーメントに対応する楕円体を使うことができる。主慣性モーメントに対応する楕円体を使う方法は前記直方体を使う方法よりも領域を近似する方法として優れている。
主慣性モーメントは、以下の手順で求める。座標(x,y,z)を、患部を構成する画素の3次元座標系上での位置とする。3次元座標系の座標軸は、ステップS305で抽出された領域を包含する最小の直方体のx,y,zの方向と同じである。iは、1から画素数までのうちの数値である。
慣性モーメント・テンソルの成分は、以下のように表される。
Figure 0007462188000001
前記行列の固有値が主慣性モーメントである。
楕円体の表面は、楕円体のx方向の半径R、楕円体のy方向の半径R、楕円体のz方向の半径Rとすると、次のように表される。
Figure 0007462188000002
密度が一様な楕円体の主慣性モーメントI,I,Iは、Mを画素数とすると、次のように表される。
Figure 0007462188000003
Figure 0007462188000004
Figure 0007462188000005
主慣性モーメントI,I,Iが得られれば、主慣性モーメントに対応する3径R,R,Rが得られる。
患部特定部107は、前記抽出された領域を、これらの得られた数値やこれらの数値を組み合わせて得られた数値を使って分類したり、分類した領域を無視したりすることができる。
抽出された領域を構成する画素から得られる数値として、以下が挙げられる。
前記抽出された領域を構成する画素の総数
前記抽出された領域の表面に存在する前記画素の数
前記画素の総数に対する、前記抽出された領域の表面に存在する前記画素の数の比
前記抽出された領域を構成する画素を包含する直方体から得られる数値として、以下が挙げられる。
前記直方体の体積
前記直方体の3次元方向の長さ
前記直方体の3次元方向の長さの比
前記直方体の体積と前記画素の総数の比
前記直方体の体積と、前記抽出された領域の表面に存在する画素の数の比
前記抽出された領域を構成する画素の主慣性モーメントから得られる数値として、以下が挙げられる。
前記楕円体の体積
前記楕円体の3径の長さ
前記楕円体の3径の長さの比
前記楕円体の体積と前記画素の総数の比
前記楕円体の体積と前記抽出された領域の表面に存在する画素の画素数の比
患部特定部107は、以下に説明するように、抽出された領域を、所定の基準よりも大きい領域、または前記所定の基準よりも小さい領域に分類したり、あるいは球形の領域または非球形の領域に分類する。
(1)小さな領域を患部領域としない方法
CT装置のノイズが集まった部分を患部として特定することがある。この領域を無視するために、以下の方法がある。
(i)前記画素の総数が予め決定した数値より小さい領域を無視する方法。
(ii)前記抽出された領域の表面に存在する前記画素の数が予め決定した数値より小さい領域を無視する方法。
(iii)前記直方体の体積が予め決定した数値より小さい領域を無視する方法。
(iv)前記直方体の3次元方向の長さのうち最も長い長さが予め決定した数値より小さい領域を無視する方法。
(v)前記楕円体の3径の長さのうち最も長い長さが予め決定した数値より小さい領域を無視する方法。
(vi)前記楕円体の体積が予め決定した数値より小さい領域を無視する方法。
(2)大きな領域を患部領域としない方法
組織の一部を患部として間違って特定することがある。また、大きな患部を特定する必要がない場合がある。これらの領域を無視するために、以下の方法がある。
(i)前記画素の総数が予め決定した数値より大きい領域を無視する方法。
(ii)前記抽出された領域の表面に存在する前記画素の数が予め決定した数値より大きい領域を無視する方法。
(iii)前記直方体の体積が予め決定した数値より大きい領域を無視する方法
(iv)前記直方体の3次元方向の長さのうち最も長い長さが予め決定した数値より大きい領域を無視する方法。
(v)前記楕円体の3径の長さのうち最も長い長さが予め決定した数値より大きい領域を無視する方法。
(vi)前記楕円体の体積が予め決定した数値より大きい領域を無視する方法。
(3)球形以外の領域を患部領域としない方法
間違って特定した血管などを無視して、球形の患部領域のみを特定したい場合がある。前記球形の患部領域以外の領域を無視するために、以下の方法がある。
(i)前記画素の総数に対する、前記抽出された領域の表面に存在する前記画素の数の比が、予め決定した数値より大きい領域を無視する方法。
前記予め決定した数値は、球体の体積とその表面積の比に基づいて定められた数値である。
(ii)前記直方体の3次元方向の長さのうち最も長い長さと最も短い長さの比が予め決定した数値より小さい領域を無視する方法。
前記予め決定した数値は、0.5以上1未満の値である。
(iii)前記直方体の体積と前記画素の総数の比が予め決定した数値より小さい領域を無視する方法。
前記予め決定した数値は、直方体の体積と、直方体に内接する楕円体の体積の比に基づいて定められた数値である。
(iv)前記楕円体の3径の長さのうち最も長い長さと最も短い長さの比が予め決定した数値より小さい領域を無視する方法。
前記予め決定した数値は、0.5以上1未満の値である。
(v)前記楕円体の体積と前記画素の総数の比が予め決定した数値より小さい領域を無視する方法
予め決定した数値は、楕円体の体積とその表面積の比に基づいて定められた数値である。
などが使用できる。
前記の方法は組み合わせて使用しても良い。
患部特定部107は、患部画像を患部特定制御部106に送り、患部特定制御部106は患部画像をデータベース制御部104を経由して画像サーバー102にアップロードする。
患部特定部107は、少なくとも1台のコンピュータから構成される。図1に示すように、患部特定部107は、プログラムやデータなどが格納される記憶装置107aと、記憶装置107aに格納されているプログラムに含まれる命令に従って演算を行うCPU(中央処理装置)またはGPU(グラフィックプロセッシングユニット)などの演算装置107bを備えている。記憶装置107aは、演算装置107bがアクセス可能なランダムアクセスメモリ(RAM)などの主記憶装置と、データおよびプログラムを格納するハードディスクドライブ(HDD)またはソリッドステートドライブ(SSD)などの補助記憶装置を備えている。
今まで説明してきた処理、動作、ステップは、記憶装置107aに格納されているプログラムに含まれる命令に従って患部特定部107によって実行される。患部特定部107は、複数のコンピュータから構成されてもよい。例えば、患部特定部107は、インターネットまたはローカルエリアネットワークなどの通信ネットワークによって接続された複数のサーバーから構成されてもよい。
今まで説明してきた処理、動作、ステップを患部特定部107に実行させるためのプログラムは、非一時的な有形物であるコンピュータ読み取り可能な記録媒体に記録され、記録媒体を介して患部特定部107に提供される。または、プログラムは、インターネットまたはローカルエリアネットワークなどの通信ネットワークを介して患部特定部107に入力されてもよい。
図8は、図5で示した患部特定部107で使用するU-netの重みを学習する方法の一実施形態を示す模式図である。図8の方法を実行するコンピュータは、図1で示した医用画像処理装置とは別に用意される。図8で使用するU-netは、図5で示した患部特定部107で使用するU-netと同じ構造である。
入力画像であるCT画像は、既に取得した、患部を含んだ分割画像である。分割画像は、図5で示した患部特定部107で使用するU-netの入力画像と同じ大きさを有し、分割画像の中心部分に患部がある。患部画像は、入力画像であるCT画像から作成される。より具体的には、患部画像は、目視で見つけた患部のCT画像の分割画像として得る。対応する患部画像は、患部画像の患部部分の画素の画素値が255で、そうでない画素の画素値が0であるように、手作業で作成する。このようにしてCT画像から作成した患部画像と患部画像は、図5で示した患部特定部107で使用するU-netの出力画像の位置に置かれ、入力画像とする。
同じようにして、入力画像としてのCT画像と、対応する患部画像を複数準備する。
複数のCT画像(分割画像)と複数の患部画像(分割画像)を使って、非特許文献1に記載の方法でU-netの重みなどのパラメータを機械学習により決定する。
機械学習で得られたU-netのパラメータは、図5で示した患部特定部107で使用するU-netのパラメータに割り振られる。
図6で示したように、入力画像であるCT画像に膨張処理をし、出力画像である患部画像に縮小処理をする場合は、膨張処理、縮小処理を図8に追加する。
本実施例では、撮影装置として、X線コンピュータ断層撮影(CT)装置を使い、ニューラルネットワークとしてU-netを使うが、他の撮影装置、他のニューラルネットワークを使っても良い。
上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうる。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲に解釈されるものである。
101 CT装置
102 画像サーバー
103 データベース制御部経由
104 DICOM制御部
106 患部特定制御部
107 患部特定部
201 血管
202 横隔膜
203 孤立した患部
204 横隔膜上の患部
205 組織に付着した患部

Claims (9)

  1. 3次元医用画像から患部を特定するニューラルネットワークと、
    前記3次元医用画像を分割した複数の分割画像と、前記複数の分割画像のうちの隣接する2つの分割画像の境界を含む境界画像とを含む入力画像を生成し、前記入力画像を前記ニューラルネットワークに入力する患部特定部を備え、
    前記患部特定部は、前記ニューラルネットワークから出力された複数の画像を集結させて出力画像を形成するように構成されている、医用画像処理装置。
  2. 前記患部特定部は、前記ニューラルネットワークから出力された前記複数の画像の画素値を、前記入力画像と同じサイズの前記出力画像の同じ位置に割り当てることで、前記複数の画像を集結させ、前記出力画像の1画素に割り当てられた複数の画素値がある場合は、前記複数の画値の論理和、論理積、中央値のうちの1つを画値として使用するように構成されている、請求項に記載の医用画像処理装置。
  3. 3次元医用画像から患部を特定するニューラルネットワークと、
    前記3次元医用画像に、モフォロジー処理として膨張処理を実行して、前記ニューラルネットワークの入力画像を生成し、前記ニューラルネットワークから出力された出力画像に、モフォロジー処理として2値化画像の縮小処理を実行して、前記出力画像を前記3次元医用画像の形状に戻す患部特定部を備えた医用画像処理装置。
  4. 前記膨張処理は、前記膨張処理の対象の画像の画素の画素値を、前記膨張処理の対象の画像の前、上、左、右、下、後の画像の画素の画素値のうちの最大値にし、前記出力画像における患部の画素は第1の画素値を有し、患部以外の画素は第2の画素値を有する、請求項3に記載の医用画像処理装置。
  5. 3次元医用画像から患部を特定するニューラルネットワークと、
    前記3次元医用画像に、モフォロジー処理として縮小処理を実行して、前記ニューラルネットワークの入力画像を生成し、前記ニューラルネットワークから出力された出力画像に、モフォロジー処理として2値化画像の膨張処理を実行して、前記出力画像を前記3次元医用画像の形状に戻す患部特定部を備えた医用画像処理装置。
  6. 前記縮小処理は、前記縮小処理の対象の画像の画素の画素値を、前記縮小処理の対象の画像の前、上、左、右、下、後の画像の画素の画素値のうちの最小値にし、前記出力画像における患部の画素は第1の画素値を有し、患部以外の画素は第2の画素値を有する、請求項5に記載の医用画像処理装置。
  7. 3次元医用画像から患部を特定するニューラルネットワークと、
    前記3次元医用画像を前記ニューラルネットワークに入力する患部特定部を備え、
    前記患部特定部は、
    前記ニューラルネットワークから出力された出力画像をラベリングして得られた領域を前記出力画像から抽出する抽出機能と、
    前記抽出された領域の画素の主慣性モーメントに対応する楕円体の3径の長さを求め、得られた3径の長さのうち最も長い長さと最も短い長さの比が、0.5以上1未満である予め決定した数値より小さい場合に球形ではない領域として分類する分類機能を具備する、医用画像処理装置。
  8. 3次元医用画像を分割した複数の分割画像と、前記複数の分割画像のうちの隣接する2つの分割画像の境界を含む境界画像とを含む入力画像を生成し、
    前記入力画像を、前記3次元医用画像から患部を特定するためのニューラルネットワークに入力し、
    前記ニューラルネットワークから出力された複数の画像を集結させて出力画像を形成する、医用画像処理方法。
  9. 3次元医用画像を分割した複数の分割画像と、前記複数の分割画像のうちの隣接する2つの分割画像の境界を含む境界画像とを含む入力画像を生成するステップと、
    前記入力画像を、前記3次元医用画像から患部を特定するためのニューラルネットワークに入力するステップと、
    前記ニューラルネットワークから出力された複数の画像を集結させて出力画像を形成するステップをコンピュータに実行させるためのプログラム。
JP2021039923A 2021-03-12 2021-03-12 医用画像処理装置、医用画像処理方法、およびプログラム Active JP7462188B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021039923A JP7462188B2 (ja) 2021-03-12 2021-03-12 医用画像処理装置、医用画像処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021039923A JP7462188B2 (ja) 2021-03-12 2021-03-12 医用画像処理装置、医用画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022139503A JP2022139503A (ja) 2022-09-26
JP7462188B2 true JP7462188B2 (ja) 2024-04-05

Family

ID=83400330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021039923A Active JP7462188B2 (ja) 2021-03-12 2021-03-12 医用画像処理装置、医用画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7462188B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007537811A (ja) 2004-05-20 2007-12-27 メディックサイト ピーエルシー 結節の検出方法
WO2020170791A1 (ja) 2019-02-19 2020-08-27 富士フイルム株式会社 医療画像処理装置及び方法
WO2020190821A1 (en) 2019-03-15 2020-09-24 Genentech, Inc. Deep convolutional neural networks for tumor segmentation with positron emission tomography

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007537811A (ja) 2004-05-20 2007-12-27 メディックサイト ピーエルシー 結節の検出方法
WO2020170791A1 (ja) 2019-02-19 2020-08-27 富士フイルム株式会社 医療画像処理装置及び方法
WO2020190821A1 (en) 2019-03-15 2020-09-24 Genentech, Inc. Deep convolutional neural networks for tumor segmentation with positron emission tomography

Also Published As

Publication number Publication date
JP2022139503A (ja) 2022-09-26

Similar Documents

Publication Publication Date Title
US20210042564A1 (en) Medical image recognition method, model training method, and computer device
CN107997778B (zh) 在计算机断层扫描血管造影术中基于深度学习的骨移除
JP5931755B2 (ja) モデルベースのセグメント化の確率向上
KR101769287B1 (ko) 해부학적 구조의 3d 프린트를 위한 의미론적 의료 이미지
CN109685060B (zh) 图像处理方法和装置
EP2916738B1 (en) Lung, lobe, and fissure imaging systems and methods
CN110998602A (zh) 使用深度学习方法对3d牙颌面结构的分类和3d建模
US20210383534A1 (en) System and methods for image segmentation and classification using reduced depth convolutional neural networks
WO2018189541A1 (en) Recist assessment of tumour progression
Alilou et al. A comprehensive framework for automatic detection of pulmonary nodules in lung CT images
JP2017174039A (ja) 画像分類装置、方法およびプログラム
EP3852054A1 (en) Method and system for automatically detecting anatomical structures in a medical image
WO2014052687A1 (en) Multi-bone segmentation for 3d computed tomography
JP2011526508A (ja) 医療用画像の領域分割
US11715279B2 (en) Weighted image generation apparatus, method, and program, determiner learning apparatus, method, and program, region extraction apparatus, method, and program, and determiner
JP6643821B2 (ja) 画像処理装置
CN113256672A (zh) 图像处理方法及装置,模型的训练方法及装置,电子设备
JP4668289B2 (ja) 画像処理装置および方法並びにプログラム
Cui et al. DsUnet: a new network structure for detection and segmentation of ultrasound breast lesions
AU2019204365C1 (en) Method and System for Image Segmentation and Identification
JP7462188B2 (ja) 医用画像処理装置、医用画像処理方法、およびプログラム
Halder et al. Superpixel and density based region segmentation algorithm for lung nodule detection
Nomura et al. Can the spherical gold standards be used as an alternative to painted gold standards for the computerized detection of lesions using voxel-based classification?
Paraname et al. Brain tumor detection using method of segmentation based on soft computing
EP4152255A1 (en) System and method for differentiating a tissue of interest from another part of a medical scanner image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R150 Certificate of patent or registration of utility model

Ref document number: 7462188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150