JP2016016265A - 画像処理装置、画像処理方法及び医用画像診断装置 - Google Patents

画像処理装置、画像処理方法及び医用画像診断装置 Download PDF

Info

Publication number
JP2016016265A
JP2016016265A JP2014142686A JP2014142686A JP2016016265A JP 2016016265 A JP2016016265 A JP 2016016265A JP 2014142686 A JP2014142686 A JP 2014142686A JP 2014142686 A JP2014142686 A JP 2014142686A JP 2016016265 A JP2016016265 A JP 2016016265A
Authority
JP
Japan
Prior art keywords
region
area
small
image processing
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014142686A
Other languages
English (en)
Other versions
JP6415878B2 (ja
Inventor
敦司 谷口
Atsushi Yaguchi
敦司 谷口
智也 岡崎
Tomoya Okazaki
智也 岡崎
智行 武口
Satoyuki Takeguchi
智行 武口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2014142686A priority Critical patent/JP6415878B2/ja
Publication of JP2016016265A publication Critical patent/JP2016016265A/ja
Application granted granted Critical
Publication of JP6415878B2 publication Critical patent/JP6415878B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】3次元画像データからの領域抽出の精度を向上させることができる画像処理装置、画像処理方法及び医用画像診断装置を提供すること。【解決手段】画像処理装置は、第1の抽出部と、第2の抽出部とを備える。第1の抽出部は、3次元画像データから抽出対象の構造を含む第1の領域を抽出する。第2の抽出部は、前記第1の領域をボクセルの特徴量の類似度及び位置関係に基づいて複数の小領域に分割し、前記3次元画像データにおける前記第1の領域以外の領域である第2の領域との類似度及び位置関係に基づいて、前記複数の小領域から前記構造に含まれる小領域を抽出することで、前記構造の領域を抽出する。【選択図】図4

Description

本発明の実施形態は、画像処理装置、画像処理方法及び医用画像診断装置に関する。
従来、X線CT(Computed Tomography)装置などの医用画像診断装置によって収集された3次元の画像データに含まれる関心領域を自動で抽出する技術が知られており、例えば、腫瘍の鑑別診断に利用されている。一例を挙げると、X線CT装置によって異なる時期に収集された複数の画像データに含まれる結節領域をそれぞれ抽出して、抽出した結節領域の体積や直径の変化を調べることにより、結節が悪性であるか又は良性であるかを鑑別する。
このような鑑別診断は、例えば、肺がん等の疑いを持つ患者に対して行われ、近年では、結節領域を抽出するだけではなく、結節領域をすりガラス状の半透明の画像領域であるGGO (Ground Glass Opacity) 領域や、GGOよりも高輝度な画像領域であるソリッド(Solid:充実性)領域などに分類して、それぞれの体積や直径の変化により鑑別診断が行われている。かかる鑑別診断の精度を向上させるためには、関心領域を正確に抽出することが重要である。
現在、3次元の画像データから関心領域を抽出する方法としては、例えば、ユーザ又はCAD(Computer-Aided-Diagnosis)システムによって指定された腫瘍候補点の周囲に3次元のROI(Region Of Interest)であるVOI(Volume Of Interest)を設定して、設定したVOIに含まれるボクセルを輝度の閾値処理によって区分けすることで腫瘍候補領域を抽出する。そして、抽出した腫瘍候補領域から血管などの領域を除去して、Solid領域及びGGO領域に組成分類する方法が知られている。
特開2009−28161号公報
本発明が解決しようとする課題は、3次元画像データからの領域抽出の精度を向上させることができる画像処理装置、画像処理方法及び医用画像診断装置を提供することである。
実施形態の画像処理装置は、第1の抽出部と、第2の抽出部とを備える。第1の抽出部は、3次元画像データから抽出対象の構造を含む第1の領域を抽出する。第2の抽出部は、前記第1の領域をボクセルの特徴量の類似度及び位置関係に基づいて複数の小領域に分割し、前記3次元画像データにおける前記第1の領域以外の領域である第2の領域との類似度及び位置関係に基づいて、前記複数の小領域から前記構造に含まれる小領域を抽出することで、前記構造の領域を抽出する。
第1の実施形態に係る医用画像処理システムの一例を示す図。 ボリュームデータからの領域抽出の一例を説明するための図。 従来技術に係る課題を説明するための図。 第1の実施形態に係る画像処理装置の一例を示す図。 第1の実施形態に係る画像処理装置による処理の手順を示すフローチャート。 第1の領域の抽出の一例を示す図。 閾値の決定の一例を説明するための図。 第1の実施形態に係る第2の抽出部による処理の概念を説明するための模式図。 第1の実施形態に係る第2の抽出部による領域分割の一例を示す図。 第1の実施形態に係る第2の抽出部によるクラスタリングの一例を説明するための模式図。 第1の実施形態に係る第2の抽出部による抽出処理の一例を示す図。 第2の実施形態に係る画像処理装置の一例を示す図。 第2の実施形態に係る画像処理装置による処理の手順を示すフローチャート。 第2の実施形態に係る識別部による処理の一例を説明するための図。 実施形態に係る画像処理装置のハードウェア構成を示す図。
以下、添付図面を参照して、実施形態に係る画像処理装置、画像処理方法及び医用画像診断装置を説明する。以下の実施形態では、同一の参照符号を付した部分は同様の動作を行うものとして、重複する説明を適宜省略する。
(第1の実施形態)
まず、第1の実施形態に係る画像処理装置を含む医用情報処理システムについて説明する。図1は、第1の実施形態に係る医用情報処理システム1の一例を示す図である。図1に示すように、第1の実施形態に係る医用情報処理システム1は、画像処理装置100と、医用画像診断装置200と、画像保管装置300とを有する。図1に例示する各装置は、例えば、病院内に設置された院内LAN(Local Area Network)により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、医用情報処理システム1にPACS(Picture Archiving and Communication System)が導入され、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、3次元の画像データ(ボリュームデータ)等を相互に送受信する。
医用画像診断装置200は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装置、PET装置とX線CT装置とが一体化されたPET−CT装置、又はこれらの装置群等である。また、第1の実施形態に係る医用画像診断装置200は、ボリュームデータを生成可能である。
具体的には、医用画像診断装置200は、被検体を撮影することによりボリュームデータを生成する。例えば、医用画像診断装置200は、被検体を撮影することにより投影データやMR信号等のデータを収集し、収集したデータから、被検体の体軸方向に沿った複数のアキシャル面の医用画像データを再構成することで、ボリュームデータを生成する。例えば、医用画像診断装置200は、500枚のアキシャル面の医用画像データを再構成する。この500枚のアキシャル面の医用画像データ群が、ボリュームデータである。なお、医用画像診断装置200により撮影された被検体の投影データやMR信号等自体をボリュームデータとしても良い。
また、医用画像診断装置200は、生成したボリュームデータを画像保管装置300に送信する。なお、医用画像診断装置200は、ボリュームデータを画像保管装置300に送信する際に、付帯情報として、例えば、患者を識別する患者ID、検査を識別する検査ID、医用画像診断装置200を識別する装置ID、医用画像診断装置200による1回の撮影を識別するシリーズID等を送信する。
画像保管装置300は、医用画像を保管するデータベースである。具体的には、画像保管装置300は、医用画像診断装置200から送信されたボリュームデータを記憶部に格納し、これを保管する。なお、本実施形態は、大容量の画像を保管可能な画像処理装置100を用いることで、図1に例示する画像処理装置100と画像保管装置300とが統合される場合であっても良い。すなわち、本実施形態は、画像処理装置100そのものにボリュームデータを記憶させる場合であっても良い。
なお、第1の実施形態において、画像保管装置300に保管されたボリュームデータは、患者ID、検査ID、装置ID、シリーズID等と対応付けて保管される。このため、画像処理装置100は、患者ID、検査ID、装置ID、シリーズID等を用いた検索を行なうことで、必要なボリュームデータを画像保管装置300から取得する。
画像処理装置100は、医用画像診断装置200又は画像保管装置300からボリュームデータを受信し、受信したボリュームデータに含まれる所定の領域を抽出する。ここで、本実施形態に係る画像処理装置100は、従来技術と比較して、ボリュームデータからの領域抽出の精度を向上させる。具体的には、画像処理装置100は、ボリュームデータから抽出対象の構造を含む領域を抽出する際の精度を向上させる。
ここで、ボリュームデータからの領域抽出の一例と従来技術における課題について、図2及び3を用いて説明する。図2は、ボリュームデータからの領域抽出の一例を説明するための図である。なお、図2においては、X線CT装置によって収集された胸部のCT画像データから結節領域を抽出して、組成(Solid領域及びGGO領域)ごとの体積を推定する場合についての模式図を示す。
ボリュームデータからの領域抽出においては、例えば、図2に示すように、まず、「入力」として胸部のCTボリュームデータを受け付ける。ここで、抽出対象である結節の中心点(図中の×印)や結節が含まれる肺野領域が指定される。このとき、中心点や肺野領域の指定は、操作者によって手動で行われたり、CAD(Computer-Aided-Diagnosis)システムによって自動で行われたりする。このように抽出対象が指定されると、抽出対象を含む前景領域が抽出される。
例えば、図2の「前景領域」に示すように、指定された肺野領域の中から抽出対象である結節を含む前景領域が抽出される。ここで、前景領域の抽出では、ボクセルにおける輝度値に基づいて前景領域が抽出されるため、結節と同様に輝度値が高い血管が前景領域として抽出される。そこで、次に、抽出された前景領域に含まれる血管領域が除去され(図中の「血管除去」)、結節の領域を示す境界が修正されることで(図中の「境界修正」)、ボリュームデータから結節の領域が抽出される。その後、抽出された結節の領域におけるSolid領域及びGGO領域が分類され(図中の「組成分類」)、「出力」として、それぞれの領域が示された画像とともに推定された体積値が表示される。
上述したように、ボリュームデータからの抽出対象の抽出には、まず、抽出対象を含む前景領域が抽出され、抽出された前景領域から対象領域が抽出される。しかしながら、従来技術においては、上述した前景領域の抽出の精度に一定の限界があるため、最終的な出力である抽出対象の組成(構造)ごとの領域表示や、体積推定の精度においても一定の限界があった。
例えば、CTボリュームデータから結節を抽出する場合、ボクセルにおけるCT値(輝度値)を閾値と比較することで前景領域が抽出される。CT値は、X線の吸収率を示し,「空気」を−1000HU、「水」を0HUと定義したHU(Hounsfield Unit)を単位として利用する。CT値は、一般に空気(−1000)を基準として、−1000〜1000の値の範囲をとり、体内にある種々の解剖学的構造のCT値は−800〜300の範囲に分布する。例えば、GGO領域は−800〜−500、血管やSolid領域は−500〜0、胸壁や骨は0〜500に分布することが多い。従って、輝度値の閾値処理によってこれらの解剖学的構造を抽出する場合には、閾値はGGO領域が抽出可能な−800前後に設定することが望ましい。
しかしながら、CTボリュームデータはスライス厚や解像度などのパラメータ、再構成関数等によるボケの影響で、解剖学的構造の境界付近の輝度値が本来より高くなることがしばしばある。このようなデータに対して輝度値の閾値処理を行った場合、空気よりわずかに輝度値の高い境界付近の領域が過検出されてしまう。特に腫瘍や血管が複雑に入り組んでいる場合、近接する構造同士が過検出領域を介して結合し、後段で除去処理を行ったとしても正しく分離することが難しいという問題がある。例えば、図3に示すように、結節と血管とを含むCTボリュームデータに対して輝度値の閾値処理を行うと(図中の「輝度値による前景抽出」)、結節や血管の周囲の領域が過検出されてしまい(図中の「過検出領域」)、その後の「分類」で精度の高い分類を行うことが困難となる。このような問題に対しては、対策として閾値を引き上げることが考えられるが、例えば−800HU程度のGGO領域が未検出となる場合があり、単純に閾値の調整のみで対応することは困難である。なお、図3は、従来技術に係る課題を説明するための図である。
そこで、本願に係る画像処理装置100は、以下、詳細に説明する構成により、ボリュームデータからの領域抽出の精度を向上させることを可能にする。具体的には、画像処理装置100は、前景領域の抽出精度を向上させることにより、ボリュームデータからの領域抽出の精度を向上させる。図4は、第1の実施形態に係る画像処理装置100の一例を示す図である。図4に示すように、画像処理装置100は、入力部110と、表示部120と、記憶部130と、制御部140とを有する。例えば、画像処理装置100は、ワークステーションや、任意のパーソナルコンピュータなどであり、医用画像診断装置200や、画像保管装置300などとネットワークを介して接続される。
入力部110は、マウス等のポインティングデバイス、キーボード等の入力デバイスであり、画像処理装置100に対する各種操作の入力を操作者から受け付ける。例えば、入力部110は、ボリュームデータに含まれる抽出対象の指定操作などを受付ける。表示部120は、液晶ディスプレイ等の表示デバイスであり、各種情報を表示する。具体的には、表示部120は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、後述する制御部140による処理結果を表示する。
記憶部130は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置などであり、後述する制御部140によって取得されたボリュームデータなどを記憶する。また、記憶部130は、後述する制御部140によって用いられる種々の情報を記憶する。また、記憶部130は、後述する制御部140による処理結果を記憶する。例えば、記憶部130は、図4に示すように、画像データ記憶部131を有する。画像データ記憶部131は、後述する制御部140によって取得されたボリュームデータを記憶する。
制御部140は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、画像処理装置100の全体制御を行なう。制御部140は、図4に示すように、例えば、画像データ取得部141と、第1の抽出部142と、第2の抽出部143とを有する。
画像データ取得部141は、医用画像診断装置200によって生成されたボリュームデータを取得する。例えば、画像データ取得部141は、入力部110を介して操作者によって指定されたボリュームデータを医用画像診断装置200又は画像保管装置300から取得して、画像データ記憶部131に格納する。
第1の抽出部142は、ボリュームデータから抽出対象の構造を含む第1の領域を抽出する。具体的には、第1の抽出部142は、ボリュームデータにおいてボクセルの輝度値が所定の閾値以上である領域を第1の領域として抽出する。
第2の抽出部143は、第1の領域をボクセルの特徴量の類似度及び位置関係に基づいて複数の小領域に分割し、ボリュームデータにおける第1の領域以外の領域である第2の領域との類似度及び位置関係に基づいて、複数の小領域から構造に含まれる小領域を抽出することで、構造の領域を抽出する。具体的には、第2の抽出部143は、第2の領域と所定の位置関係にある小領域のうち、第2の領域との特徴量分布の類似度が所定の閾値以下、又は、特徴量分布の距離が所定の閾値以上である小領域を構造に含まれる小領域として抽出する。ここで、第2の抽出部143は、第1の領域に含まれるボクセルを輝度値及び3次元座標を用いてクラスタリングすることにより、第1の領域を複数の小領域に分割する。
図5は、第1の実施形態に係る画像処理装置100による処理の手順を示すフローチャートである。図5に示すように、第1の実施形態に係る画像処理装置100は、ボリュームデータから抽出対象を含む前景領域の抽出処理を、ほぼ自動化された流れで行うことができる。具体的には、第1の実施形態に係る画像処理装置100は、ボリュームデータから第1の領域を抽出して、抽出した第1の領域を複数の小領域に分割する。そして、画像処理装置100は、ボリュームデータにおいて第1の領域以外の第2の領域との類似度及び位置関係をもとに各小領域が抽出対象の一部であるか否かを判定し、抽出対象の一部であると判定した小領域を前景領域として抽出する。以下、図6A〜図9を併せて参照しながら、第1の実施形態における処理手順を説明する。なお、以下では、CTボリュームデータから結節の領域を抽出する場合を一例に挙げて説明する。
ステップS101:まず、画像データ取得部141が、操作者による3次元の画像データ(ボリュームデータ)の指定を入力部110を介してGUI上で受け付け、受け付けた指定に従ってボリュームデータを取得する。
ステップS102:続いて、第1の抽出部142が、第1の領域を抽出するための閾値を決定する。図6Aは、第1の実施形態に係る第1の抽出部142による第1の領域の抽出の一例を示す図である。例えば、第1の抽出部142は、図6Aに示すように、画像データ取得部141の処理によって取得されたCTボリュームデータから結節の領域を含む第1の領域を輝度値によって抽出するための閾値を決定する。ここで、第1の抽出部142によって抽出された第1の領域以外の領域を図6Aに示すように第2の領域とする。なお、第1の抽出部142によって実行される輝度値による第1の領域の抽出は、従来技術における前景領域の抽出に相当する。
ここで、第1の抽出部142による閾値の決定は、入力部110を介して操作者から指定された閾値を、第1の領域を抽出するための閾値として決定する場合であってもよいが、入力された画像ごとに適応的に決定する場合であってもよい。なお、操作者によって指定される閾値としては、例えば、GGO領域が可能となるように「−800HU」程度の固定を用いる場合であってもよい。
以下、適応的に決定する場合について説明する。図6Bは、第1の実施形態に係る第1の抽出部142による閾値の決定の一例を説明するための図である。例えば、第1の抽出部142は、図6Bの(A)に示すように、CTボリュームデータの各ボクセルの輝度値のヒストグラムを生成して、生成したヒストグラムに基づいて閾値を決定する。ここで、ヒストグラム生成に用いる領域は、ボリュームデータ全体であってもよく、或いは、特定の領域に限定したVOIであってもよい。
ここで、Solid領域やGGO領域などの解剖学的構造は、それぞれ特有の輝度値を有することから、各構造の輝度値の分布はそれぞれに対応した平均値などのパラメータを持つ確率分布で表現できると仮定すると、図6Bの(A)に示すCTボリュームデータから生成したヒストグラムは、これら複数の構造に対応する確率分布の和として表現することができる。確率分布は、例えばガンマ分布やstudent’s−t分布などを用いても良いが、以下では、ガウス分布を用いた方法を例に挙げて説明する。例えば、各ボクセルのCTボリュームデータにおける座標「r(位置ベクトルr)=(x,y,z)」の輝度値「v=I(r)」を確率変数とした混合ガウス分布は、下記の式(1)で表すことができる。
ここで、式(1)における「q」は確率密度関数を示し、「N(v|μ,σ)」は一次元ガウス分布を示し、「μ」は平均値を示し、「σ」は標準偏差を示し、「π」は混合率を示し、「K」は混合要素数を示す。パラメータπ,μ,σは、公知の非特許文献である「A.P. Dempster, N.M. Laird, and D.B. Rubin, “Maximum Likelihood from Incomplete Data via the EM Algorithm,” Journal of the Royal Statistical Society Series B, Vol.39, pp.1−38, 1977.」に開示されている方法により推定することができる。
例えば、各要素(Solid領域や、GGO領域など)のガウス分布(正規分布)の和がヒストグラムを近似するようにパラメータπ,μ,σが推定される。ここで、混合要素数Kは任意に設定することができるが、例えば、図6Bの(B)に示すように、「K=3」として推定する場合には、各要素それぞれのガウス分布の和が図6Bの(A)のヒストグラムを近似するように、各要素のパラメータπ,μ,σが推定される。すなわち、図6Bの(B)に示すように、空気を含む要素(k=1に対応する要素)のガウス分布と、GGO領域(すりガラス状陰影)を含む要素(k=2に対応する要素)のガウス分布と、血管やSolid領域(充実性陰影)を含む要素(k=3に対応する要素)のガウス分布が得られる。
ここで、抽出対象の構造をGGO領域、Solid領域、血管とした場合には、k=2に対応する要素と、k=3に対応する要素のみを選択すればよい。そこで、各ボクセルの座標rの輝度値vが抽出対象の構造である確率l(v)をベイズの定理に基づく下記の式(2)で算出することができる。
なお、式(2)における分母は全要素(k=1〜3)の確率分布の混合確率分布を示し、分子はk=2に対応する確率分布とk=3に対応する確率分布の混合確率分布を示す。ここで、CTボリュームデータから第1の領域を抽出するための閾値「vth」は、「l(vth)=β」となるように設定する。なお、確率l(v)は、0≦l(v)≦1の範囲をとり事後確率を表現することから、閾値を示すβはベイズ理論における最小誤り率の観点からβ=0.5としても良く、或いは、0≦β≦1の範囲内の他の値を選択しても良い。
ステップS103:第1の抽出部142は、上述したように閾値を決定することで、例えば、図6Bの(B)に示すように、空気を含む要素のガウス分布とGGO領域を含むガウス分布との交点付近を閾値「vth」とし、第1の領域を「v>vth」を満たすボクセルの集合として抽出する。すなわち、第1の抽出部142は、第1の領域を下記の式(3)として抽出する。一方、第1の抽出部142は、第2の領域を下記の式(4)として抽出する。なお、式(3)における「F」は第1の領域を示し、式(4)における「B」は第2の領域を示す。
なお、図6Aに示す右側の画像は、第1の領域に含まれるボクセルと第2の領域に含まれるボクセルとを二値化した値で表現した画像であり、第1領域に含まれるボクセルを「1」の「白」の階調で表示し、第2の領域に含まれるボクセルを「0」の「黒」の階調で表示したものである。すなわち、図6Aの例では、第1の抽出部142は、「白」の階調で表示された領域を、上述したように、入力されたボリュームデータごとに適応的に閾値を決定することで、第1の領域として抽出する。
ステップS104:図5に戻って、次に、第2の抽出部143が、ステップS103によって抽出された第1の領域を小領域に分割する。具体的には、第2の抽出部143は、第1の領域に含まれるボクセルの特徴量(例えば、輝度値)と3次元座標を用いたクラスタリングにより、第1の領域を複数の小領域に分割する。これにより、特徴量(輝度値)の空間的な連続性が考慮されるため、Solid領域やGGO領域などの解剖学的構造の境界に沿った領域分割を行うことができる。
図7は、第1の実施形態に係る第2の抽出部143による処理の概念を説明するための模式図である。図7においては、横軸にボリュームデータにおける座標空間を示し、縦軸にボクセルの特徴量(輝度値)を示す。例えば、第2の抽出部143は、図7の(A)に示す所定の空間に含まれる複数のボクセルについて、特徴量(輝度値)の分布から1つの小領域としてクラスタリングする。一例を挙げると、第2の抽出部143は、図7の(B)に示すように、ある閾値以下の特徴量を有するボクセルP1を所定の空間内(距離内)にある他のボクセルの特徴量(輝度値)の分布に合せて同一の小領域としてクラスタリングする。すなわち、第2の抽出部143は、ボクセルP1を特徴量(輝度値)の閾値を超えた他のボクセルと同一の小領域として分割する。換言すると第2の抽出部143は、ボリュームデータ(第1の領域)に含まれる各ボクセルについて、空間的に近い他のボクセルとの類似度に基づいてどの領域に属するかを判定し、判定結果に応じて領域を区分けする。
ここで、第2の抽出部143は、上述したクラスタリングに、例えば、Meanshift法、Medoidshift法、SLIC法、Quickshift法などを用いることができる。以下、公知の非特許文献である「A. Vedaldi and S. Soatto, “Quick Shift and Kernel Methods for Mode Seeking,“ in Proceedings of the European Conference on Computer Vision (ECCV), 2008」に開示されているQuickshift法を用いる場合について説明する。
Quickshift法はカーネル密度関数の極値として定義されるクラスタ中心を探索する手法であり、(1)カーネル密度関数の計算、(2)最近傍探索、(3)クラスタリングの3ステップで実行される。
(カーネル密度関数の計算)
まず、第2の抽出部143は、ボリュームデータに含まれる各ボクセルについて、カーネル密度関数の値を算出する。ここで、ボリュームデータに対してQuickshift法を適用する場合には、1次元の輝度値v=I(r)と3次元画像の座標r=(x,y,z)を結合した4次元の結合空間R4を特徴空間とし、輝度値の空間(輝度空間)及び画像空間それぞれにおけるカーネルの積で定義された下記の式(5)によりカーネル密度関数が算出される。
なお、式(5)における「p(v,r)」がカーネル密度関数を示し、「dv」及び「hv」がそれぞれ輝度空間の距離尺度とカーネル幅を示し、「dr」及び「hr」がそれぞれ画像空間の距離尺度とカーネル幅を示し、「n」がボクセル数を示し、「k」がカーネル関数を示し、「C」が定数を示す。ここで、各空間における距離尺度は、下記の式(6)で示すユークリッド距離によって算出され、カーネル関数kは、下記の式(7)に示すEpanechnikovカーネルを用いることが望ましい。これにより、計算量を低減することができ、装置の処理負荷を低減することができる。
すなわち、第2の抽出部143は、式(5)に示すように、ボリュームデータに含まれる各ボクセルについて、輝度値及び座標それぞれで所定の範囲における類似度を定義したカーネル密度関数の値を算出する。ここで、輝度値及び座標それぞれにおける範囲(カーネル幅)は、抽出対象や撮像条件によって任意に設定することができる。例えば、輝度空間のカーネル幅「hv」は、分離する対象の輝度値の差分が設定される。一例を挙げると、空気を含む要素とGGO領域を含む要素とを精度よく分離するためには、輝度空間のカーネル幅「hv」は、空気を示すCT値「−1000HU」とGGO領域を示すCT値「−800」との差分である「200」前後に設定することが望ましい。
また、例えば、画像空間のカーネル幅「hr」は、抽出対象のサイズに基づいて設定される。一例を挙げると、画像収集時の画素ピッチが「0.6mm」のボリュームデータから、抽出対象の最小のサイズが「半径:1.5mm」程度の領域を抽出する場合、画像空間のカーネル幅「hr」は、「2.5=(1.5/0.6)」前後に設定することが望ましい。なお、これらのカーネル幅は、抽出対象の情報や、ボリュームデータの付帯情報(例えば、DICOMのタグ)に基づいて、第2の抽出部143が自動で設定することも可能である。かかる場合には、例えば、第2の抽出部143は、予め記憶部130に記憶された抽出対象ごとの輝度空間のカーネル幅を読み出すと共に、ボリュームデータから取得した画素ピッチの情報と予め記憶部130に記憶された抽出対象のサイズとから画像空間のカーネル幅を算出する。
(最近傍探索)
上述したように、ボリュームデータに含まれる各ボクセルのカーネル密度関数の値を算出すると、第2の抽出部143は、上述した式(3)で示される第1の領域に含まれる各ボクセル「i」の近傍「Di」で確率密度が最も増加するボクセル「N(i)」を下記の式(8)により探索する。
ここで、近傍Diは任意に設定することができるが、探索に係る処理負荷の低減と、離れたボクセルが割り当てられることを抑止するために、下記の式(9)で定義するように、上述したカーネル幅の範囲を用いることが望ましい。
ここで、式(8)及び(9)に示す「j」は、ボクセル「i」の近傍「Di」に含まれるボクセルを示し、式(9)に示すように、ボクセル「i」との輝度値の差が輝度空間のカーネル幅以内であり、かつ、ボクセル「i」との座標間の距離が画像空間のカーネル幅以内のボクセルである。このとき、ボクセル「j」は、上述した式(4)で示す第2の領域に含まれるボクセルであってもよい。
また、式(8)に示す「d(j||i)」は、ボクセル「i」とボクセル「j」との距離尺度であり、下記の式(10)に示す輝度空間と画像空間におけるユークリッド距離の重み付和によって算出される。
上述したように、第2の抽出部143は、第1の領域に含まれる各ボクセル「i」の近傍「Di」で確率密度が最も増加するボクセル「N(i)」を探索する。すなわち、第2の抽出部143は、ボクセル「i」の近傍で類似したボクセルの密度が最も高い位置に相当するボクセル「N(i)」を探索する。
(クラスタリング)
上述した最近傍探索を行うと、第2の抽出部143は、次に最近傍探索の結果を用いて第1の領域を複数の小領域に分割する。図8Aは、第1の実施形態に係る第2の抽出部143による領域分割の一例を示す図である。例えば、第2の抽出部143は、図8Aに示すように、第1の抽出部142によって抽出された第1の領域を複数の小領域に分割する。ここで、第2の抽出部143は、最近傍探索の結果を用いたボクセルの遷移操作を再帰的に繰り返すことで各小領域の中心(クラスタ中心)を探索するとともに、各小領域に含まれるボクセルを抽出する。
図8Bは、第1の実施形態に係る第2の抽出部143によるクラスタリングの一例を説明するための模式図である。例えば、第2の抽出部143は、図8Bに示すように、第1の領域に含まれるボクセル「i」をグラフ上の1つのノードとして、ボクセル「i」と最近傍探索によって探索されたN(i)との間にエッジを張る。第2の抽出部143は、第1の領域に含まれるすべてのボクセルについて同様にエッジを張ることで画像全体を複数の木構造で表現する。ここで、クラスタ中心は、確率密度関数の極大値として定義されるため、その近傍領域により確率密度が高い点が存在しない点であると解釈できる。すなわち、クラスタ中心の点に相当するボクセルは、自身の点がN(i)となるためエッジが張られず、木構造の根に相当することになる。
そこで、第2の抽出部143は、第1の領域に含まれるすべてのボクセル「i」に対して、図8Bに示す「i→N(i)→N(N(i))」のような遷移操作を再帰的に繰り返し実行することで木構造の根「R(i)」の探索を行う。すなわち、第2の抽出部143は、図8Bに示すように、ボクセル「i」をスタートとして、最近傍探索の結果であるボクセル「N(i)」に遷移する。そして、第2の抽出部143は、ボクセル「N(i)」の最近傍探索の結果であるボクセル「N(N(i))」に遷移する。そして、第2の抽出部143は、最近傍探索の結果が自身のボクセルになる木構造の根「R(i)」を探索する。
ここで、根のボクセル位置「rR(i)」が第2の領域に含まれる(rR(i)∈B)場合、第2の抽出部143は、スタートのボクセル「i」を第1の領域から除外する。一方、根のボクセル位置「rR(i)」が第1の領域に含まれる(rR(i)∈F)場合、第2の抽出部143は、スタートのボクセル「i」に対して(根)「R(i)」をクラスタ中心としたクラスタ(小領域)を割り当てる。このとき、ボクセル「i」の輝度値「vi」と根のボクセル「R(i)」の輝度値「vR(i)」の差が下記の式(11)となる場合には、木を分割することで新しいクラスタとする。式(11)において、「a」は予め設定される定数であり、例えば、「a=1」や、「a=2」のように設定される。これにより、解剖学的構造の境界での領域分割をより正確に行うことを可能にする。
第2の抽出部143は、上述したクラスタリングを第1の領域に含まれるすべてのボクセルに対して実行することで、第1の領域をグラフ上の根「R(i)」それぞれをクラスタ中心とした複数の小領域に分割する。
ステップS105:図5に戻って、第1の領域を小領域に分割すると、第2の抽出部143は、特定の情報を受け付けたか否かの判定を行う。具体的には、第2の抽出部143は、ボリュームデータに含まれる1つ又は複数のボクセルが抽出対象の構造に該当するか否かを特定するための特定情報(位置情報)を受け付けたか否かを判定する。ここで、位置情報は、例えば、操作者のマウスクリックやドラッグ操作などによって指定された点又は領域であってもよく、或いは、CADによって自動検出された点又は領域であってもよい。
ここで、特定情報を受け付けた場合には(ステップS105、Yes)、第2の抽出部143は、特定情報を参照しつつ、対象構造の一部である小領域を抽出する(ステップS106)。すなわち、第2の抽出部143は、特定情報を受け付けたボクセル又は領域を含む小領域を前景領域(対象構造の一部)として抽出する。一方、特定情報を受け付けていない場合には(ステップS105、No)、対象構造の一部である小領域を抽出する(ステップS107)。
ステップS106、ステップS107:ステップS105において特定情報を受け付けていない場合、及び、処理対象の小領域が特定情報を受け付けたボクセル又は領域を含んでいない場合には、第2の抽出部143は、分割した小領域が抽出対象の構造の一部であるか否かを判定して、抽出対象の構造の一部と判定した小領域を前景領域として抽出する。図9は、第1の実施形態に係る第2の抽出部143による抽出処理の一例を示す図である。例えば、第2の抽出部143は、図9に示すように、分割した小領域のうち、抽出対象の構造の一部ではない小領域を除外した小領域を前景領域として抽出する。
ここで、小領域に対する除外処理は、第1の領域を小領域に分割する際に用いたQuickshift法に基づく方法により実行される。なお、小領域に対する除外処理は、公知の非特許文献である「J. Ning, L. Zhang, D. Zhang, and C. Wu, “Interactive image segmentation by maximal similarity based region merging,” Pattern Recognition, vol. 43, No. 2, pp. 445−456, 2010.」に開示されている方法でもQuickshift法と同様に実行することができる。
Quickshift法はグラフ構造の各ノードにおいてカーネル密度関数の値を算出し、密度の増加する方向にグラフ上を遷移しながら極大値の探索を行う手法であると解釈できる。上述した小領域の分割においては、各ノードがボクセルに対応し、ノード間の距離を輝度値及び画像上の距離として定義した。小領域の除外処理においては、各ノードを小領域としたうえでその位置関係(隣接関係)からグラフ構造を構成し、ノード(領域)間の距離を適切に定義すればよい。基本的な流れは、上述した小領域の分割と同様に、(1)カーネル密度関数の計算、(2)最近傍探索、(3)クラスタリングの3ステップで実行される。
(カーネル密度関数の計算)
まず、第2の抽出部143は、得られたM個の小領域に第2の領域を加えたM+1個の領域sj(j=1,2,・・・,M+1)ごとに、下記の式(12)で定義されるカーネル密度関数の値を算出する。
ここで、式(12)における「h(s)」は小領域「s」に含まれるボクセルの輝度値のヒストグラムを示し、「dH」はヒストグラム間の距離を示し,「dG」は小領域間のグラフ距離を定義する関数を示し、「hH」及び「hG」はそれぞれヒストグラム間のカーネル幅及び小領域間のカーネル幅を示す。dHにはKullback-Leibler距離などを用いても良いが、本実施形態では下記の式(13)で定義されるHellinger距離を用いる場合について説明する。
ここで、式(13)における「Nb」はヒストグラムのビン数を示し、「B」はBattacharyya係数を示す。dGには小領域内に含まれるボクセルの重心座標間のユークリッド距離を用いても良いが、領域が凸でない場合(領域にへこみ部分がある場合や、中心付近に穴(他の小領域)がある場合など)に重心の座標が領域外となってしまう場合がある。例えば、領域の中心付近に他の小領域がある場合、領域の重心が他の小領域内になってしまう場合がある。
そこで、小領域の隣接関係を表す隣接行列(各i、j成分は領域siと領域sjが隣接している場合に1、隣接していない場合に0となる)に基づきグラフ構造を生成し,dGをグラフ上の距離、例えば最小全域木(Minimum Spanning Tree)や最短経路(2つのノードをつなぐ経路上で通過する最小のエッジ数)を基に設定すると良い。すなわち、隣接するノード(小領域)間でのみエッジを張ったグラフ構造に基づいて、グラフ上の距離を設定する。本実施形態では、最短経路を用いる場合について説明する。ここで、カーネル関数をEpanechnikovカーネルとし、処理負荷を低減するためにカーネル幅をhH=1、hG=2とすると、カーネル密度関数は下記の式(14)と定義することができる。
ここで、S:={si|dG(s,si)<2}である。また、dG(s,si)はエッジ数であり整数値に限定されることから、dG(s,si)<2となるのはdG(s,si)=0と、dG(s,si)=1であることに注意すると、カーネル密度関数は、さらに下記の式(15)と定義することができる。なお、式(15)においては、共通の定数部分は省略されている。
ここで、式(15)における「Ns」は小領域sに隣接する小領域の集合を示す。このように設定することで、カーネル密度関数は、式(15)に示すように、各領域sに隣接する領域とのBattacharyya係数の総和として算出することができる。
(最近傍探索)
上述したように、各小領域のカーネル密度関数の値を算出すると、第2の抽出部143は、各小領域「sj」の近傍「Dsj」で確率密度が最も増加する小領域「N(sj)」を下記の式(16)により探索する。
ここで、近傍Dsjは任意に設定することができるが、探索に係る処理負荷の低減と、離れた小領域が割り当てられることを抑止するために、下記の式(17)で定義するように、設定することが望ましい。
ここで、式(17)に示す「TH」はヒストグラム間の距離に関する閾値を示し、「TG」はグラフ距離に関する閾値を示す。これらの閾値は、それぞれHellinger距離と最短経路とを用いる場合に、下記の式(18)として設定することも可能である。
上述したように、第2の抽出部143は、各小領域「sj」の近傍「Dsj」で確率密度が最も増加する小領域「N(sj)」を探索する。すなわち、第2の抽出部143は、小領域「sj」の近傍で類似した小領域の密度が最も高い位置に相当する小領域「N(sj)」を探索する。
(クラスタリング)
上述した最近傍探索を行うと、第2の抽出部143は、次に最近傍探索の結果を用いて前景領域を抽出する。ここで、第2の抽出部143は、最近傍探索の結果を用いた小領域の遷移操作を再帰的に繰り返すことでクラスタ中心を探索するとともに、各小領域が抽出対象の構造の一部であるか否か判定して、一部である場合に前景領域として抽出する(一部ではない場合に、第1の領域から除外する)。
例えば、第2の抽出部143は、各小領域「sj」をグラフ上の1つのノードとして、小領域「sj」と最近傍探索によって探索されたN(sj)との間にエッジを張る。第2の抽出部143は、すべての小領域について同様にエッジを張ることで画像全体を複数の木構造で表現する。ここで、クラスタ中心は、確率密度関数の極大値として定義されるため、その近傍により確率密度が高い小領域が存在しない小領域であると解釈できる。すなわち、クラスタ中心の小領域は、自身がN(sj)となるためエッジが張られず、木構造の根に相当することになる。
そこで、第2の抽出部143は、すべての小領域「sj」に対して、「sj→N(sj)→N(N(sj))」のような遷移操作を再帰的に繰り返し実行することで木構造の根「R(sj)」の探索を行う。すなわち、第2の抽出部143は、小領域「sj」をスタートとして、最近傍探索の結果である小領域「N(sj)」に遷移する。そして、第2の抽出部143は、小領域「N(sj)」の最近傍探索の結果であるボクセル「N(N(sj))」に遷移する。そして、第2の抽出部143は、最近傍探索の結果が自身の領域になる木構造の根「R(sj)」を探索する。
ここで、根の小領域「sR(sj)」が第2の領域の場合、第2の抽出部143は、スタートの小領域「sj」を第1の領域から除外する。一方、根の小領域「sR(sj)」が第1の領域の場合、第2の抽出部143は、スタートの小領域「sj」を前景領域として抽出する。第2の抽出部143は、上述したクラスタリングをすべての小領域に対して実行することで、前景領域を抽出する。ここで、小領域の内の一つ又は複数が、抽出対象の構造に該当するための特定情報(位置情報)に対応していた場合には、特定情報に応じた抽出処理が実行される。例えば、操作者により手動、又はCADによって自動的に指定された抽出対象構造のボクセル位置を含む小領域は、たとえ根の領域が第2領域であったとしても第1領域から除外しない、というようにすることもできる。
上述したように、第1の実施形態によれば、第1の抽出部142は、3次元画像データから抽出対象の構造を含む第1の領域を抽出する。第2の抽出部143は、第1の領域をボクセルの特徴量の類似度及び位置関係に基づいて複数の小領域に分割し、3次元画像データにおける第1の領域以外の領域である第2の領域との類似度及び位置関係に基づいて、複数の小領域から構造に含まれる小領域を抽出することで、構造の領域を抽出する。従って、第1の実施形態に係る画像処理装置100は、ボクセル毎の輝度値だけでなく、領域同士の輝度値の分布の類似度と空間的隣接関係を考慮したことで解剖学的構造の境界に沿った領域抽出ができ、3次元画像データからの領域抽出の精度を向上させることを可能にする。
(第2の実施形態)
第1の実施形態では、抽出対象の構造の一部であると判定した小領域を前景領域として抽出する場合について説明した。第2の実施形態では、抽出した小領域がいずれの抽出対象構造であるかを識別する場合について説明する。図10は、第2の実施形態に係る画像処理装置100の一例を示す図である。図10に示すように、第2の実施形態に係る画像処理装置100は、記憶部130に推定基準記憶部132を新たに有する点と、制御部140に識別部144を新たに有する点とが第1の実施形態と異なる。以下、これらを中心に説明する。
推定基準記憶部132は、抽出した小領域がいずれの抽出対象構造であるかを識別するための推定基準を記憶する。具体的には、推定基準記憶部132は、種々の手法によって生成された分類器を記憶する。例えば、抽出対象がSolid領域、GGO領域、血管領域である場合、輝度値や領域内のテクスチャ、形状が異なる為、特徴量としてそれらを判別するための分類器が記憶される。
Solid領域はGGO領域と比較して高輝度かつ内部のテクスチャが平坦であることから、領域内の輝度値の分布、勾配の情報を考慮した特徴量を用いることで識別可能である。血管領域はSolid領域と同程度の輝度値を有するが、管状の形状を有し、塊形状の結節領域とは異なるため、そのような3次元形状を捉える特徴量を用いることで識別可能である。一例を挙げると、推定基準記憶部132は、領域内の輝度値の分布、ヘッセ行列の固有値の平均値や分散などの統計量、Total variation、Local Binary Pattern、Gray−Level Co−occurrence Matrix、Histogram of Oriented Gradient、Haar−like特徴、Higher−order Local Auto Correlationなどを特徴量として判別する分類器を記憶する。また、推定基準記憶部132は、上述した特徴量の組み合わせや、Bag of featureやSparse codingを用いて学習したテクスチャパターンの辞書、又はそれを利用した特徴量を判別する分類器を記憶する。
かかる場合には、例えば、制御部140は、まず、描出された構造がいずれの構造であるかが判別された複数の教師有画像における各構造の特徴量をそれぞれ抽出し、抽出した特徴量を用いて分類器を生成して推定基準記憶部132に格納する。分類器は識別部144によって識別されるごとに更新されても良い。
識別部144は、小領域ごとに上述した種々の特徴量を抽出し、推定基準記憶部132によって記憶された分類器を用いて小領域がいずれの抽出対象構造であるかを識別する。また、識別部144は、小領域を識別した後に、いずれの抽出対象構造であるかの判別結果を、入力部110を介して医師などから受け付けても良い。そして、識別部144は、分類器による識別結果と、受け付けた判別結果とを用いて、推定基準記憶部132に格納した分類器を更新することもできる。このように、識別部144が小領域の特徴量を識別するごとに分類器を更新することで、より精度の高い分類器を生成することができる。
なお、分類器の生成には種々の手法を用いることができ、例えばDiscriminant Analysis、Logistic Regression、Support Vector Machine、Neural Network、Randomized Tree、Sub−Space Methodなどが挙げられる。ここで、Conditional Random FieldsやGraph Cutと組み合わせることで各小領域の隣接関係を考慮した識別を行うと良い。
図11は、第2の実施形態に係る画像処理装置による処理の手順を示すフローチャートである。
ステップS201:ステップS101〜ステップS107にて小領域が抽出されると、識別部144は、抽出された小領域がいずれの抽出対象構造であるかを識別する。
ステップS202:その後、識別部144は、識別結果に基づいて、抽出対象構造ごとに区分けした領域を出力する。図12は、第2の実施形態に係る識別部144による処理の一例を説明するための図である。例えば、識別部144は、図12に示すように、第2の抽出部143によって抽出された各小領域について、Solid領域、GGO領域、血管領域のいずれであるかを識別し、識別結果が同一の構造で隣接する小領域を1つの領域として区分けした結果を出力する。すなわち、識別部144は、隣接する小領域でGGO領域と識別した小領域を1つのGGO領域として出力する。同様に、識別部144は、Solid領域、血管領域についてもそれぞれ区分けした領域を出力する。
上述したように、第2の実施形態によれば、識別部144が、構造の領域に含まれる小領域がそれぞれ抽出対象のいずれであるかを識別する。従って、第2の実施形態に係る画像処理装置100は、ボクセルごとの識別でなく領域ごとの識別を行うことで、領域内の統計的な特徴量を利用できノイズに対して頑健な識別を行うことを可能にする。また、第2の抽出部143で生成された小領域は解剖学的構造の境界に沿って区分されており、図3に示したような過検出領域は除外されている為、特徴抽出の際に不要な情報が混入せず、図12に示したように精度良く識別を行うことを可能にする。
(第3の実施形態)
なお、実施形態は、上述した第1及び第2の実施形態に限られるものではない。
上述した実施形態では、X線CT装置によって収集されたCTボリュームデータから領域を抽出する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、MRI装置や超音波診断装置などのその他のモダリティによって収集されたボリュームデータから領域を抽出する場合であってもよい。
また、上述した実施形態では、画像データ取得部141が、画像保管装置300又は医用画像診断装置200からボリュームデータを取得する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、医師がフラッシュメモリや外付けハードディスクなどの可搬性の記憶媒体で医用画像データを持ち運び、画像処理装置100の画像データ記憶部131に格納する場合であってもよい。かかる場合には、画像データ取得部141によるボリュームデータの取得は実行されなくてもよい。
また、上述した実施形態では、画像処理装置100について説明したが、実施形態はこれに限定されるものではなく、例えば、図4に示す画像処理装置100の制御部140が図1に示す医用画像診断装置200に組み込まれ、医用画像診断装置にて上述した処理が実行される場合であってもよい。
また、上述した実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用コンピュータが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した実施形態の画像処理装置100による効果と同様の効果を得ることも可能である。上述した実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータ又は組み込みシステムが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の画像処理装置100と同様の動作を実現することができる。また、コンピュータがプログラムを取得する場合又は読み込む場合は、ネットワークを通じて取得又は読み込んでもよい。
また、記憶媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(Operating System)や、データベース管理ソフト、ネットワーク等のMW(Middleware)等が、上述した実施形態を実現するための各処理の一部を実行してもよい。更に、記憶媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LAN(Local Area Network)やインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記憶媒体も含まれる。また、記憶媒体は1つに限られず、複数の媒体から、上述した実施形態における処理が実行される場合も、実施形態における記憶媒体に含まれ、媒体は何れの構成であってもよい。
なお、実施形態におけるコンピュータ又は組み込みシステムは、記憶媒体に記憶されたプログラムに基づき、上述した実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。また、実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって実施形態における機能を実現することが可能な機器、装置を総称している。
(ハードウェア構成)
図13は、実施形態に係る画像処理装置のハードウェア構成を示す図である。上述した実施形態に係る画像処理装置は、CPU(Central Processing Unit)40等の制御装置と、ROM(Read Only Memory)50やRAM(Random Access Memory)60等の記憶装置と、ネットワークに接続して通信を行う通信I/F70と、各部を接続するバス80とを備えている。
上述した実施形態に係る画像処理装置で実行されるプログラムは、ROM50等に予め組み込まれて提供される。また、上述した実施形態に係る画像処理装置で実行されるプログラムは、コンピュータを上述した画像処理装置の各部(例えば、第2の抽出部143など)として機能させ得る。このコンピュータは、CPU40がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
以上、説明したとおり、第1〜第3の実施形態よれば、3次元画像データからの領域抽出の精度を向上させることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
100 画像処理装置
142 第1の抽出部
143 第2の抽出部

Claims (12)

  1. 3次元画像データから抽出対象の構造を含む第1の領域を抽出する第1の抽出部と、
    前記第1の領域をボクセルの特徴量の類似度及び位置関係に基づいて複数の小領域に分割し、前記3次元画像データにおける前記第1の領域以外の領域である第2の領域との類似度及び位置関係に基づいて、前記複数の小領域から前記構造に含まれる小領域を抽出することで、前記構造の領域を抽出する第2の抽出部と、
    を備える画像処理装置。
  2. 前記第2の抽出部は、前記第2の領域と所定の位置関係にある小領域のうち、前記第2の領域との特徴量分布の類似度が所定の閾値以下、又は、前記特徴量分布の距離が所定の閾値以上である小領域を前記構造に含まれる小領域として抽出する請求項1に記載の画像処理装置。
  3. 前記第2の抽出部は、前記抽出対象の構造に該当するかを特定するための特定情報に基づいて、前記複数の小領域から前記構造に含まれる小領域を抽出する請求項1又は2に記載の画像処理装置。
  4. 前記第2の抽出部は、前記第1の領域に含まれるボクセルを輝度値及び3次元座標を用いてクラスタリングすることにより、前記第1の領域を複数の小領域に分割する請求項1〜3のいずれか一項に記載の画像処理装置。
  5. 前記特徴量分布がボクセルの輝度値の分布である請求項2に記載の画像処理装置。
  6. 前記第1の抽出部は、前記3次元画像データにおいてボクセルの輝度値が所定の閾値以上である領域を前記第1の領域として抽出する請求項1〜5のいずれか一項に記載の画像処理装置。
  7. 前記3次元画像データがCT画像データであり、前記抽出対象の構造が腫瘍及び血管を含む解剖学的構造である請求項1〜6のいずれか一項に記載の画像処理装置。
  8. 前記腫瘍は、充実性陰影及びすりガラス状陰影のうち、少なくとも一方の陰影として観察される請求項7に記載の画像処理装置。
  9. 前記構造の領域に含まれる小領域を識別する識別部をさらに備える請求項1〜8のいずれか一項に記載の画像処理装置。
  10. 前記特定情報が、操作者によって指定された情報、又は、CADによって指定された情報である請求項3に記載の画像処理装置。
  11. 3次元画像データから抽出対象の領域を抽出する装置によって実行される画像処理方法であって、
    前記3次元画像データから抽出対象の構造を含む第1の領域を抽出する第1の抽出ステップと、
    前記第1の領域をボクセルの特徴量の類似度及び位置関係に基づいて複数の小領域に分割し、前記3次元画像データにおける前記第1の領域以外の領域である第2の領域との類似度及び位置関係に基づいて、前記複数の小領域から前記構造に含まれる小領域を抽出することで、前記構造の領域を抽出する第2の抽出ステップと、
    を含む画像処理方法。
  12. 3次元画像データを収集する画像データ収集部と、
    前記3次元画像データから抽出対象の構造を含む第1の領域を抽出する第1の抽出部と、
    前記第1の領域をボクセルの特徴量の類似度及び位置関係に基づいて複数の小領域に分割し、前記3次元画像データにおける前記第1の領域以外の領域である第2の領域との類似度及び位置関係に基づいて、前記複数の小領域から前記構造に含まれる小領域を抽出することで、前記構造の領域を抽出する第2の抽出部と、
    を備える医用画像診断装置。
JP2014142686A 2014-07-10 2014-07-10 画像処理装置、画像処理方法及び医用画像診断装置 Active JP6415878B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014142686A JP6415878B2 (ja) 2014-07-10 2014-07-10 画像処理装置、画像処理方法及び医用画像診断装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014142686A JP6415878B2 (ja) 2014-07-10 2014-07-10 画像処理装置、画像処理方法及び医用画像診断装置

Publications (2)

Publication Number Publication Date
JP2016016265A true JP2016016265A (ja) 2016-02-01
JP6415878B2 JP6415878B2 (ja) 2018-10-31

Family

ID=55231970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014142686A Active JP6415878B2 (ja) 2014-07-10 2014-07-10 画像処理装置、画像処理方法及び医用画像診断装置

Country Status (1)

Country Link
JP (1) JP6415878B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215876A (ja) * 2016-06-01 2017-12-07 富士通株式会社 類似画像検索プログラム、類似画像検索方法、及び類似画像検索装置
JP2018061771A (ja) * 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法
JP2018147109A (ja) * 2017-03-02 2018-09-20 国立大学法人大阪大学 画像領域分割装置、画像領域分割方法、画像領域分割プログラム、及び画像特徴抽出方法
JP2019530116A (ja) * 2016-09-05 2019-10-17 ケイロン メディカル テクノロジーズ リミテッド マルチモーダル医用画像処理
WO2020050635A1 (ko) * 2018-09-05 2020-03-12 주식회사 실리콘사피엔스 기계 학습 및 영상 처리 알고리즘을 이용하여 의료 영상의 혈관들을 자동으로 영역화하는 방법 및 시스템
CN111144449A (zh) * 2019-12-10 2020-05-12 东软集团股份有限公司 图像处理方法、装置、存储介质及电子设备

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196339A (ja) * 1997-09-22 1999-04-09 Olympus Optical Co Ltd 画像中の腫瘤影の検出装置及び方法並びに腫瘤影検出プログラムを記録した記録媒体
JP2002530133A (ja) * 1998-11-13 2002-09-17 アーチ・デベロップメント・コーポレーション 肺結節中の悪性腫瘍検出用システム
JP2003265463A (ja) * 2002-03-13 2003-09-24 Nagoya Industrial Science Research Inst 画像診断支援システム及び画像診断支援プログラム
JP2004283211A (ja) * 2003-03-19 2004-10-14 Fuji Photo Film Co Ltd 画像判別装置、方法およびプログラム
JP2006198059A (ja) * 2005-01-19 2006-08-03 Ziosoft Inc 識別方法
JP2006239005A (ja) * 2005-03-01 2006-09-14 Kobe Univ 画像診断処理装置および画像診断処理プログラム
US20080298666A1 (en) * 2007-06-04 2008-12-04 Siemens Medical Solutions Usa, Inc. Identifying blood vessels in lung x-ray radiographs
JP2009028161A (ja) * 2007-07-25 2009-02-12 Toshiba Corp 医用画像表示装置及び医用画像表示方法
JP2009273771A (ja) * 2008-05-16 2009-11-26 Toshiba Corp 画像処理装置
JP2014030623A (ja) * 2012-08-03 2014-02-20 Kyoto Univ 画像処理装置、画像処理方法およびプログラム
JP2014068861A (ja) * 2012-09-28 2014-04-21 Fujifilm Corp 画像処理装置および方法並びにプログラム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196339A (ja) * 1997-09-22 1999-04-09 Olympus Optical Co Ltd 画像中の腫瘤影の検出装置及び方法並びに腫瘤影検出プログラムを記録した記録媒体
JP2002530133A (ja) * 1998-11-13 2002-09-17 アーチ・デベロップメント・コーポレーション 肺結節中の悪性腫瘍検出用システム
JP2003265463A (ja) * 2002-03-13 2003-09-24 Nagoya Industrial Science Research Inst 画像診断支援システム及び画像診断支援プログラム
JP2004283211A (ja) * 2003-03-19 2004-10-14 Fuji Photo Film Co Ltd 画像判別装置、方法およびプログラム
JP2006198059A (ja) * 2005-01-19 2006-08-03 Ziosoft Inc 識別方法
JP2006239005A (ja) * 2005-03-01 2006-09-14 Kobe Univ 画像診断処理装置および画像診断処理プログラム
US20080298666A1 (en) * 2007-06-04 2008-12-04 Siemens Medical Solutions Usa, Inc. Identifying blood vessels in lung x-ray radiographs
JP2009028161A (ja) * 2007-07-25 2009-02-12 Toshiba Corp 医用画像表示装置及び医用画像表示方法
JP2009273771A (ja) * 2008-05-16 2009-11-26 Toshiba Corp 画像処理装置
JP2014030623A (ja) * 2012-08-03 2014-02-20 Kyoto Univ 画像処理装置、画像処理方法およびプログラム
JP2014068861A (ja) * 2012-09-28 2014-04-21 Fujifilm Corp 画像処理装置および方法並びにプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215876A (ja) * 2016-06-01 2017-12-07 富士通株式会社 類似画像検索プログラム、類似画像検索方法、及び類似画像検索装置
JP2019530116A (ja) * 2016-09-05 2019-10-17 ケイロン メディカル テクノロジーズ リミテッド マルチモーダル医用画像処理
JP2018061771A (ja) * 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法
WO2018070285A1 (ja) * 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法
JP2018147109A (ja) * 2017-03-02 2018-09-20 国立大学法人大阪大学 画像領域分割装置、画像領域分割方法、画像領域分割プログラム、及び画像特徴抽出方法
WO2020050635A1 (ko) * 2018-09-05 2020-03-12 주식회사 실리콘사피엔스 기계 학습 및 영상 처리 알고리즘을 이용하여 의료 영상의 혈관들을 자동으로 영역화하는 방법 및 시스템
US11216950B2 (en) 2018-09-05 2022-01-04 Ai Medic Inc. Method and system for automatically segmenting blood vessel in medical image by using machine learning and image processing algorithm
CN111144449A (zh) * 2019-12-10 2020-05-12 东软集团股份有限公司 图像处理方法、装置、存储介质及电子设备
CN111144449B (zh) * 2019-12-10 2024-01-19 东软集团股份有限公司 图像处理方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
JP6415878B2 (ja) 2018-10-31

Similar Documents

Publication Publication Date Title
US11730387B2 (en) Method for detection and diagnosis of lung and pancreatic cancers from imaging scans
Moghbel et al. Review of liver segmentation and computer assisted detection/diagnosis methods in computed tomography
US11379985B2 (en) System and computer-implemented method for segmenting an image
Scalco et al. Texture analysis of medical images for radiotherapy applications
Wu et al. Automatic liver segmentation on volumetric CT images using supervoxel‐based graph cuts
Bi et al. Automatic detection and classification of regions of FDG uptake in whole-body PET-CT lymphoma studies
Despotović et al. MRI segmentation of the human brain: challenges, methods, and applications
US9990712B2 (en) Organ detection and segmentation
Zahoor et al. Breast cancer detection and classification using traditional computer vision techniques: a comprehensive review
El-Baz et al. Computer‐aided diagnosis systems for lung cancer: challenges and methodologies
EP3035287B1 (en) Image processing apparatus, and image processing method
Huang et al. A robust graph-based segmentation method for breast tumors in ultrasound images
JP4999163B2 (ja) 画像処理方法および装置ならびにプログラム
Zhou et al. Automated lung segmentation and smoothing techniques for inclusion of juxtapleural nodules and pulmonary vessels on chest CT images
JP6415878B2 (ja) 画像処理装置、画像処理方法及び医用画像診断装置
US9230320B2 (en) Computer aided diagnostic system incorporating shape analysis for diagnosing malignant lung nodules
JP7005191B2 (ja) 画像処理装置、医用画像診断装置、及びプログラム
Mukherjee et al. Lung nodule segmentation using deep learned prior based graph cut
US8675931B2 (en) Medical image segmentation
EP1916624A1 (en) Method for segmenting a digital medical image.
Militzer et al. Automatic detection and segmentation of focal liver lesions in contrast enhanced CT images
JP2016007270A (ja) 医用画像処理装置
EP2208183B1 (en) Computer-aided detection (cad) of a disease
Rani et al. Superpixel with nanoscale imaging and boosted deep convolutional neural network concept for lung tumor classification
Moreno et al. Study of medical image processing techniques applied to lung cancer

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160317

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181003

R150 Certificate of patent or registration of utility model

Ref document number: 6415878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150