JP6626344B2 - 画像処理装置、画像処理装置の制御方法およびプログラム - Google Patents
画像処理装置、画像処理装置の制御方法およびプログラム Download PDFInfo
- Publication number
- JP6626344B2 JP6626344B2 JP2015257328A JP2015257328A JP6626344B2 JP 6626344 B2 JP6626344 B2 JP 6626344B2 JP 2015257328 A JP2015257328 A JP 2015257328A JP 2015257328 A JP2015257328 A JP 2015257328A JP 6626344 B2 JP6626344 B2 JP 6626344B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- anatomical
- extracting
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 189
- 238000000034 method Methods 0.000 title claims description 169
- 238000009826 distribution Methods 0.000 claims description 143
- 238000000605 extraction Methods 0.000 claims description 140
- 210000003484 anatomy Anatomy 0.000 claims description 108
- 210000004185 liver Anatomy 0.000 claims description 52
- 238000004364 calculation method Methods 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 41
- 238000003384 imaging method Methods 0.000 claims description 32
- 239000000284 extract Substances 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 11
- 238000010186 staining Methods 0.000 claims description 5
- 230000002123 temporal effect Effects 0.000 description 59
- 210000003734 kidney Anatomy 0.000 description 17
- 239000002872 contrast media Substances 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 16
- 230000014509 gene expression Effects 0.000 description 16
- 210000000952 spleen Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000005484 gravity Effects 0.000 description 10
- 210000000056 organ Anatomy 0.000 description 10
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000002159 abnormal effect Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000002591 computed tomography Methods 0.000 description 7
- 238000005315 distribution function Methods 0.000 description 7
- 210000004072 lung Anatomy 0.000 description 7
- 210000004197 pelvis Anatomy 0.000 description 7
- 238000002603 single-photon emission computed tomography Methods 0.000 description 6
- 238000012804 iterative process Methods 0.000 description 5
- 230000003252 repetitive effect Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000003902 lesion Effects 0.000 description 4
- 238000002595 magnetic resonance imaging Methods 0.000 description 4
- 210000003240 portal vein Anatomy 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 239000003814 drug Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 210000000038 chest Anatomy 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000001338 necrotic effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/162—Segmentation; Edge detection involving graph-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20116—Active contour; Active surface; Snakes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20128—Atlas-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Analysis (AREA)
Description
被検体を造影して撮像した画像を取得する取得手段と、
前記被検体において造影される前記被検体の第一の解剖学的部位を表す第一の領域を前記画像から抽出する第一の領域抽出手段と、
前記第一の領域の濃度値に関する特徴量と前記第一の解剖学的部位の複数の時相における濃度値に関する統計データとの比較結果に基づいて、前記画像の時相を推定する推定手段と、
前記推定手段による推定結果に基づいて、前記被検体の第二の解剖学的部位を表す第二の領域を前記画像から抽出する第二の領域抽出手段と
を備えることを特徴とする。
<概要>
本実施形態に係る画像処理装置は、3次元医用画像から、臓器や病変部など被検体の所定の解剖学的部位の領域の抽出を行う。このとき、入力された画像から時相(例えば、「非造影」、「早期相」、「門脈相」、「晩期相」)を推定し、その推定結果に基づいて後段の処理のパラメータを設定する。これにより、入力画像のヘッダ部分に時相情報が含まれていなくても、もしくは時相情報が誤っていても、適切なパラメータが選ばれ、良好な領域抽出結果を得ることができる。
図1は、本実施形態に係る画像処理システムの構成例を示す。同図に示すように、本実施形態における画像処理装置100は、データサーバ110、データベース120および表示部130と接続されている。
画像処理装置100は、以下に説明する構成要素により構成されている。画像データ取得部1010は、画像処理装置100へ入力される画像データ(入力画像)をデータサーバ110から取得する。そして、取得した入力画像を、第一の領域抽出部1040、特徴量算出部1050、第二の領域抽出部1070、および表示制御部1080へと出力する。
図2は、本実施形態に係る画像処理装置100が実施する全体の処理手順を示すフローチャートである。
ステップS2000において、画像データ取得部1010は、データサーバ110から処理対象である入力画像を取得する。また、統計データ取得部1020は、データベース120から統計データを取得する。
ステップS2010において、第一の領域抽出部1040は、ステップS2000で取得した入力画像上にランドマークを配置する。このランドマークは後段の確率アトラスと入力画像を位置合わせする際に用いられる。本実施形態では、入力画像中から肺領域と骨盤領域をそれぞれ閾値処理により抽出し、その領域の重心位置に基づいてランドマークを配置する。
ステップS2020において、第一の領域抽出部1040は、ステップS2010で配置されたランドマークを用いて、データベース120に格納されている確率アトラスと入力画像との位置合わせを行う。本実施形態では、ステップS2010で配置されたランドマークと、確率アトラス上のランドマークとを対応させる。そして代表的な変形モデルの一つであるRadial Basis Function(RBF)で変形場を作成し、確率アトラスを入力画像に合うように変形させる。これにより、患者による各解剖学的部位の位置のバイアスを取り除くことができる。なお、画像変形に用いる手法は必ずしもRBFである必要はなく、代表的な変形モデルの一つであるFree Form Deformation(FFD)などを用いてもよい。
ステップS2030において、部位選択部1030は、画像処理装置100が抽出対象としている解剖学的部位の中から第一の解剖学的部位を選択する。本実施形態では、先に述べた理由により、心臓および肝臓を第一の解剖学的部位として選択する。なお、第一の解剖学的部位の選択は、入力画像に応じて適応的に行うようにしてもよい。例えば、ステップS2020で得た確率アトラスとの位置合わせ結果に基づき、候補部位である心臓と肝臓の夫々が入力画像に含まれているか否かを判定し、入力画像に含まれている部位のみを第一の解剖学的部位として選択してもよい。
ステップS2040において、第一の領域抽出部1040は、ステップS2030で選択された第一の解剖学的部位の領域を入力画像から抽出する。本実施形態では、領域抽出手法として、非特許文献1に記載されているMAP法を採用する。MAP法は、各画素において観測される特徴量v(ここでは濃度値)に基づいて、事後確率が最大になる部位ラベルを夫々の画素に割り当てる手法である。数式で表すと以下のようになる。
ステップS2050において、特徴量算出部1050は、ステップS2040で抽出された第一の解剖学的部位の領域から、当該領域の濃度値に関する特徴量を算出する。本実施形態では、第一の解剖学的部位の夫々について、領域内の平均濃度値を算出する。なお、算出する特徴量は必ずしも平均濃度値である必要はなく、領域内における濃度値の分散や最大値・最小値などを、当該領域の濃度値に関する特徴量として算出してもよい。また、これらの組み合わせを特徴量としてもよい。
ステップS2060において、時相推定部1060は、ステップS2050で算出した濃度値に関する特徴量を用いて、入力画像の時相を推定する。ここでは、ステップS2000で統計データとして取得した、第一の解剖学的部位の各時相における平均濃度値を用いる。すなわち、入力画像の特徴量と統計データとを比較することで、時相の推定を行う。
ステップS2070において、第二の領域抽出部1070は、ステップS2060で推定した時相情報を用いて、第二の解剖学的部位の領域を入力画像から抽出する。まず、ステップS2060で推定した時相情報t*に基づいて、適切な統計データとして、各部位の濃度値の事前分布(すなわち、平均値Il_t*_DBと分散値σl_t*_DB 2)を選択する。そして、選択した事前分布に基づき、ステップS2040と同様の処理により第二の領域を抽出する。なお、本ステップの実際の処理では、ステップS2040と同様に、第一の解剖学的部位と同一の部位も含む全ての部位の領域抽出を行う。なお、第一の解剖学的部位の領域については、本ステップの結果を用いてもよいし、ステップS2040で得た結果に差し替えて用いてもよい。最後に、第二の領域抽出部1070は、全領域の抽出結果を、3次元のラベル画像の形態でデータサーバ110へ出力して保存する。
ステップS2080において、表示制御部1080は、ステップS2070で領域抽出された各部位の領域を入力画像上に表示する。本実施形態では、不図示のUI(user interface)を介してユーザが指定した入力画像の断面画像に、ステップS2070で得たラベル画像の当該断面を重畳して表示する。
上記の実施形態では、時相が「非造影」、「早期相」、「門脈相」、「晩期相」の何れの状態であるかを推定していた。しかし、事前分布の選択に十分な分類であれば、画像の時系列での濃度値変化に関する他の状態の分類でもよい。例えば、濃度値の分布が類似する複数の時相を統合して用いてもよい。例えば、「早期相」と「晩期相」を一つにまとめて、「非造影」、「門脈相」、「早期相または晩期相」の何れであるかを推定するようにしてもよい。また、推定する状態は医学の分野で分類される「時相」とは必ずしも一致していなくてもよく、事前分布のバリエーションに基づいて適宜定義してもよい。
上記の実施形態におけるステップS2070の処理では、時相ごとに定める濃度値の事前分布として、平均値と分散値を得ていた。しかし、平均値と分散値の両方を必ずしも時相に応じて求めなくてもよい。例えば、分散値には共通の固定値を用いることにして、平均値だけを時相に応じて得るようにしてもよい。
第1の実施形態では、第一の領域抽出の結果から推定した時相の情報を利用して、第二の領域抽出を行っていた。一方、本実施形態における画像処理装置は、時相の推定を介さずに同様の効果を得る。以下、本実施形態に係る画像処理装置について、第1の実施形態との相違部分を中心に説明する。
図4は、本実施形態に係る画像処理システムの構成例を示す。第1の実施形態と同じ部分は同じ番号で示している。すなわち、本実施形態に係る画像処理装置400は、第1の実施形態における時相推定部1060の代わりに事前分布推定部4060を有する。また、第二の領域抽出部4070の処理が、第1の実施形態における第二の領域抽出部1070の処理と異なっている。その他の構成については第1の実施形態と同様であるため説明を省略する。
図5は、本実施形態に係る画像処理装置400が実施する全体の処理手順を示すフローチャートである。なお、ステップS2000〜S2050およびS2080で各部が行う処理は、第1の実施形態と同様である。
ステップS5060において、事前分布推定部4060は、ステップS2050で算出した第一の解剖学的部位の濃度値に関する特徴量を用いて、第二の解剖学的部位の濃度値の事前分布を推定する。具体的には、第二の解剖学的部位の事前分布を表す濃度値関数の夫々に第一の解剖学的部位の濃度値に関する特徴量を入力して、事前分布の値を得る。
ステップS5070において、第二の領域抽出部4070は、ステップS5060で推定した第二の解剖学的部位の濃度値の事前分布を用いて、第二の解剖学的部位の領域を入力画像から抽出する。本ステップの処理は、ステップS2040と同様である。ただし、ステップS5060で推定した事前分布を用いる点だけが、ステップS2040の処理とは異なっている。
背景技術において説明した通り、造影剤を投与してからの経過時間が異なると、同じ解剖学的部位であっても染まり方が異なる。そのため、例えば解剖学的部位の領域を抽出する画像処理において、さまざまな時相の画像を処理対象とすると、一つの画像処理パラメータでは正確な抽出が行えない場合がある。特許文献1では、DICOM(Digital Imaging and Communication in Medicine)規格に従って保存された医用画像のヘッダ部から撮影時刻を取得し、取得した撮影時刻に基づいて領域拡張法や動的輪郭法で使用するパラメータを設定する技術が開示されている。
本実施形態に係る画像処理装置は、当該装置へ入力された医用画像(入力画像)から臓器や病変部など被検体の所定の解剖学的部位(抽出対象の解剖学的部位)の領域を抽出する。このとき、入力画像から時相の情報(例えば、「非造影」、「早期相」、「門脈相」、「晩期相」)を推定し、その後、入力画像の各画素について、推定した時相の情報に基づき帰属度を算出することを特徴とする。ここで帰属度とは、抽出対象の解剖学的部位のうちのいずれに属しているかを表す値のことである。後段の領域抽出処理では、時相情報に基づいて算出された帰属度を利用して、入力画像から抽出対象の解剖学的部位に対応する領域を抽出する。このような方法により、入力画像がどのような時相であっても、抽出対象の解剖学的部位を良好に抽出することが可能となる。
本実施形態に係る画像処理システムの構成例を図6に示す。同図に示すように、本実施形態における画像処理装置600は、データサーバ610および表示部620と接続されている。
画像処理装置600は、以下に説明する構成要素により構成されている。画像データ取得部6010は、画像処理装置600へ入力される画像データ(入力画像)をデータサーバ610から取得する。そして取得した入力画像を、時相情報取得部6030、第一の帰属度算出部6040、第一の領域抽出部6050、および表示制御部6060へと出力する。
図7は、本実施形態に係る画像処理装置600が実施する全体の処理手順を示すフローチャートである。
ステップS7000において、画像データ取得部6010は、データサーバ610から処理対象である入力画像を取得する。また、統計データ取得部6020は、データサーバ610から統計データを取得する。
ステップS7010において、時相情報取得部6030は、入力画像の時相の情報を推定する。ここで図9のフローチャートを参照して、時相情報取得部6030が行う処理の詳細を説明する。
ステップS9010において、時相推定のための領域抽出部8010は、ステップS7000で取得した入力画像上にランドマークを配置する。このランドマークは後段の存在確率アトラスと入力画像を位置合わせする際に用いられる。本実施形態では、入力画像中から肺領域と骨盤領域をそれぞれ閾値処理により抽出し、その領域の重心位置に基づいてランドマークを配置する。
ステップS9020において、時相推定のための領域抽出部8010は、ステップS9010で配置されたランドマークを用いて、データサーバ610に格納されている存在確率アトラスと、入力画像との位置合わせを行う。本実施形態では、ステップS9010で配置されたランドマークと、存在確率アトラス上のランドマークとを対応させる。そして代表的な変形モデルの一つであるRadial Basis Function(RBF)で変形場を作成し、存在確率アトラスを入力画像に合うように変形させる。これにより、患者による各解剖学的部位の位置のバイアスを取り除くことができる。なお、画像変形に用いる手法は必ずしもRBFである必要はなく、代表的な変形モデルの一つであるFree Form Deformation(FFD)などを用いてもよい。
ステップS9030において、部位選択部8020は、画像処理装置600が抽出対象としている解剖学的部位の中から時相推定のための解剖学的部位を選択する。本実施形態では、先に述べた理由により、心臓および肝臓を時相推定のための解剖学的部位として選択する。なお、時相推定のための解剖学的部位の選択は、入力画像に応じて適応的に行うようにしてもよい。例えば、ステップS9020で得た存在確率アトラスとの位置合わせ結果に基づき、候補部位である心臓と肝臓の夫々が入力画像に含まれているか否かを判定し、入力画像に含まれている部位のみを時相推定のための解剖学的部位として選択してもよい。
ステップS9040において、時相推定のための領域抽出部8010は、ステップS9030で選択された時相推定のための解剖学的部位の領域を入力画像から抽出する。本実施形態では、領域抽出手法として、非特許文献1に記載されている最大事後確率法(Maximum a Posterior Probability,MAP法)を採用する。MAP法は、各画素において観測される特徴量v(ここでは濃度値)に基づいて、事後確率が最大になる部位ラベルを夫々の画素に割り当てる手法である。数式で表すと以下のようになる。
ステップS9050において、特徴量算出部8030は、ステップS9040で抽出された時相推定のための解剖学的部位の領域から、当該領域の濃度値に関する特徴量(時相推定のための特徴量)を算出する。本実施形態では、時相推定のための解剖学的部位の夫々について、領域内の平均濃度値を算出する。なお、算出する特徴量は必ずしも平均濃度値である必要はなく、領域内における濃度値の分散や最大値・最小値などを、当該領域の濃度値に関する特徴量として算出してもよい。また、これらの組み合わせを特徴量としてもよい。
ステップS9060において、時相推定部8040は、ステップS9050で算出した時相推定のための特徴量を用いて、入力画像の時相を推定する。ここでは、ステップS7000で統計データとして取得した、時相推定のための解剖学的部位の各時相における平均濃度値を用いる。すなわち、入力画像の特徴量と統計データとを比較することで、時相の推定を行う。具体的には、次式を用いて各時相の評価値Dtを算出する。
ステップS7020において、第一の帰属度算出部6040は、抽出対象の各々の解剖学的部位について第一の帰属度を算出する。ここで解剖学的部位の集合Lに含まれる一つの部位をlで表す。またLからlを除いた集合をL'lとし(すなわちL'l = L − {l})、L'lに含まれる個々の解剖学的部位をl'lとする。すると本ステップでは、入力画像のそれぞれの画素pについて、lの事後確率pp(l|v)と、L'lに含まれる解剖学的部位l'lの事後確率pp(l'l|v)の最大値pp(l' l_max|v)を決定する。そして、それらの事後確率の組(pp(l|v), pp(l'l_max|v))を画素pにおける解剖学的部位lの第一の帰属度として算出する。本ステップでは、入力画像のすべての画素について、この第一の帰属度(事後確率の組)を計算する。
ステップS7030において、第一の領域抽出部6050は、第一の帰属度を用いて領域を抽出した後、抽出した領域に対して形状モデルを当てはめる。本ステップの処理は、抽出対象のそれぞれの解剖学的部位について、それぞれ独立に実行される。以下では、解剖学的部位lについて形状エネルギーを計算する例を説明する。
ステップS7040において、第一の領域抽出部6050は、特許文献2で開示されているグラフカット法で使用するグラフを生成する。
ステップS7050において、第一の領域抽出部6050は抽出対象のすべての解剖学的部位の領域を入力画像から抽出する。本ステップでは、特許文献2で開示されているグラフカット法を用いて領域抽出を行う。具体的には、ステップS7040で作成したグラフGlをMax−flow/min−cutアルゴリズムを用いて2つの部分グラフに分割し、その分割結果に基づき解剖学的部位lの領域を特定する。この処理を抽出対象のすべての解剖学的部位について行うことで、すべての解剖学的部位の領域を取得する。
ステップS7060において、表示制御部6060は、ステップS7050で領域抽出された各部位の領域を入力画像上に表示する。本実施形態では、不図示のUI(user interface)を介してユーザが指定した入力画像の断面画像に、ステップS7040で得たラベル画像の当該断面を重畳して表示する。
上記の実施形態では、時相が「非造影」、「早期相」、「門脈相」、「晩期相」の何れの状態であるかを推定し、その結果に基づいて第一の帰属度を算出する際に必要な事前分布を選択していた。しかし、事前分布の選択に十分な分類であれば、画像の時系列での濃度値変化に関する他の状態の分類でもよい。例えば、濃度値の分布が類似する複数の時相を統合して用いてもよい。例えば、「早期相」と「晩期相」を一つにまとめて、「非造影」、「門脈相」、「早期相または晩期相」の何れであるかを推定するようにしてもよい。また、推定する状態は医学の分野で分類される「時相」とは必ずしも一致していなくてもよく、事前分布のバリエーションに基づいて適宜定義してもよい。
第3の実施形態では、時相が「非造影」、「早期相」、「門脈相」、「晩期相」の何れの状態であるかを推定し、その結果に基づいて第一の帰属度を算出する際に必要な事前分布を選択していた。しかし、第一の帰属度の算出に必要な事前分布を選択することができれば、時相以外の画像の時系列での濃度値変化に関する情報を用いてもよい。
上記の実施形態におけるステップS7020の処理では、時相ごとに定める濃度値の事前分布として、平均値と分散値を得ていた。しかし、平均値と分散値の両方を必ずしも時相に応じて求めなくてもよい。例えば、分散値には共通の固定値を用いることにして、平均値だけを時相に応じて得るようにしてもよい。
上記の実施形態におけるステップS7010において時相情報取得部6030は、入力画像から時相推定のための特徴量を算出して、その結果を利用して時相の情報を取得していた。しかしながら入力画像に時相の情報が付帯している場合には、その情報を利用してもよい。例えば、入力画像がDICOM形式で保存されており、そのヘッダ部(DICOMヘッダ)に撮影時刻や時相の情報(「非造影」、「早期相」、「門脈相」、「晩期相」など)が格納されている場合は、それらの情報を取得するようにしてもよい。また入力画像がDICOM形式で保存されていない場合であっても、入力画像に対応する撮影時刻や時相の情報が何らかの形式でデータサーバ610に格納されている場合は、それらの情報を取得するようにしてもよい。
第3の実施形態では、入力画像の時相の情報を推定し、推定した時相の情報に基づいて、第一の帰属度を算出していた。そして算出した第一の帰属度に基づいて、入力画像から抽出対象の解剖学的部位に対応する領域を抽出していた。本実施形態における画像処理装置も、第3の実施形態と同様の方法で抽出対象の解剖学的部位に対応する領域を抽出する。しかしながら、本実施形態では、第3の実施形態で領域を抽出した後、抽出した領域を参照して、第3の実施形態で使用したものとは異なる帰属度(第二の帰属度)を計算する。そして第二の帰属度に基づいて、再度、抽出対象の解剖学的部位に対応する領域を抽出する。これにより、第3の実施形態における画像処理装置よりも、高い精度で解剖学的部位の領域を抽出する。以下、図11から図13までを参照して、本実施形態に係る画像処理装置について、第3の実施形態との相違部分を中心に説明する。
図12は、本実施形態に係る画像処理装置700が実施する全体の処理手順を示すフローチャートである。本図において、ステップS7000〜S7060で各処理部が行う処理は第3の実施形態と同様である。そのため、説明を省略する。
ステップS12060において第二の帰属度算出部7060は、抽出対象のそれぞれの解剖学的部位について、第二の帰属度を算出する。第二の帰属度は、MAP法を適用して得られる尤度に基づいて算出される。第一の帰属度と同様、第二の帰属度も入力画像の各画素について計算される。すなわち、入力画像の各画素pについて、解剖学的部位lの尤度pp(v|l)と、「その他の解剖学的部位」の尤度pp(v|others)の組(pp(v|l), pp(v|others))を解剖学的部位lの第二の帰属度として算出する。本ステップでは、入力画像のすべての画素について、この第二の帰属度(尤度の組)を計算する。
ステップS12070において、第二の領域抽出部7070は抽出対象の解剖学的部位に対応する領域を抽出する。ここで図13に示したフローチャートを参照して、本ステップにおける処理の詳細を説明する。
図13から分かる通り、ステップS12070において第二の領域抽出部7070は、ステップS13010、S13020、S13030、S13040、S13050の処理を反復的に繰り返すことで、抽出対象の解剖学的部位に対応する領域を抽出する。以下では、n回目の抽出処理について説明する。また、前回の抽出処理で抽出した解剖学的部位lの領域をマスク画像M[n] lに格納した場合について説明する。ここでM[n] lは2値画像であり、その画素値M[n] l(p)は画素pが部位lの領域に属するかどうかで異なる値をとる。例えば、画素pが部位lの領域に属する場合はM[n] l(p) = 1(もしくは0以外の何らかの定数)で、そうでなければM[n] l(p) = 0である。なおM[0] l、すなわち反復処理の開始時のマスク画像には、図12のステップS7050で抽出した解剖学的部位lの領域をマスク画像としたものを使用する。
ステップS13020において、第二の領域抽出部7070は、ステップS12060で算出した第二の帰属度に基づいて、グラフカット法で使用するグラフを生成する。グラフは抽出対象のそれぞれの解剖学的部位に対して1つ作成されることに注意されたい。以下では、解剖学的部位lに対応するグラフG[n] lを作成する例を説明する。
ステップS13030において、第二の領域抽出部7070は、前ステップで算出したそれぞれのグラフG[n] lに対してグラフカット法を適用し、入力画像から抽出対象の解剖学的部位に対応する領域を抽出する。本ステップの処理は、ステップS7050と同じである。
ステップS13040において、第二の領域抽出部7070は、前ステップで抽出した領域を所定の基準で評価する。この評価結果は、次ステップで反復処理の終了判定に使用される。
ステップS13050において、第二の領域抽出部7070は前ステップでの評価結果に基づいて、反復的な領域抽出処理の終了を判定する。本ステップでは評価結果を、条件1:Vl_1 [n-1] = 0、条件2:Vl_2 [n-1] = Vl_2 [n] かつVl_3 [n-1] = Vl_3 [n]、という2つの条件で判定する。そして2つの条件のうち、少なくとも一方の条件が満たされていることを判定する。もし、少なくとも一方の条件が満たされている場合は、ステップS13060の処理を実行する。もし条件が満たされていない場合は、ステップS13010の処理に戻る。
本ステップと次ステップで、抽出対象の解剖学的部位に対応する領域を入力画像から再度抽出する。ステップS13060とS13070は、ステップS13010、S13020、S13030、S13040、S13050の反復処理で抽出した領域の精度をさらに高めることを目的として実施する。そのため、この2つのステップは入力画像と同じ画像サイズ、または少なくとも反復処理で利用していた画像サイズよりも大きな画像サイズで実施することが望ましい。もし反復処理において画像サイズを縮小させていた場合は、反復処理の出力、例えば解剖学的部位の抽出結果であるマスク画像の画像サイズを、入力画像と同等の画像サイズに変換する処理を行ったうえで、実施するとよい。このような画像サイズの変換は、公知の画像処理であるサンプリング法、例えば最近傍補間法、線形補間法、三次補間法などで実行できる。
ステップS13070において第二の領域抽出部7070は、前ステップで算出したそれぞれのグラフG[m] lに対してグラフカット法を適用し、入力画像から抽出対象の解剖学的部位に対応する領域を抽出する。本ステップの処理は、ステップS7050と同じである。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (17)
- 被検体を造影して撮像した画像を取得する取得手段と、
前記被検体において造影される前記被検体の第一の解剖学的部位を表す第一の領域を前記画像から抽出する第一の領域抽出手段と、
前記第一の領域の濃度値に関する特徴量と前記第一の解剖学的部位の複数の時相における濃度値に関する統計データとの比較結果に基づいて、前記画像の時相を推定する推定手段と、
前記推定手段による推定結果に基づいて、前記被検体の第二の解剖学的部位を表す第二の領域を前記画像から抽出する第二の領域抽出手段と
を備えることを特徴とする画像処理装置。 - 前記第一の解剖学的部位は、患者間で位置変動が少ない部位であることを特徴とする請求項1に記載の画像処理装置。
- 前記第一の解剖学的部位は、濃染のパターンが互いに異なる複数の部位であることを特徴とする請求項1又は2に記載の画像処理装置。
- 前記第一の解剖学的部位は、肝臓および心臓であることを特徴とする請求項3に記載の画像処理装置。
- 前記第二の解剖学的部位は、前記第一の解剖学的部位と同一の部位を含み、
前記第二の領域抽出手段は、前記第一の領域抽出手段により抽出された第一の解剖学的部位の領域を、より高精度に抽出する処理を含むことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 - 被検体を造影して撮像した画像を取得する取得手段と、
前記被検体の第一の解剖学的部位を表す第一の領域を前記画像から抽出する第一の領域抽出手段と、
前記第一の領域内における濃度値に関する特徴量に基づいて、前記被検体の前記第一の解剖学的部位とは解剖学的に異なる第二の解剖学的部位を表す第二の領域内における濃度値の事前分布を推定する推定手段と、
前記事前分布を用いて前記第二の領域を前記画像から抽出する第二の領域抽出手段と
を備えることを特徴とする画像処理装置。 - 被検体を造影して撮像した画像を取得する画像取得手段と、
前記画像から該画像の時系列の濃度値変化を表す特徴を取得する特徴取得手段と、
前記特徴を用いて前記画像から抽出対象の解剖学的部位への帰属度を算出する算出手段と、
前記帰属度を用いて前記画像中に存在する前記解剖学的部位を抽出する抽出手段と、
グラフカット法におけるグラフを生成する生成手段と、を備え、
前記生成手段は、前記グラフの夫々の画像ノードとターミナル・ノードの間のリンクのエネルギーを、夫々の画像ノードに対応する画素に関する前記帰属度に基づいて割り当て、
前記抽出手段は、前記グラフに基づいて前記解剖学的部位を抽出することを特徴とする画像処理装置。 - 被検体を造影して撮像した画像を取得する画像取得手段と、
前記画像から該画像の時系列の濃度値変化を表す特徴を取得する特徴取得手段と、
前記特徴を用いて前記画像から抽出対象の解剖学的部位への帰属度を算出する算出手段と、
前記帰属度を用いて前記画像中に存在する前記解剖学的部位を抽出する抽出手段と、を備え、
前記算出手段は、前記帰属度を、前記画像内での前記解剖学的部位の存在確率に基づいて算出することを特徴とする画像処理装置。 - 前記特徴は、時相であることを特徴とする請求項7又は8に記載の画像処理装置。
- 前記算出手段は、前記帰属度を、前記画像の画像濃度値に基づいて算出することを特徴とする請求項7乃至9の何れか1項に記載の画像処理装置。
- 被検体を造影して撮像した画像を取得する取得手段と、
前記被検体において造影される前記被検体の所定の解剖学的部位を表す領域を前記画像から抽出する領域抽出手段と、
前記領域の濃度値に関する特徴量と前記所定の解剖学的部位の複数の時相における濃度値に関する統計データとの比較結果に基づいて、前記画像の時相を推定する推定手段と、
を備えることを特徴とする画像処理装置。 - 画像処理装置の制御方法であって、
取得手段が、被検体を造影して撮像した画像を取得する取得工程と、
第一の領域抽出手段が、前記被検体において造影される前記被検体の第一の解剖学的部位を表す第一の領域を前記画像から抽出する第一の領域抽出工程と、
推定手段が、前記第一の領域の濃度値に関する特徴量と前記第一の解剖学的部位の複数の時相における濃度値に関する統計データとの比較結果に基づいて、前記画像の時相を推定する推定工程と、
第二の領域抽出手段が、前記推定工程による推定結果に基づいて、前記被検体の第二の解剖学的部位を表す第二の領域を前記画像から抽出する第二の領域抽出工程と
を有することを特徴とする画像処理装置の制御方法。 - 画像処理装置の制御方法であって、
取得手段が、被検体を造影して撮像した画像を取得する取得工程と、
第一の領域抽出手段が、前記被検体の第一の解剖学的部位を表す第一の領域を前記画像から抽出する第一の領域抽出工程と、
推定手段が、前記第一の領域内における濃度値に関する特徴量に基づいて、前記被検体の前記第一の解剖学的部位とは解剖学的に異なる第二の解剖学的部位を表す第二の領域内における濃度値の事前分布を推定する推定工程と、
第二の領域抽出手段が、前記事前分布を用いて前記第二の領域を前記画像から抽出する第二の領域抽出工程と
を有することを特徴とする画像処理装置の制御方法。 - 画像処理装置の制御方法であって、
画像取得手段が、被検体を造影して撮像した画像を取得する画像取得工程と、
特徴取得手段が、前記画像から該画像の時系列の濃度値変化を表す特徴を取得する特徴取得工程と、
算出手段が、前記特徴を用いて前記画像から抽出対象の解剖学的部位への帰属度を算出する算出工程と、
生成手段が、グラフカット法におけるグラフを生成する生成工程と、
抽出手段が、前記帰属度を用いて前記画像中に存在する前記解剖学的部位を抽出する抽出工程と、を有し、
前記生成工程では、前記グラフの夫々の画像ノードとターミナル・ノードの間のリンクのエネルギーを、夫々の画像ノードに対応する画素に関する前記帰属度に基づいて割り当て、
前記抽出工程では、前記グラフに基づいて前記解剖学的部位を抽出することを特徴とする画像処理装置の制御方法。 - 画像処理装置の制御方法であって、
画像取得手段が、被検体を造影して撮像した画像を取得する画像取得工程と、
特徴取得手段が、前記画像から該画像の時系列の濃度値変化を表す特徴を取得する特徴取得工程と、
算出手段が、前記特徴を用いて前記画像から抽出対象の解剖学的部位への帰属度を算出する算出工程と、
抽出手段が、前記帰属度を用いて前記画像中に存在する前記解剖学的部位を抽出する抽出工程と、を有し、
前記算出工程では、前記帰属度を、前記画像内での前記解剖学的部位の存在確率に基づいて算出することを特徴とする画像処理装置の制御方法。 - 画像処理装置の制御方法であって、
取得手段が、被検体を造影して撮像した画像を取得する取得工程と、
領域抽出手段が、前記被検体において造影される前記被検体の所定の解剖学的部位を表す領域を前記画像から抽出する領域抽出工程と、
推定手段が、前記領域の濃度値に関する特徴量と前記所定の解剖学的部位の複数の時相における濃度値に関する統計データとの比較結果に基づいて、前記画像の時相を推定する推定工程と、
を有することを特徴とする画像処理装置の制御方法。 - 請求項13乃至16の何れか1項に記載の画像処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/273,793 US10007973B2 (en) | 2015-09-29 | 2016-09-23 | Image processing apparatus, method of controlling image processing apparatus, and storage medium |
EP16190989.0A EP3150125B1 (en) | 2015-09-29 | 2016-09-28 | Image processing apparatus, method of controlling image processing apparatus, and storage medium |
US15/995,266 US10672111B2 (en) | 2015-09-29 | 2018-06-01 | Image processing apparatus, method of controlling image processing apparatus, and storage medium that extract a region representing an anatomical portion of an object from an image by segmentation processing |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015192223 | 2015-09-29 | ||
JP2015192223 | 2015-09-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017064370A JP2017064370A (ja) | 2017-04-06 |
JP6626344B2 true JP6626344B2 (ja) | 2019-12-25 |
Family
ID=58493412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015257328A Active JP6626344B2 (ja) | 2015-09-29 | 2015-12-28 | 画像処理装置、画像処理装置の制御方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US10007973B2 (ja) |
JP (1) | JP6626344B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106725570B (zh) * | 2016-12-30 | 2019-12-20 | 上海联影医疗科技有限公司 | 成像方法及系统 |
JP7318058B2 (ja) * | 2017-06-30 | 2023-07-31 | キヤノンメディカルシステムズ株式会社 | 画像処理装置 |
GB2565775A (en) * | 2017-08-21 | 2019-02-27 | Nokia Technologies Oy | A Method, an apparatus and a computer program product for object detection |
US10470677B2 (en) * | 2017-10-11 | 2019-11-12 | Bay Labs, Inc. | Artificially intelligent ejection fraction determination |
JP2020025730A (ja) * | 2018-08-10 | 2020-02-20 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
EP3877989A1 (en) * | 2018-11-07 | 2021-09-15 | Brainlab AG | Compartmentalized dynamic atlas |
JP7313818B2 (ja) * | 2018-12-20 | 2023-07-25 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置、医用画像診断装置、及び医用画像処理方法 |
JP7437192B2 (ja) * | 2019-03-06 | 2024-02-22 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置 |
US10699751B1 (en) * | 2019-03-06 | 2020-06-30 | Wangsu Science & Technology Co., Ltd. | Method, system and device for fitting target object in video frame |
CN112330603B (zh) * | 2020-10-19 | 2023-04-18 | 浙江省肿瘤医院 | 基于软组织表面形变估计组织内部目标运动的系统与方法 |
CN112633148B (zh) * | 2020-12-22 | 2022-08-09 | 杭州景联文科技有限公司 | 一种签名指印真假检测方法及系统 |
JPWO2023032437A1 (ja) * | 2021-08-31 | 2023-03-09 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3876531B2 (ja) * | 1998-05-28 | 2007-01-31 | 富士通株式会社 | 文書画像の傾き補正方法 |
US6973212B2 (en) * | 2000-09-01 | 2005-12-06 | Siemens Corporate Research, Inc. | Graph cuts for binary segmentation of n-dimensional images from object and background seeds |
US6618327B2 (en) | 2001-05-01 | 2003-09-09 | Fossil, Inc. | System and method for driving LCD displays |
JP3486615B2 (ja) | 2001-05-22 | 2004-01-13 | 畦元 将吾 | 医療用画像の領域抽出方法 |
EP1958156A2 (en) * | 2005-12-01 | 2008-08-20 | Koninklijke Philips Electronics N.V. | A method a system and a computer program for segmenting a structure associated with a reference structure in an image |
JP4934525B2 (ja) * | 2007-06-27 | 2012-05-16 | 株式会社日立メディコ | 核磁気共鳴装置 |
US8229188B2 (en) * | 2007-10-12 | 2012-07-24 | General Electric Company | Systems, methods and apparatus automatic segmentation of liver in multiphase contrast-enhanced medical images |
DE102007060689B4 (de) | 2007-12-17 | 2017-07-13 | Siemens Healthcare Gmbh | Verfahren zur Aufnahme von angiographischen Datensätzen und Magnetresonanzanlage dafür |
JP5478832B2 (ja) * | 2008-03-21 | 2014-04-23 | 株式会社東芝 | 医用画像処理装置、及び医用画像処理プログラム |
JP4964191B2 (ja) * | 2008-06-12 | 2012-06-27 | 富士フイルム株式会社 | 画像処理装置および方法ならびにプログラム |
US9785858B2 (en) * | 2008-09-26 | 2017-10-10 | Siemens Healthcare Gmbh | Method and system for hierarchical parsing and semantic navigation of full body computed tomography data |
US20110002520A1 (en) * | 2009-07-01 | 2011-01-06 | Siemens Corporation | Method and System for Automatic Contrast Phase Classification |
US20110054295A1 (en) * | 2009-08-25 | 2011-03-03 | Fujifilm Corporation | Medical image diagnostic apparatus and method using a liver function angiographic image, and computer readable recording medium on which is recorded a program therefor |
JP5491237B2 (ja) * | 2010-03-09 | 2014-05-14 | 株式会社日立メディコ | 医用画像表示装置及び医用画像表示方法 |
JP5357818B2 (ja) | 2010-04-05 | 2013-12-04 | 株式会社日立製作所 | 画像処理装置および方法 |
US8848998B1 (en) * | 2010-06-10 | 2014-09-30 | Icad, Inc. | Automated method for contrast media arrival detection for dynamic contrast enhanced MRI |
JP5505164B2 (ja) * | 2010-07-23 | 2014-05-28 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP5814853B2 (ja) * | 2012-04-18 | 2015-11-17 | 富士フイルム株式会社 | 立体モデルデータ生成装置および方法並びにプログラム |
JP5879291B2 (ja) * | 2013-03-27 | 2016-03-08 | 富士フイルム株式会社 | 画像処理装置、画像処理プログラムおよび画像処理装置の作動方法 |
US10055836B1 (en) * | 2014-09-26 | 2018-08-21 | Koninklijke Philips N.V. | Automated method for tissue-based contrast media arrival detection for dynamic contrast enhanced MRI |
-
2015
- 2015-12-28 JP JP2015257328A patent/JP6626344B2/ja active Active
-
2016
- 2016-09-23 US US15/273,793 patent/US10007973B2/en active Active
-
2018
- 2018-06-01 US US15/995,266 patent/US10672111B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20180276799A1 (en) | 2018-09-27 |
US10672111B2 (en) | 2020-06-02 |
US20170109871A1 (en) | 2017-04-20 |
JP2017064370A (ja) | 2017-04-06 |
US10007973B2 (en) | 2018-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6626344B2 (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
US11379985B2 (en) | System and computer-implemented method for segmenting an image | |
Zhao et al. | An overview of interactive medical image segmentation | |
WO2018120644A1 (zh) | 血管提取方法及系统 | |
EP1851722B1 (en) | Image processing device and method | |
EP2916738B1 (en) | Lung, lobe, and fissure imaging systems and methods | |
JP2022544229A (ja) | オブジェクト検出を用いて位置特定された医用画像の三次元オブジェクトセグメンテーション | |
JP6598452B2 (ja) | 医用画像処理装置及び医用画像処理方法 | |
EP3206189B1 (en) | Image processing apparatus, image processing method, and program | |
US20160140751A1 (en) | Automated 3D Reconstruction of the Cardiac Chambers from MRI and Ultrasound | |
US9367924B2 (en) | Method and system for segmentation of the liver in magnetic resonance images using multi-channel features | |
KR20150045885A (ko) | 초음파 및 ct 영상의 정합에 관한 시스템 및 작동 방법 | |
Cha et al. | Segmentation and tracking of lung nodules via graph‐cuts incorporating shape prior and motion from 4D CT | |
US20060210158A1 (en) | Object-specific segmentation | |
Zhu et al. | Automatic delineation of the myocardial wall from CT images via shape segmentation and variational region growing | |
JP6257949B2 (ja) | 画像処理装置および医用画像診断装置 | |
Fritz et al. | Segmentation of the left and right cardiac ventricle using a combined bi-temporal statistical model | |
EP3150125B1 (en) | Image processing apparatus, method of controlling image processing apparatus, and storage medium | |
JP2006518072A (ja) | 適応メッシュのプリミティブにクラスを割り当てる画像の領域分割 | |
Freiman et al. | Vessels-cut: a graph based approach to patient-specific carotid arteries modeling | |
Zhu et al. | A complete system for automatic extraction of left ventricular myocardium from CT images using shape segmentation and contour evolution | |
won Cha et al. | Volumetric analysis of respiratory gated whole lung and liver CT data with motion-constrained graph cuts segmentation | |
Brahim et al. | Semi-automated rib cage segmentation in CT images for mesothelioma detection | |
Hu et al. | Semi-automatic medical image segmentation with adaptive local statistics in conditional random fields framework | |
Kronman et al. | Anatomical structures segmentation by spherical 3D ray casting and gradient domain editing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191129 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6626344 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |