JP3649328B2 - 画像領域抽出方法および装置 - Google Patents

画像領域抽出方法および装置 Download PDF

Info

Publication number
JP3649328B2
JP3649328B2 JP2002108608A JP2002108608A JP3649328B2 JP 3649328 B2 JP3649328 B2 JP 3649328B2 JP 2002108608 A JP2002108608 A JP 2002108608A JP 2002108608 A JP2002108608 A JP 2002108608A JP 3649328 B2 JP3649328 B2 JP 3649328B2
Authority
JP
Japan
Prior art keywords
class
coarse
grained
image
subspace
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002108608A
Other languages
English (en)
Other versions
JP2003303344A (ja
Inventor
朝春 喜友名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002108608A priority Critical patent/JP3649328B2/ja
Priority to US10/409,140 priority patent/US7136540B2/en
Publication of JP2003303344A publication Critical patent/JP2003303344A/ja
Application granted granted Critical
Publication of JP3649328B2 publication Critical patent/JP3649328B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、領域抽出の対象像を含む画像データに対し、画像のピクセルが持つ属性に基づいて、対象となる物体の領域を抽出する技術に関し、特に、MRI装置やCTスキャン装置などで撮影された画像データ、あるいは生物顕微鏡で観測された生体組織の断面図から、画像を特定の臓器や腫瘍、細胞の核、腺腔などの領域を抽出する画像領域抽出方法および装置に関する。
【0002】
【従来の技術】
従来、画像から特定の物体の像を抽出するには、次のような方法が知られている(例えば、特開2001−92980号公報;以下文献1とする。)
文献1にでは、輪郭抽出の対象となる物体の像を含む画像データに対し、前記画像の各点が持つ属性に基づいて、画像各点が各領域に属する確率である領域帰属確率を用いて、前記各点が属する領域を分離し、前記領域間の境界を輪郭として抽出する構成としている。このような構成とすることにより、領域分類の閾値を陽(explicit)に設定することなく、自動的に各領域の輪郭を抽出することが可能となり、輪郭領域抽出の高速化を可能にしている。
【0003】
【発明が解決しようとする課題】
上記文献1における輪郭領域抽出は、画像データから、画像上各点が領域の各々に属する領域帰属確率の期待値を算出し、領域帰属確率と領域パラメータから求められる混合確率分布に基づいて評価関数を算出し、領域帰属確率に基づいて各領域を分離し、分離された領域に基づいて輪郭を抽出しているため、評価関数を求める際、すべての画像点(ピクセル)に関して和を取る必要があり、最適なパラメータを求めるためにはこの評価関数の算出を何度も繰り返すことになる。
【0004】
そのため、従来の方法においては,画像のサイズが大きくなればなるほど、領域抽出に要する時間が膨大になるという問題がある。
【0005】
本発明は上述した問題点を鑑み、画像から、閾値を陽に設定することなく、更なる高速かつ高精度に対象領域を抽出する画像領域抽出方法および装置を提供することにある。
【0006】
【課題を解決するための手段】
本発明第1記載の画像領域抽出方法は、
領域抽出の対象となる画像データに対し、画像上の各ピクセルを複数のクラスに分割し、所望の領域を抽出する画像領域抽出方法において、
前記画像の前記各ピクセルが取りうる属性値全体から構成されるデータ空間を、所与の解像度で部分空間に分解し、該各部分空間に属性値を取るピクセルの番号と、該ピクセルの属性値の平均値と、該ピクセルの個数を保持し、粗視化データ空間を構成する第1の工程と、
前記各部分空間のピクセルの個数を前記画像に含まれる全ピクセルの個数で割り、前記粗視化データ空間上の粗視化経験確率分布を算出する第2の工程と、
前記各クラスの属性を規定するクラスパラメータ、前記クラスの数、および前記クラスの混合比率を初期化する第3の工程と、
前記クラスパラメータに基づいて、前記各部分空間の前記平均値における条件付き確率を算出し、該条件付き確率のデータ空間における分布である粗視化条件付き確率分布を算出する第4の工程と、
前記画像を構成する各ピクセルが各前記クラスに帰属する確率であるクラス帰属確率を、前記混合比率に前記粗視化条件付き確率分布を掛けることにより算出する第5の工程と、
粗視化対数尤度を評価関数として用い、該評価関数を増加させるように前記クラスパラメータ、および前記クラスの混合比率を更新する第6の工程と、
前記粗視化条件付き確率分布と、前記粗視化経験確率分布と、前記第6の工程で更新した前記クラスパラメータおよび前記クラスの混合比率とを用いて、前記評価関数を算出する第7の工程と、
前記評価関数が所与の終了条件を満たしているかどうかを調べる第8の工程と、
前記評価関数が前記所与の終了条件を満たした後、前記クラスパラメータおよび前記混合比率を保持し、前記クラス帰属確率に基づいて、前記ピクセルが属するクラスを決定し、前記所望の領域を抽出する第9の工程とを有し、
前記評価関数が前記所与の条件を満たまで、前記第4、前記第5、前記第6、前記第7、および前記第8の工程を繰り返すことを特徴とする。
【0008】
本発明第2に記載の画像領域抽出方法は、
前記第1に記載の画像領域抽出方法において、粗視化の解像度が元の解像度であるかを調べる第10の工程と、前記部分空間の解像度を元の解像度へ復元する第11の工程とを有し、
前記第3の工程において、前記第9の工程で保持されているクラスパラメータおよび前記クラスの混合比率を初期値として用い、所与の条件が満たされるまで、前記第4、前記第5、前記第6、前記第7、および前記第8の工程を繰り返すことを特徴とする。
【0009】
本発明第記載の画像領域抽出方法は、
前記第1及至第のいずれかに記載の画像領域抽出方法における前記第9の工程において、推定された前記混合比率に前記画像を構成する全ピクセルの個数を掛けて前記各クラスに属するピクセルの個数を算出し、前記クラス帰属確率が高い順から前記ピクセルを選択し、前記各クラスに属するピクセルを決定することを特徴とする。
【0010】
本発明第記載の画像領域抽出方法は、
前記第1及至第のいずれかに記載の画像領域抽出方法における前記第の工程において、前記評価関数としてAIC(Akaike Information Criterion)を用い、前記第の工程において評価関数を減少させるようパラメータを変更することを特徴とする。
【0011】
本発明第記載の画像領域抽出方法は、
前記第1及至第4のいずれかに記載の画像領域抽出方法における前記第の工程において、前記評価関数としてMDL(Minimum Description Length)を用い、前記第の工程において評価関数を減少させるようパラメータを変更することを特徴とする。
【0012】
本発明第記載の画像領域抽出方法は、
前記第1及至第4のいずれかに記載の画像領域抽出方法における前記第の工程において、前記評価関数としてストラクチュラル・リスク(Structural Risk)を用い、前記第の工程において該評価関数を減少させるようパラメータを変更することを特徴とする。
【0013】
本発明第記載の画像領域抽出方法は、
前記第1及至第のいずれかに記載の画像領域抽出方法における前記第3の工程において、
前記各部分空間同士が近傍にあるかどうかを定義する近傍半径と、前記クラスの数を設定し(ステップB1)、
前記各部分空間ごとに、各部分空間の代表値を設定し(ステップB2)、
分類対象部分空間の集合を設定し(ステップB3)、
前記分類対象部分空間の集合の中から、前記粗視化経験確率の最も高い部分空間を選択し(ステップB4)、
前記粗視化経験確率の最も高い部分空間の代表値との距離が、前記近傍半径以内である代表値を持つ部分空間全てを、近傍集合として選択し(ステップB5)、
すでに分類が完了したクラスに含まれる部分空間の代表値と、前記近傍集合に含まれる部分空間の代表値との間の最短距離が、前記近傍半径よりも大きいかどうかを調べ(ステップB6)、
もし、すでに分類が完了したクラスに含まれる部分空間の代表値と、前記近傍集合に含まれる部分空間の代表値との間の最短距離が、前記近傍半径よりも大きければ、前記近傍集合を新規クラスとし、前記分類対象部分空間から前記近傍集合を削除し、ステップB4以降を繰り返し(ステップB7)、
そうでなければ、前記近傍集合をすでに分類済みのクラスに追加し、前記分類対象部分空間から、前記近傍集合を削除し(ステップB8)、
前記分類対象部分空間が空集合であるかどうかを調べ(ステップB9)、
もし、前記分類対象部分空間が空集合でなければ、ステップB4以下を繰り返し、
前記分類対象部分空間が空集合であれば、分類が完了したクラスの数が所与の数以上あるかどうかを調べ(ステップB10)、
もし分類が完了したクラスの数が所与の数よりも少なければ、前記近傍半径を縮小し(ステップB11)、ステップB3以下を繰り返し、
もし、前記分類対象部分空間が空集合であり、かつ分類済みのクラスの数が所与の数よりも多ければ、各クラス内で前記クラスパラメータを算出し、これをクラスパラメータの初期値とし、また各クラス内に含まれる部分空間の数の比率を前記混合比率の初期値とする(ステップB12)、ことを特徴とする。
【0014】
本発明第記載の画像領域抽出装置は、
領域抽出の対象となる像を含む画像データに対し、画像上の各ピクセルを複数のクラスに分類し、所望の領域を抽出する画像領域抽出装置において、
画像データを読み込む入力装置と、
前記画像の前記各ピクセルが取りうる属性値全体から構成されるデータ空間を、所与の解像度で部分空間に分解し、該各部分空間に属性値を取るピクセルの番号と、該ピクセルの属性値の平均と、該ピクセルの個数を保持し、粗視化データ空間を構成する領域粗視化装置と、
前記各部分空間のピクセルの個数を前記画像に含まれる全ピクセルの個数で割り、前記粗視化データ空間上の粗視化経験分布を算出する粗視化経験確率分布算出装置と、
前記各クラスの属性を規定するクラスパラメータ、前記クラスの数、および前記クラスの混合比率を初期化し、前記各クラスの属性を規定するクラスパラメータから、前記クラスが指定されたもとでの条件付き確率分布を算出し、前記クラスが指定されたもとでの条件付き確率分布を、前記各部分空間内で平均化することによって粗視化条件付き確率分布を算出する粗視化条件付き確率分布装置と、
前記画像を構成する各ピクセルが前記各クラスに帰属する確率であるクラス帰属確率を、前記粗視化条件付き確率分布から算出するクラス帰属確率算出装置と、
評価関数として粗視化対数尤度を用いるときには、該評価関数を増加させるように、また評価関数としてAIC、MDL、ストラクチュラル・リスクのいずれかを用いる場合は該評価関数を減少させるように前記パラメータを更新するパラメータ更新装置と、
前記粗視化対数尤度、前記AIC、前記MDL、前記ストラクチュラル・リスクのいずれかを用いて前記評価関数を算出する評価関数算出装置と、
前記評価関数が所与の終了条件を満たしているかどうかを調べ、前記評価関数が前記所与の終了条件を満たした後、前記パラメータを保持し、前記クラス帰属確率に基づいて、前記各ピクセルが属するクラスを決定し、領域を抽出する領域抽出装置と、
抽出した領域を出力する出力装置と、
を有することを特徴とする。
【0015】
本発明第記載の画像領域抽出装置は、前記第記載の画像領域抽出装置において、前記評価関数が前記所与の終了条件を満たしていることが確認されたのち、粗視化の解像度が元の解像度であるかを調べ、前記データ空間の解像度を元の解像度へ復元する解像度復元装置を有することを特徴とする。
【0016】
また、本発明は、本発明における画像領域抽出処理をコンピュータに実行させるための画像領域抽出プログラムをその特徴とする。
【0017】
本発明では文献1記載の発明と同様に、推定したクラス帰属確率に基づいて領域を抽出している。この特徴により、閾値を自動的に設定できるという利点がある。しかしながら、このクラス帰属確率を推定するためには、パラメータの更新を何度も(通常50回程度)繰り返し行う必要があり、計算に時間を要するという問題がある。
【0018】
そこで、本発明では画像データの発生源のモデルとして粗視化確率分布を用い、それに伴ってデータ空間も粗視化する。これにより、通常は条件付き確率分布やクラス帰属確率を数十万個のデータについて計算する必要があるところを、数千個の部分空間についての計算に置き換えることができる。この特徴により、領域抽出に要する時間を大幅に短縮することが可能となる。
【0019】
推定されるクラスパラメータは、粗視化によって精度が劣ることになるが、本発明ではクラスパラメータを直接使うのではなく、パラメータから計算したクラス帰属確率に基づいて領域抽出を行うため、後に示すように、粗視化による誤差の影響をうけることなく領域抽出を行うことが可能となっている。
【0020】
以下、上記本発明の作用の有効性について更に詳細に説明する。
【0021】
本発明の第1に記載の画像領域抽出方法においては、画像を構成する各ピクセルの持つ属性値を確率変数と見なし、推定したピクセル値の確率分布に基づいて所望の領域を抽出する。属性値としては、例えばモノクロ画像ならば輝度の値、カラー画像ならば赤(R)、緑(G)、青(B)の色要素の強度などを用いることができる。
【0022】
所望の領域を抽出するためには、各ピクセルの属性値に基づいて、類似の属性をもった複数のグループに各ピクセルを分類する必要がある。本明細書においては、類似の属性を持ったピクセルの集合をクラスと呼ぶ。各クラスは、例えばそのクラスに属するピクセルの属性値の平均値や分散などによって特徴づけられるものとする。以下、これらクラスの特徴をそのクラスの「クラスパラメータ」と呼び、φi(i=1,,,k)と書くこととする。kはクラスの数である。このような定式化のもとで、j番目のピクセルが、xjという属性値を取る確率は、次の混合分布で表現できる。
【0023】
【数1】
Figure 0003649328
ここで、f(xji)はデータがi番目のクラスから発生していると仮定したときの条件付確率分布、wiは、各クラスの混合比で、
【0024】
【数2】
Figure 0003649328
を満たす。
【0025】
jは、例えばモノクロ画像ならば、0から255などの整数値をとり、カラー画像ならばRGBの色要素の値を成分とした3次元ベクトル(xj1,xj2,xj3)で表される。ここで各xjl(l=1,2,3)は、例えば0から255の整数値を取る。
【0026】
混合比wiは、異なるクラスに属する領域の面積比を表す。例えば、平均輝度200、輝度の標準偏差が20という特徴で表される明るい画像領域(クラス1とする)と、平均輝度50、輝度の標準偏差が10という特徴で表される暗い領域(クラス2とする)の、二つの領域から構成されるモノクロ画像があるとする。また、その画像の面積の7割を明るい領域が、3割を暗い領域が占めているとする。この場合、クラスの数はk=2、クラスパラメータはφ1=(200,20),φ2=(50,10)であり、この画像の混合分布は、
p(xj)=0.7(xj|200,20)+0.3(xj|50,10) ……(2)
などと表現できる。
【0027】
以下、クラス混合比wiとクラスパラメータφiをまとめてθiと書くことにする。以下において単に「パラメータ」というときは、このθiを意味することとする。
【0028】
本発明第1記載の画像領域抽出方法では、以下のように定義される平均対数尤度
【0029】
【数3】
Figure 0003649328
を最大にするパラメータを推定し、推定したパラメータの情報を利用して領域抽出を行う。ここでnは画像に含まれるピクセル数である。このような統計手法は最尤法と呼ばれている。
【0030】
しかしながら、平均対数尤度Lを最大にするパラメータを推定することは、一般に困難である。そこで、この平均対数尤度Lの代わりに次の量
【0031】
【数4】
Figure 0003649328
で表される完全対数尤度の期待値Qを用いてパラメータを推定することができる。ここで
【0032】
【数5】
Figure 0003649328
は、j番目のピクセルがi番目のクラスに帰属する確率である。本発明ではこれをクラス帰属確率と呼ぶ。Qが増大するようにパラメータを更新すれば、上述の平均対数尤度Lも必ず増大することは、数学的に証明されており、この証明は、例えば A. P. Dempster, N.M.Laird, and D.B.Rubin, Maximum Likelihood From Incomplete Data via The EM Algorithm, J. Roy. Stat. Soc. Vol.30, pp.205 248, 1977(以下文献2とする)に詳しい。
【0033】
本発明において、推定されたパラメータから実際に領域を抽出するには、以下のように行う。まず適当な初期パラメータから開始し、(5)式で与えられるクラス帰属確率を求める。次にQを増加させるようにパラメータw,φを更新し、改めてQを算出する。最終的にQが増加しなくなるまでこの手順を繰り返す。
【0034】
k個のクラスのうち、例えばi番目のクラスに属する点を抽出するには、i番目のクラスへの帰属確率の値を調べ、その確率値が一定値以上のピクセルをそのクラスに属するものとして分類する。すべてのピクセルを分類し終わった時点で、k個のクラスの中から所望の属性を持ったクラスを選択し、そのクラスに属するピクセルを画像から抽出すれば、所望の領域を自動的に抽出することができる。
【0035】
本発明では、このQの最大化を高速に行うために、粗視化確率分布を導入する。粗視化確率分布は、データが取りうる値全体からなる空間(以下、データ空間と呼ぶ)を互いに交わらないN個の部分空間に分解し、各部分空間に確率を割り当てることによって構成される。
【0036】
具体的には、j番目の部分空間における粗視化された条件付き確率分布を
【0037】
【数6】
Figure 0003649328
で定義し、粗視化条件付き確率分布を
【0038】
【数7】
Figure 0003649328
とする。ここで、Ajはj番目の部分空間である。Dをデータ空間全体とすると
【0039】
【数8】
Figure 0003649328
を満たす。またI(x)は、データ値が部分空間Aに含まれるときに1、それ以外の時に0となる指示関数で、m(A)=∫Adx はAの測度である(データ空間が2次元のときにはAの面積を、3次元空間のときは体積を表す。)
このように定義された粗視化条件付き確率分布を用いると、Qは、
【0040】
【数9】
Figure 0003649328
と書き換えることができる。ここで
【0041】
【数10】
Figure 0003649328
は粗視化された経験確率分布、
【0042】
【数11】
Figure 0003649328
は粗視化されたクラス帰属確率である。式(9)で与えられる粗視化された完全対数尤度の期待値を最大化することによって、次の粗視化平均対数尤度
【0043】
【数12】
Figure 0003649328
を最大化することが可能となる。
【0044】
元のQと比較すると、式(4)で与えられるQが全データに関して和をとっているのに対し、式(9)で与えられる粗視化された完全対数尤度は、部分空間に関してのみ和を取っている。後に示すように、この改善によって本発明では計算量が大幅に軽減できる。例えば、512×512ピクセルの画像の場合、26万個以上のデータについて和を取る必要があるが、本発明の粗視化分布を用いた場合、部分空間に関する和を1000個程度にまで軽減でき、高速な推定が可能となる。
【0045】
上記の方法において各部分空間における粗視化された確率値、その部分空間に含まれるピクセルの属性値の平均値における確率値で近似する。
【0046】
【数13】
Figure 0003649328
ここで
【0047】
【数14】
Figure 0003649328
は、j部分空間Ajに含まれるピクセルの属性値の平均値である。この近似によって、部分空間内における積分(あるいは総和)操作を省略することができ、さらなる計算量の軽減が可能となる。
【0048】
本発明第に記載の画像領域抽出方法では、粗視化確率分布を用いて推定したパラメータを初期値とし、元の解像度で再度推定を行う。この場合、粗視化確率分布を用いてすでにほぼ最適なパラメータが得られているため、最初から元の解像度で推定を行う場合に比較して、パラメータの逐次更新の回数がはるかに少なくてすむため、高精度な推定を高速に行うことが可能となる。
【0049】
本発明第に記載の画像領域抽出方法では、領域を抽出する際、推定された混合比wiに全ピクセル数nを掛け、i番目の領域に属するピクセル数を推定する。そして領域帰属確率の高い順に上位ni個をこの領域に属するピクセルとして抽出する。この方法により、どの値までの確率値をその領域に属しているものと見なすか、という閾値を自動的に決定することができる。
【0050】
本発明第、第および第に記載の画像領域抽出方法においては、評価関数として、それぞれAIC、MDL、ストラクチュラル・リスクを用い、その値がもっとも小さい結果を与えるモデルを選択する。最尤推定においては一般にパラメータの数が多いほど、評価値としてはよい値を与えるため、本来のパラメータ数が決定できないという問題がある。
【0051】
これに対し、本発明第、第および第に記載の評価関数は、過剰なパラメータ数を用いたとき、評価関数の値が逆に増加するという特性を持っている。これにより、最適なパラメータ数を推定することが可能となる。領域抽出へ適用する場合は、画像が何種類の領域から形成されているか、その適切な領域数を推定することができる。
【0052】
【発明の実施の形態】
次に、本発明の好ましい実施の形態について、図面を参照しながら詳細に説明する。なお、以下の説明において用いる記号は、特に言及しない限りこれまで用いてきた記号の説明に従うものである。また、以下の実施例では、染色された細胞のカラー顕微鏡写真から、細胞の各組織(核、腺腔)を抽出する場合を例に取って説明を行うが、画像として記録されている像であるならば、以下に説明する方法と同様な方法で実行できる。
【0053】
図1は本発明の第1の実施形態の画像領域抽出方法における処理手順を示すフローチャートである。また、図2は本実施形態の画像領域抽出装置の構成を示すブロック図である。
【0054】
本発明の画像領域抽出装置は、画像データを読み込む入力装置1と、データ空間粗視化装置2と、粗視化経験確率分布算出装置3と、粗視化条件付き確率分布算出装置4と、クラス帰属確率算出装置5と、パラメータ更新装置6と、評価関数算出装置7と、領域抽出装置8と、出力装置9から構成されている。
【0055】
以下、本発明の画像領域抽出装置の処理について、図1および図2を用いて説明する。
【0056】
入力装置1は、生物顕微鏡などで観測された細胞のカラー画像を入力する(ステップA1)。この入力装置は、例えば、画像スキャナやデジタルカメラなどを用いて構成することができる。あるいは、生物顕微鏡をコンピュータに接続し、ネットワークを通して画像を直接入力することも可能である。入力装置1は、読み込んだデータをデータ空間粗視化装置2に送る。
【0057】
データ空間粗視化装置2は、本発明第1記載の第1の工程に基づいて、粗視化データ空間を構成する(ステップA2)。ここで、データ空間とは、画像の各ピクセルが取りうる属性値全体の集合を意味する。例えば標準的グレースケールの画像において、各ピクセルの属性は輝度によって表すことができ、輝度は通常0から255の整数値で表現される1次元空間である。また、標準的なカラー画像の場合ならば、R、G、B各色要素に対し、通常0から255の整数値で表現される3次元空間となる。
【0058】
部分空間を構成するには、例えば解像度を8とすると、RGBの各値を8ずつに区切り、8×8×8の立方体を1つの部分空間として構成することができる。解像度は3次元の軸で同一で無くともよい。例えばR軸をh1ずつ、G軸をh2ずつ、B軸をh3ずつに区切って粗視化してもよく、各部分空間が重なりを持たず、かつ全データ空間をもれなく覆うことができればよい。以下において、解像度hで粗視化すると表現する場合は、h×h×hでRGBの各値を区切ることを意味する。
【0059】
データ空間粗視化装置2は、また、各部分空間に値を取るピクセルの集合と、それらピクセルの属性値の平均と、ピクセルの個数を保持する。
【0060】
図6に解像度h1×h2×h3で粗視化したときの粗視化データ空間11、および部分空間12を示す。例えばj番目のピクセルの属性値xjが、R=128、G=255、B=18なる値の時、このピクセルは、(16,31,2)なる指標で指定される部分空間に値を取る。このことを以下では、xjがこの部分空間に含まれる、と表現する。
【0061】
データ空間粗視化装置2は、粗視化データ空間を構成した後、各部分空間に含まれるピクセルの番号と、ピクセル数を粗視化経験確率分布算出装置3に送る。粗視化経験確率分布算出装置3では、本発明第1記載の第2の工程に基づいて、粗視化経験確率分布を算出する(ステップA3)。ここで粗視化経験確率分布とは、粗視化データ空間の各部分空間に含まれるピクセルの個数を、全ピクセル数で割った値から算出された確率分布を表す。
【0062】
粗視化経験確率分布算出装置3は、粗視化経験確率分布を粗視化条件付き確率分布算出装置4に送る。粗視化条件付き確率分布算出装置4では、本発明第1記載の第3の工程に基づいて、クラスパラメータを初期化する(ステップA4)。また、粗視化条件付き確率分布算出装置4では、本発明第1記載の第4の工程に基づいて、粗視化条件付き確率分布を算出する(ステップA5)。
【0063】
粗視化条件付き確率分布を具体的に算出するには、以下のようにする。ここでは、j番目のピクセル値がi番目のクラスから発生しているとした条件のもとでの条件付き確率が、以下のような多次元正規分布
【0064】
【数15】
Figure 0003649328
で与えられているとする。ここで、xは、RGB各色の値からなる3次元ベクトル、μiはi番目のクラスの平均色を表す3次元ベクトル、Σiはi番目のクラスの共分散行列であり、|Σi|,Σi -1はそれぞれ行列Σiの行列式,逆行列を表す。また、(x-μi)は転置を表す。
【0065】
粗視化条件付き確率分布算出装置4では、この条件付き確率を式(6)で与えられる式で計算する。このとき、各部分空間の測度m(Aj)は、各部分空間の体積となる。例えば、解像度8で一様に粗視化した場合、8×8×8=512となる。
【0066】
粗視化条件付き確率分布算出装置4では、本発明第記載の方法のように、粗視化条件付き確率分布を式(13)によって近似することも可能である。この方法により、パラメータを更新する度に式(6)で与えられる演算をする必要がなくなり、計算量を大幅に削減できる効果がある。
【0067】
また、粗視化条件付き確率分布算出装置4では、本発明第記載の方法のように、粗視化経験分布に基づいてパラメータの初期値を決定することも可能である。本発明第記載の方法では、各部分空間を大雑把にクラス分類し、分類の結果得られた各クラス内で平均値や分散値を求め、これらの値をパラメータ推定の初期値とする。
【0068】
図5は、粗視化経験確率分布に基づいて、パラメータの初期値を決定する処理手順を示したフローチャートである。以下、図5を参照しながらパラメータの初期値設定法について説明する。
【0069】
まず、ステップB1において、近傍半径rと、分類すべきクラスの個数kを設定する。近傍半径は、近傍半径内にあるすべての部分空間を同じクラスに属するとみなし、大雑把にクラス分類するための基準値として用いられる。例えばカラー画像の場合、同じような色のピクセル同士はRGB値も近く、したがって同じクラスに分類するのが自然であると考えられるからである。
【0070】
後に説明するように、近傍半径が大きすぎる場合は所望のクラス数に到達する前に分類が完了してしまう場合があるが、近傍半径を縮小して再度クラス分類を行うため、最終的には必要な数のクラスに分類することができる。したがってこの近傍半径の初期値は十分大きな値に、例えば50などに設定する。分類すべきクラスの個数kは、所与の値をそのまま用いる。
【0071】
次に、ステップB2において、各部分空間ごとに、各部分空間の代表値Xを設定する。各部分空間の代表値としては、例えば部分空間の中央値などを用いることができる。以下では、これら代表値間の距離を部分空間の距離とする。
【0072】
次に分類対象となる部分空間の集合を設定する(ステップB3)。以下ではこの集合をΩと書く。Ωの初期値は、データを含む全部分空間全体から成る集合とする。また分類済みクラスの数iを1とし、分類済みクラスCの初期値を空集合とする。
【0073】
次に、Ωに属する部分空間の中から、粗視化経験確率の最も高い部分空間を選択する(ステップB4)。この部分空間をAと書く。次に、Ωに属する部分空間とAとの距離を調べ、近傍半径r以内にある部分空間を全て選択し、これを近傍集合とする(ステップB5)。以下では、近傍集合をBと書く。
【0074】
次に、すでに分類が完了しているクラスCに含まれる部分空間と、近傍集合Bに含まれる部分空間との最短距離を求め、近傍半径rよりも大きいかどうかを調べる(ステップB6)。もしこの最短距離がrよりも大きいならば、近傍集合Bは、すでに分類が完了したクラスと十分異なる属性を持ち、かつ高い確率で出現しているから、新しいクラスと見なしてよい。したがって、近傍集合Bをそのまま新規クラスとして採用する。
【0075】
は分類が完了したので、分類対象集合Ωから削除する。図5においてはこの削除を、記号を用いて「Ω←Ω\B」と表している。Ωを更新したらステップB4に戻る(ステップB7)。
【0076】
もし、すでに分類が完了しているクラスCに含まれる部分空間と、近傍集合Bに含まれる部分空間との最短距離が、近傍半径rよりも小さければ、近傍集合BはCと属性が近いと考えられるため、BをCに統合する。Bは分類が完了したので、分類対象集合Ωから削除する(ステップB8)。
【0077】
次に、Ωが空集合であるかどうかを調べ(ステップB9)、もし、空集合でなければ、ステップB4へ行き、Ωが空集合であれば、分類が完了したクラスの数がk個以上あるかどうかを調べ(ステップB10)、k個以下なら近傍半径rに1以下の定数をかけて半径を縮小する。この定数としては例えば0.9などの値を用いることができる。そののちステップB3以下を繰り返す。
【0078】
もし、Ωが空集合であり、かつ分類済みのクラスの数が所与の数よりも多ければ、所望の数のクラス分類が完了しているので、各クラス内で前記クラスパラメータを算出し、これをクラスパラメータの初期値とし、また各クラス内に含まれる部分空間の数の比率を前記クラス混合比の初期値とする(ステップB12)。
【0079】
図7は、図5に示す粗視化経験確率分布に基づいてパラメータの初期値を決定する初期値設定の手順を理解しやすくするための簡単な例を表した図である。図7ではデータ空間が一次元であるとし、全部で10個の部分空間に分けられていると仮定する。以下、図7を用いて初期値設定の手順について説明する。
【0080】
図7(a)において、横軸は部分空間の番号を表し、縦軸は粗視化経験確率分布を表す。以下では処理の流れを直観的に説明することに主眼を置くため、粗視化経験確率値や部分空間の代表値、近傍半径については具体的な数値は用いず、図示することにする。
【0081】
まず、ステップB1において、例えばクラス数を2とし、近傍半径をrとする。ステップB2において、各部分空間の代表値を設定する。ステップB3において、分類対象集合Ωの初期値は、データを含んだ全部分空間とするので、
Ω={A,A,A,A,A,A
となる。A,AおよびA,A10は、粗視化確率が0、すなわちこれらの部分空間に含まれるデータは観測されていないので、分類対象集合には含めない。
【0082】
ステップB4で、分類対象集合に含まれる部分空間の中で、最も高い粗視化経験確率を持つAを選び、これをAとする(図7(a))。ステップB5で、Aから近傍半径r内にある部分空間を選択し、これをBとする。図7(a)に示された近傍半径内にある部分空間は、A,A,A,Aであるから、
={A,A,A,A
となる(図7(b))。
【0083】
ステップB6において、分類されているクラスはまだないので、このBSをそのまま最初のクラスC1として採用し、分類対象集合からBSを取り除き、ステップB4に戻る。図7(b)において、粗視化経験確率の高さを示す棒グラフが白抜きで表されているのは、部分空間が分類対象集合から除かれたことを表す。
【0084】
ステップB4において、残りの分類対象集合の中で最も高い粗視化経験確率を持つものは、Aであるから、これを新たにAとする(図7(c))。ステップB5で、Aから近傍半径r内にある部分空間を選択して、これをBとする。ここでは、
={A,A
となる。
【0085】
ステップB6で、分類済みのクラス、すなわち
={A,A,A,A
を調べると、Aから近傍半径r内にあるA,Aを含んでいる。したがって現在のBを分類済みのクラスCに統合する(図7(d))。
【0086】
これで分類対象集合Ωは空となり、全ての部分空間の分類が完了したことになるが、分類されたクラス数は1であり、所望のクラス数2に達していない(ステップB10)。したがって近傍半径を縮小し(ステップ11)、ステップB3以下を繰り返す。
【0087】
以下、縮小された半径をr’とし(図7(e))、上述の説明と同様の手続きを繰り返す。ただし、今回は近傍半径が縮小されているため、以下のような違いが生じる。即ち、Aの近傍半径r’内にある部分空間は、今回の場合
={A,A,A
となる(図7(f))。
【0088】
このBをそのまま最初のクラスCとして採用し、残りの分類対象集合の中から最も高い粗視化経験確率を持つAを選ぶ(図7(g))。Aから近傍半径r’内にある部分空間は、
={A,A,A
となる。今回は、分類済みのクラスCの中に、Aから近傍半径r’内にある部分空間は存在しないので、現在のBを新規クラスCとして採用する(図7(h))。これで全ての部分空間が所望の二つのクラスに分類されたことになる。
【0089】
大雑把なクラス分類が完了すれば、分類されたクラス内で平均や分散を求め、以降で行う推定の初期パラメータとすることができる。初期パラメータを適切に設定することは、粗視化対数尤度の最大化の過程で局所最適解に陥ることを防止する上で有効である。
【0090】
粗視化条件付き確率分布算出装置4では、このようにして求めたパラメータを初期値として粗視化条件付き確率分布を求めることが可能となる。粗視化条件付き確率分布算出装置4は、求めた粗視化条件付き確率分布をクラス帰属確率算出装置5に送る。クラス帰属確率算出装置5は、本発明第1記載の第5の工程に基づいて、式(11)を用いてクラス帰属確率を算出する(ステップA6)。
【0091】
このクラス帰属確率は、j番目の部分空間に含まれるピクセルが、i番目のクラスに属する確率を表す。したがって、画像各ピクセルに対してこのクラス帰属確率を算出し、確率の高いクラスに各ピクセルを分類することによって、領域抽出が容易に行うことが可能となる。クラス帰属確率算出装置5は、算出したクラス帰属確率をパラメータ更新装置6に送る。
【0092】
パラメータ更新装置6では、本発明第1記載の第6の工程に基づいて、式(9)を最大化するようにパラメータを更新する。具体的には、以下のようにパラメータを更新する。
【0093】
【数16】
Figure 0003649328
ここで、
【0094】
【数17】
Figure 0003649328
は、ベクトルu,vのi成分とj成分の積uをij成分に持つマトリクスを表す。また、
【0095】
【数18】
Figure 0003649328
は、式(14)で定義されるj番目の部分空間Aに含まれるデータの平均値である。
【0096】
すでに述べたように、このようにパラメータを更新すれば、式(9)で与えられる粗視化された完全対数尤度の期待値は増加し、したがって式(12)で与えられる粗視化平均対数尤度も増加する。このことは文献2に詳しい説明がある。パラメータ更新装置6は、パラメータを更新した後、更新したパラメータを評価関数算出装置7に送る。評価関数算出装置7は、本発明第1記載の第7の工程に従って、式(12)を用いて粗視化対数尤度を算出する(ステップA8)。
【0097】
また粗視化対数尤度のかわりに、本発明第に記載のAIC
【0098】
【数19】
Figure 0003649328
を用い、AICが小さいほど良い推定結果であるとする評価関数を用いることも可能である。ここでmは、全パラメータの個数を表す。AICは粗視化対数尤度にマイナスを掛けた量に比例するため、パラメータ変更装置6で行う更新によってAICは減少する方向に変化する。また、パラメータに比例する項が付加されているため、同じ粗視化対数尤度ならばパラメータの少ないモデルを用いた推定結果の方が良いとする。この評価関数を用いることにより、データへの過剰な適合が抑制され、雑音に強い推定を行うことが可能となる。
【0099】
また、本発明第に記載するように、次式で定義されるMDL
【0100】
【数20】
Figure 0003649328
を用いても同様な効果が得られる。
【0101】
さらに、ストラクチュラル・リスク
【0102】
【数21】
Figure 0003649328
を用いても同様な効果が得られる。ここでηは式(21)が確率ηで成り立つことを表し、通常0.01などの値を用いる。c,a1,a2は確率分布の性質によって決まる定数であるが、通常
c=1,a1=1,a2=1などの値が用いられる。hはVC次元と呼ばれるものであり、パラメータの数に比例する量である。
【0103】
評価関数算出装置7は、本発明請求項1の第8の工程として記載されるように、評価関数の変化が所与の終了条件を満たしているかどうかを調べ、終了条件が満たされていれば領域抽出装置8に現在のパラメータを送り、終了条件が満たされていなければ粗視化条件付き確率分布算出装置4に現在のパラメータを送る(ステップA9)。終了条件としては、例えば現時点での評価関数値と前回算出した評価関数値の差を現時点での評価関数値で割り、その値の絶対値が0.0001以下であるかどうか、などの条件を用いることができる。
【0104】
領域抽出装置8は、本発明請求項1の第9の工程として記載されるように、評価関数算出装置7からパラメータを受け取り、パラメータの情報を用いて領域を抽出する(ステップA10)。例えば、i番目のクラスに属する領域を抽出するには、式(11)で与えられる粗視化されたクラス帰属確率の値をj=1からj=Nまで調べ、その確率がある値(閾値)以上の部分空間をi番目のクラスに属する部分空間とする。次に、その部分空間に含まれるピクセルを調べ、これらのピクセルをi番目の領域であるとして抽出する。クラス帰属確率の閾値としては、例えば0.5を用いれば、所望の結果を得ることができる。
【0105】
領域抽出装置8は、本発明請求項4に記載されるように、自動的に閾値を設定することも可能である。そのためには以下のようにする。i番目の領域を抽出するためには、まず推定されたクラス混合比wに全ピクセル数を掛け、各クラスに属するピクセル数の推定値を求める。この数をnとする。
【0106】
次に、式(11)の粗視化されたクラス帰属確率をj=1からj=Nまで調べ、値の高い部分空間から順に、その部分空間に含まれるピクセルを抽出し、抽出したピクセルがnに到達するまで続ける。n番目に抽出したピクセルの番号をlとすると、式(11)の粗視化されたクラス帰属確率の値が、i番目の領域に属する確率の閾値となる。領域抽出装置8は、領域抽出が完了した後、抽出した領域のデータを出力装置9へ送る。
【0107】
上に説明した、データ空間粗視化装置2、粗視化経験分布算出装置3、粗視化条件付き確率分布4、クラス帰属確率算出装置5、パラメータ更新装置6、評価関数算出装置7、領域抽出装置8は、例えば、パーソナルコンピュータやワークステーション、あるいはスーパーコンピュータなどの計算機を用いて構築することができる。出力装置9は、領域抽出装置8から領域データを受け取り、出力する(ステップA11)。出力装置9は、例えばディスプレイ装置やプリンタなどを用いて構成することができる。
【0108】
図3は本発明の第2の実施形態の画像領域抽出方法における処理手順を示すフローチャートである。また、図4は本実施形態の画像領域抽出装置の構成を示すブロック図である。本実施形態は、第1の実施形態に領域復元装置10を追加した点を特徴とする。従って、以下の説明では、第1の実施の形態と重複する部分の説明は省略する。
【0109】
領域復元装置10は、請求項3に記載されるように、粗視化確率分布を用いたパラメータ推定が完了した後、粗視化の解像度が元の解像度に等しいかを調べ(ステップA12)、粗視化されていれば、データを元の解像度に戻す(ステップA13)。粗視化されていなければ、元の解像度での推定が完了していることを意味するから、元の解像度で推定されたパラメータを領域抽出装置8に送る。
【0110】
データを元の解像度に戻すには、粗視化の解像度をデータ属性値の最小単位に設定し(例えば1)、第1の実施の形態に述べた方法と全く同一の方法を繰り返せばよい。この場合、第1の実施例で述べた方法よりも推定に時間を要するようになるが、より高い精度でパラメータを推定することができ、結果としてより精度の高い領域抽出が可能となる。また、粗視化確率分布を用いて推定したパラメータは、すでに最適なパラメータの近傍に推定されているため、最初から高い解像度で推定を行うよりも少ない回数のパラメータ更新で最適パラメータが推定でき、はるかに高速に領域抽出を行うことができる。
【0111】
次に、シミュレーションデータを用いて本発明の有効性を評価した結果について説明する。
【0112】
図8は、細胞の顕微鏡写真を模擬した画像であり、腺腔(画像中もっとも明るい領域)、細胞核(腺腔の周りを取り囲むように存在する輝度の低い小さな円形の組織)、およびそれ以外の組織から成る。書面ではモノクロ画像であるが、実際は腺腔が薄いピンク、細胞核が暗い青紫色、それ以外の領域が赤紫色のカラー画像となっている。
【0113】
ここでの目的は、画像から腺腔領域と細胞核領域を分離して抽出することである。抽出した腺腔の形状、細胞核の密度や大きさは、例えば細胞が癌化しているかどうかの判定に役立てることができる。しかしながら図8からわかるように、細胞核に対応する領域は背景と区別が付きにくく、通常の方法では細胞核領域だけを自動抽出することは困難である。
【0114】
この画像に対し、本発明に記載する手法を用いて、腺腔領域と細胞核領域を抽出することを試みた。ここでの推定は、粗視化解像度を16×16×16とし、クラスの数を3と仮定して行っている。クラスの数を3としたのは、細胞核に対応する領域(クラス1とする)、腺腔に対応する領域(クラス2とする)、それ以外の領域(クラス3とする)に分離できることを期待しているからである。
【0115】
このようにして得られた推定結果を図9(a)、(b)、(c)、(d)に示す。図9(a)は、クラス1(細胞核領域)のクラス帰属確率を3次元的に表現したものであり、x軸、y軸が画像上のピクセル位置を示し、z軸が帰属確率値を表している。図9(b)はクラス1への帰属確率を2次元的に濃淡で表示したものであり、クラス1に属する確率が低いピクセルほど黒く、確率が高いピクセルほど白く表現されている。
【0116】
同様にして図9の(c)、(d)は、クラス2(腺腔領域)へのクラス帰属確率を、それぞれ3次元的、2次元的に表したものであり、帰属確率の高い部分が腺腔領域に属するピクセルとなっていることが分かる。(クラス3に対する結果は、今の場合抽出対象ではないので省略する。)これらの結果は、閾値を陽に設定することなく自動的に得られたものであり、各クラスへの帰属確率の分布を調べるだけで、領域抽出が可能となっている。
【0117】
同じ推定を、粗視化無し(粗視化解像度1)で行った結果を図10の(a)、(b)、(c)、(d)に示す。図10(a)、(b)は、クラス1へのクラス帰属確率を、それぞれ3次元的、2次元的に表したもの、また図10(c)、(d)は、クラス2への帰属確率を、それぞれ3次元的、2次元的に表したものである。これらの図から、粗視化解像度16での推定結果と粗視化無しでの推定結果がほとんど同じであることが分かる。
【0118】
推定されたパラメータ値を比較すると、例えばクラス1に属する領域の平均RGB値は、粗視化無しで推定した場合RGB=(143.068,86.689,135.737)、解像度16で推定した場合RGB=(141.522,86.128,135.513)となっており、粗視化の影響はほとんどない。
【0119】
しかしながら、粗視化のある無しでは推定時間に大きな差が生じる。この違いを調べるために、さまざまな粗視化解像度で推定したときの推定時間を比較したグラフを図11に示す。このグラフより、粗視化解像度16で推定した場合、粗視化無しで推定したときに比べて約1/7の時間で推定できていることがわかる。
【0120】
【発明の効果】
以上に説明したように本発明では、クラス帰属確率に基づいて領域抽出を行うことにより、閾値を陽に設定することなく、自動的に画像データから所望の領域を抽出することができる。また、粗視化確率分布を用いることにより、従来例よりも更に高速に領域抽出を行うことができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態における処理手順を示すフローチャートである。
【図2】本発明の第1の実施の形態における、画像領域抽出装置の構成を示すブロック図である。
【図3】本発明の第2の実施の形態における処理手順を示すフローチャートである。
【図4】本発明の第2の実施の形態における、画像領域抽出装置の構成を示すブロック図である。
【図5】本発明の第1の実施の形態における、パラメータの初期化手順を示すフローチャートである。
【図6】粗視化データ空間と部分空間の一形態を示す図である。
【図7】 本発明請求項記載の、パラメータの初期化方法の一例を表した図である。
【図8】本発明が適応できる画像の一例である。
【図9】本発明を用いた画像領域抽出を、粗視化解像度16で行った結果を示しており、(a)クラス1(細胞核領域)に属するクラス帰属確率分布の3次元表示、(b)クラス1(細胞核領域)に属するクラス帰属確率分布の2次元表示、(c)クラス2(腺腔領域)に属するクラス帰属確率分布の3次元表示、(d)クラス2(腺腔領域)に属するクラス帰属確率分布の2次元表示をそれぞれ示す。
【図10】本発明を用いた画像領域抽出を、粗視化無し(粗視化解像度1)で行った結果を示しており、(a)クラス1(細胞核領域)に属するクラス帰属確率分布の3次元表示、(b)クラス1(細胞核領域)に属するクラス帰属確率分布の2次元表示、(c)クラス2(腺腔領域)に属するクラス帰属確率分布の3次元表示、(d)クラス2(腺腔領域)に属するクラス帰属確率分布の2次元表示をそれぞれ示す。
【図11】本発明を用いた画像領域抽出を、粗視化解像度1、2、4、8、16で行ったときの推定時間を示すグラフである。
【符号の説明】
1 入力装置
2 データ空間粗視化装置
3 粗視化経験確率分布算出装置
4 粗視化条件付き確率分布算出装置
5 クラス帰属確率算出装置
6 パラメータ更新装置
7 評価関数算出装置
8 領域抽出装置
9 出力装置
10 領域復元装置
11 粗視化データ空間
12 部分空間
A1〜A13 ステップ
B1〜B12 ステップ

Claims (16)

  1. 領域抽出の対象となる像を含む画像データに対し、画像上の各ピクセルを複数のクラスに分類し、所望の領域を抽出する画像領域抽出方法において、
    前記画像の前記各ピクセルが取りうる属性値全体から構成されるデータ空間を、所与の解像度で部分空間に分解し、該各部分空間に属性値を取るピクセルの番号と、該ピクセルの属性値の平均値と、該ピクセルの個数を保持し、粗視化データ空間を構成する第1の工程と、
    前記各部分空間の前記ピクセルの個数を前記画像に含まれる全ピクセルの個数で割り、前記粗視化データ空間上の粗視化経験確率分布を算出する第2の工程と、
    前記各クラスの属性を規定するクラスパラメータ、前記クラスの数、および前記クラスの混合比率を初期化する第3の工程と、
    前記クラスパラメータに基づいて、前記各部分空間の前記平均値における条件付き確率を算出し、該条件付き確率のデータ空間における分布である粗視化条件付き確率分布を算出する第4の工程と、
    前記画像を構成する各ピクセルが各前記クラスに帰属する確率であるクラス帰属確率を、前記クラス混合比に前記粗視化条件付き確率分布を掛けることにより算出する第5の工程と、
    粗視化対数尤度を評価関数として用い、該評価関数を増加させるように前記クラスパラメータ、および前記クラス混合比を更新する第6の工程と、
    前記粗視化条件付き確率分布と、前記粗視化経験確率分布と、前記第6の工程で更新した前記クラスパラメータおよび前記クラスの混合比率とを用いて、前記評価関数を算出する第7の工程と、
    前記評価関数が所与の終了条件を満たしているかどうかを調べる第8の工程と、
    前記評価関数が前記所与の終了条件を満たした後、前記クラスパラメータおよび前記混合比率を保持し、前記クラス帰属確率に基づいて、前記ピクセルが属するクラスを決定し、前記所望の領域を抽出する第9の工程とを有し、
    前記評価関数が前記所与の条件を満たすまで、前記第4、前記第5、前記第6、前記第7、および前記第8の工程を繰り返すことを特徴とする画像領域抽出方法。
  2. 前記第の工程において、前記評価関数が前記所与の終了条件を満たしたとき、前記粗視化の解像度が元の解像度であるかを調べる第10の工程と、前記粗視化の解像度が元の解像度でなかったとき前記部分空間の解像度を元の解像度へ復元する第11の工程とを有し、
    前記第3の工程において、前記第9の工程で保持されているクラスパラメータおよび前記クラスの混合比率を初期値として用い、所与の条件が満たされるまで、前記第4、前記第5、前記第6、前記第7、および前記第8の工程を繰り返すことを特徴とする請求項1に記載の画像領域抽出方法。
  3. 前記第の工程において、推定された前記混合比率に前記画像を構成する全ピクセルの個数を掛けて前記各クラスに属するピクセルの個数を算出し、前記クラス帰属確率が高い順から前記ピクセルを選択し、前記各クラスに属するピクセルを決定することを特徴とする請求項1及至のいずれかに記載の画像領域抽出方法。
  4. 前記第の工程において、前記評価関数としてAICを用い、前記第7の工程において評価関数を減少させるようパラメータを変更することを特徴とする請求項1及至のいずれかに記載の画像領域抽出方法。
  5. 前記第の工程において、前記評価関数としてMDLを用い、前記第の工程において該評価関数を減少させるようパラメータを変更することを特徴とする請求項1及至のいずれかに記載の画像領域抽出方法。
  6. 前記第の工程において、前記評価関数としてストラクチュラル・リスク( Structural Risk を用い、前記第の工程において該評価関数を減少させるようパラメータを変更することを特徴とする請求項1及至のいずれかに記載の画像領域抽出方法。
  7. 前記第の工程
    前記各部分空間同士が近傍にあるかどうかを定義する近傍半径と、前記クラスの数を設定する第1のステップと、
    前記各部分空間ごとに、各部分空間の代表値を設定する第2のステップと、
    分類対象部分空間の集合を設定する第3のステップと、
    前記分類対象部分空間の集合の中から、前記粗視化経験確率の最も高い部分空間を選択する第4のステップと、
    前記粗視化経験確率の最も高い部分空間の代表値との距離が、前記近傍半径以内である代表値を持つ部分空間全てを、近傍集合として選択する第5のステップと、
    すでに分類が完了したクラスに含まれる部分空間の代表値と、前記近傍集合に含まれる部分空間の代表値との間の最短距離が、前記近傍半径よりも大きいかどうかを調べる第6のステップと、
    もし、すでに分類が完了したクラスに含まれる部分空間の代表値と、前記近傍集合に含まれる部分空間の代表値との間の最短距離が、前記近傍半径よりも大きければ、前記近傍集合を新規クラスとし、前記分類対象部分空間から前記近傍集合を削除して前記第4のステップ以降を繰り返す第7のステップと、
    前記最短距離が前記近傍半径以下であれば、前記近傍集合をすでに分類済みのクラスに追加し、前記分類対象部分空間から、前記近傍集合を削除する第8のステップと、
    前記分類対象部分空間が空集合であるかどうかを調べる第9のステップと、
    もし、前記分類対象部分空間が空集合でなければ、前記第4のステップ以下を繰り返し、前記分類対象部分空間が空集合であれば、分類が完了したクラスの数が所与の数以上あるかどうかを調べる第10のステップと、
    もし分類が完了したクラスの数が所与の数よりも少なければ、前記近傍半径を縮小して前記第3のステップ以降を繰り返す第11のステップと、
    もし、前記分類対象部分空間が空集合であり、かつ分類済みのクラスの数が所与の数よりも多ければ、各クラス内で前記クラスパラメータを算出し、これをクラスパラメータの初期値とし、また各クラス内に含まれる部分空間の数の比率を前記混合比率の初期値とする第12のステップと、
    からなることを特徴とする請求項1及至のいずれかに記載の画像領域抽出方法。
  8. 領域抽出の対象となる像を含む画像データに対し、画像上の各ピクセルを複数のクラスに分類し、所望の領域を抽出する画像領域抽出装置において、
    画像データを読み込む入力装置と、
    前記画像の前記各ピクセルが取りうる属性値全体から構成されるデータ空間を、所与の解像度で部分空間に分解し、該各部分空間に属性値を取るピクセルの番号と、該ピクセルの属性値の平均値と、該ピクセルの個数とを保持し、粗視化データ空間を構成する領域粗視化装置と、
    前記各部分空間のピクセルの個数を前記画像に含まれる全ピクセルの個数で割り、前記粗視化データ空間上の粗視化経験確率分布を算出する粗視化経験確率分布算出装置と、
    前記各クラスの属性を規定するクラスパラメータ、前記クラスの数、および前記クラスの混合比率を初期化し、前記クラスパラメータに基づいて、前記各部分空間の前記平均値における条件付き確率を算出し、該条件付き確率のデータ空間における分布である粗視化条件付き確率分布を算出する粗視化条件付き確率分布算出装置と、
    前記画像を構成する各ピクセルが各前記クラスに帰属する確率であるクラス帰属確率を、前記混合比率に前記粗視化条件付き確率分布を掛けることにより算出するクラス帰属確率算出装置と、
    評価関数として粗視化対数尤度を用いるときには、該評価関数を増加させるように、また評価関数としてAIC、MDL、ストラクチュラル・リスクのいずれかを用いる場合は該評価関数を減少させるように前記パラメータを更新するパラメータ更新装置と、
    前記粗視化対数尤度、前記AIC、前記MDL、前記ストラクチュラル・リスクのいずれかを用いて前記評価関数を算出する評価関数算出装置と、
    前記評価関数が所与の終了条件を満たしているかどうかを調べ、前記評価関数が前記所与の終了条件を満たした後、前記クラスパラメータを保持し、前記クラス帰属確率に基づいて、前記各ピクセルが属するクラスを決定し、領域を抽出する領域抽出装置と、
    抽出した領域を出力する出力装置と、
    を有することを特徴とする画像領域抽出装置。
  9. 前記評価関数が前記所与の終了条件を満たしていることが確認されたのち、粗視化の解像度が元の解像度であるかを調べ、前記データ空間の解像度を元の解像度へ復元する解像度復元装置を有することを特徴とする請求項8に記載の画像領域抽出装置。
  10. 領域抽出の対象となる像を含む画像データに対し、画像上の各ピクセルを複数のクラスに分類することによって所望の画像領域を抽出する処理をコンピュータに実行させるためのプログラムであって、
    前記画像の前記各ピクセルが取りうる属性値全体から構成されるデータ空間を、所与の解像度で部分空間に分解し、該各部分空間に属性値を取るピクセルの番号と、該ピクセルの属性値の平均値と、該ピクセルの個数とを保持し、粗視化データ空間を構成する第1の処理と、
    前記各部分空間のピクセルの個数を前記画像に含まれる全ピクセルの個数で割り、前記粗視化データ空間上の粗視化経験確率分布を算出する第2の処理と、
    前記各クラスの属性を規定するクラスパラメータ、前記クラスの数、および前記クラスの混合比率を初期化する第3の処理と、
    前記クラスパラメータに基づいて、前記各部分空間の前記平均値における条件付き確率を算出し、該条件付き確率のデータ空間における分布である粗視化条件付き確率分布を算出する第4の処理と、
    前記画像を構成する各ピクセルが各前記クラスに帰属する確率であるクラス帰属確率を、前記混合比率に前記粗視化条件付き確率分布を掛けることにより算出する第5の処理と、
    粗視化対数尤度を評価関数として用い、該評価関数を増加させるように前記クラスパラメータ、および前記クラスの混合比率を更新する第6の処理と、
    前記粗視化条件付き確率分布と、前記粗視化経験確率分布と、前記第6の工程で更新した前記クラスパラメータおよび前記クラスの混合比率とを用いて、前記評価関数を算出する第7の処理と、
    前記評価関数が所与の終了条件を満たしているかどうかを調べる第8の処理と、
    前記評価関数が前記所与の終了条件を満たした後、前記クラスパラメータおよび前記混合比率を保持し、前記クラス帰属確率に基づいて、前記ピクセルが属するクラスを決定し、前記所望の領域を抽出する第9の処理とを含み、
    前記評価関数が前記所与の条件を満たすまで、前記第4、前記第5、前記第6、前記第7、および前記第8の処理を繰り返すことを特徴とする画像領域抽出プログラム。
  11. 前記第8の処理において、前記評価関数が前記所与の終了条件を満たしたとき、前記粗視化の解像度が元の解像度であるかを調べる第10の処理と、前記粗視化の解像度が元の解像度でなかったとき前記部分空間の解像度を元の解像度へ復元する第11の処理を含み、
    前記第3の処理において前記第9の処理で保持されているクラスパラメータおよび前記クラスの混合比率を初期値として用い、前記評価関数が前記所与の条件を満たすまで、前記第4、前記第5、前記第6、前記第7、および前記第8の処理を繰り返すことを特徴とする請求項10に記載の画像領域抽出プログラム。
  12. 前記第の処理は、推定された前記混合比率に前記画像を構成する全ピクセルの個数を掛けて前記各クラスに属するピクセルの個数を算出し、前記クラス帰属確率が高い順から前記ピクセルを選択し、前記各クラスに属するピクセルを決定する処理を含むことを特徴とする請求項10及至11のいずれかに記載の画像領域抽出プログラム。
  13. 前記第の処理、前記評価関数として前記粗視化対数尤度に代えてAICを算出する処理であり、前記第7の処理は、該評価関数を減少させるようパラメータを変更する処理であることを特徴とする請求項10及至12のいずれかに記載の画像領域抽出プログラム。
  14. 前記第の処理は、前記評価関数として前記粗視化対数尤度に代えてMDLを算出する処理であり、前記第7の処理は、該評価関数を減少させるようパラメータを変更する処理であることを特徴とする請求項10及至12のいずれかに記載の画像領域抽出プログラム。
  15. 前記第の処理は、前記評価関数として前記粗視化対数尤度に代えてストラクチュラル・リスク( Structural Risk を算出する処理であり、前記第の処理は、該評価関数を減少させるようパラメータを変更する処理であることを特徴とする請求項10及至12のいずれかに記載の画像領域抽出プログラム。
  16. 前記第3の処理は、
    前記各部分空間同士が近傍にあるかどうかを定義する近傍半径と、前記クラスの数を設定する第1のステップと、
    前記各部分空間ごとに、各部分空間の代表値を設定する第2のステップと、
    分類対象部分空間の集合を設定する第3のステップと、
    前記分類対象部分空間の集合の中から、前記粗視化経験確率の最も高い部分空間を選択する第4のステップと、
    前記粗視化経験確率の最も高い部分空間の代表値との距離が、前記近傍半径以内である代表値を持つ部分空間全てを、近傍集合として選択する第5のステップと、
    すでに分類が完了したクラスに含まれる部分空間の代表値と、前記近傍集合に含まれる部分空間の代表値との間の最短距離が、前記近傍半径よりも大きいかどうかを調べる第6のステップと、
    もし、すでに分類が完了したクラスに含まれる部分空間の代表値と、前記近傍集合に含まれる部分空間の代表値との間の最短距離が、前記近傍半径よりも大きければ、前記近傍集合を新規クラスとし、前記分類対象部分空間から前記近傍集合を削除して前記第4のステップ以降を繰り返す第7のステップと、
    前記最短距離が前記近傍半径以下であれば、前記近傍集合をすでに分類済みのクラスに追加し、前記分類対象部分空間から、前記近傍集合を削除する第8のステップと、
    前記分類対象部分空間が空集合であるかどうかを調べる第9のステップと、
    もし、前記分類対象部分空間が空集合でなければ、前記第4のステップ以下を繰り返し、前記分類対象部分空間が空集合であれば、分類が完了したクラスの数が所与の数以上あるかどうかを調べる第10のステップと、
    もし分類が完了したクラスの数が所与の数よりも少なければ、前記近傍半径を縮小して前記第3のステップ以降を繰り返す第11のステップと、
    もし、前記分類対象部分空間が空集合であり、かつ分類済みのクラスの数が所与の数よりも多ければ、各クラス内で前記クラスパラメータを算出し、これをクラスパラメータの初期値とし、また各クラス内に含まれる部分空間の数の比率を前記クラスの混合比率の初期値とする第12のステップと、
    を含むことを特徴とする請求項10及至15のいずれかに記載の画像領域抽出プログラム。
JP2002108608A 2002-04-10 2002-04-10 画像領域抽出方法および装置 Expired - Fee Related JP3649328B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002108608A JP3649328B2 (ja) 2002-04-10 2002-04-10 画像領域抽出方法および装置
US10/409,140 US7136540B2 (en) 2002-04-10 2003-04-09 Picture region extraction method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002108608A JP3649328B2 (ja) 2002-04-10 2002-04-10 画像領域抽出方法および装置

Publications (2)

Publication Number Publication Date
JP2003303344A JP2003303344A (ja) 2003-10-24
JP3649328B2 true JP3649328B2 (ja) 2005-05-18

Family

ID=28786527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002108608A Expired - Fee Related JP3649328B2 (ja) 2002-04-10 2002-04-10 画像領域抽出方法および装置

Country Status (2)

Country Link
US (1) US7136540B2 (ja)
JP (1) JP3649328B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011121900A1 (ja) * 2010-03-30 2011-10-06 日本電気株式会社 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7327862B2 (en) 2001-04-30 2008-02-05 Chase Medical, L.P. System and method for facilitating cardiac intervention
US7526112B2 (en) 2001-04-30 2009-04-28 Chase Medical, L.P. System and method for facilitating cardiac intervention
US7693563B2 (en) 2003-01-30 2010-04-06 Chase Medical, LLP Method for image processing and contour assessment of the heart
JP4609322B2 (ja) * 2003-07-29 2011-01-12 日本電気株式会社 染色体状態の評価方法および評価システム
JP2005141601A (ja) * 2003-11-10 2005-06-02 Nec Corp モデル選択計算装置,動的モデル選択装置,動的モデル選択方法およびプログラム
US7333643B2 (en) * 2004-01-30 2008-02-19 Chase Medical, L.P. System and method for facilitating cardiac intervention
JP4483334B2 (ja) * 2004-02-18 2010-06-16 富士ゼロックス株式会社 画像処理装置
US7848566B2 (en) 2004-10-22 2010-12-07 Carnegie Mellon University Object recognizer and detector for two-dimensional images using bayesian network based classifier
JP5088329B2 (ja) 2007-02-13 2012-12-05 日本電気株式会社 細胞特徴量算出装置および細胞特徴量算出方法
JP4493679B2 (ja) * 2007-03-29 2010-06-30 富士フイルム株式会社 対象領域抽出方法および装置ならびにプログラム
JP5347272B2 (ja) 2008-01-18 2013-11-20 日本電気株式会社 スポット定量装置、スポット定量方法及びプログラム
JP5365011B2 (ja) * 2008-01-29 2013-12-11 日本電気株式会社 病理診断支援装置、病理診断支援方法、およびプログラム
EP2309493B1 (en) * 2009-09-21 2013-08-14 Google, Inc. Coding and decoding of source signals using constrained relative entropy quantization
JP5906071B2 (ja) * 2011-12-01 2016-04-20 キヤノン株式会社 情報処理方法、情報処理装置、および記憶媒体
CN102609721B (zh) * 2012-02-01 2014-06-04 北京师范大学 遥感影像的聚类方法
KR101370496B1 (ko) * 2013-09-26 2014-03-06 한국건설기술연구원 복합매질로 이루어진 시편에 대한 X-ray CT 영상의 최소 단위에 존재하는 각 순수매질의 부피비 측정방법
CN113950278A (zh) * 2019-07-10 2022-01-18 莎益博网络系统株式会社 图像分析装置及图像分析方法
WO2021178287A1 (en) * 2020-03-02 2021-09-10 Texas Instruments Incorporated Projector with phase hologram modulator
CN111401470B (zh) * 2020-03-31 2023-03-10 西安电子科技大学 基于特征空间分布的Fisher特征选择方法
US20210366139A1 (en) * 2020-05-21 2021-11-25 Samsung Electronics Co., Ltd. Method and apparatus for generating depth image
CN112092675B (zh) * 2020-08-31 2022-03-25 长城汽车股份有限公司 一种电池热失控预警方法、系统及服务器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415048B1 (en) * 1993-10-12 2002-07-02 Schneider Medical Technologies, Inc. Compositional analysis system
JP3534009B2 (ja) 1999-09-24 2004-06-07 日本電気株式会社 輪郭抽出方法及び装置
US6424960B1 (en) * 1999-10-14 2002-07-23 The Salk Institute For Biological Studies Unsupervised adaptation and classification of multiple classes and sources in blind signal separation
US20040125877A1 (en) * 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011121900A1 (ja) * 2010-03-30 2011-10-06 日本電気株式会社 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
JP2011210156A (ja) * 2010-03-30 2011-10-20 Nec Corp 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
US9438768B2 (en) 2010-03-30 2016-09-06 Nec Corporation Image processing apparatus, image reading apparatus, image processing method and information storage medium

Also Published As

Publication number Publication date
US7136540B2 (en) 2006-11-14
JP2003303344A (ja) 2003-10-24
US20030194132A1 (en) 2003-10-16

Similar Documents

Publication Publication Date Title
JP3649328B2 (ja) 画像領域抽出方法および装置
JP7134303B2 (ja) 顕微鏡スライド画像のための焦点重み付き機械学習分類器誤り予測
US8687879B2 (en) Method and apparatus for generating special-purpose image analysis algorithms
DE102008060789A1 (de) System und Verfahren zur nicht überwachten Detektion und Gleason-Abstufung für ein Prostatakrebspräparat (Whole-Mount) unter Verwendung von NIR Fluoreszenz
JP2006153742A (ja) 病理診断支援装置、病理診断支援プログラム、病理診断支援方法、及び病理診断支援システム
KR20230125169A (ko) 조직의 이미지 처리 방법 및 조직의 이미지 처리 시스템
CN113570619B (zh) 基于人工智能的计算机辅助胰腺病理图像诊断系统
Sasmal et al. A survey on the utilization of Superpixel image for clustering based image segmentation
Tenbrinck et al. Image segmentation with arbitrary noise models by solving minimal surface problems
WO2022258718A1 (en) Processing multimodal images of tissue for medical evaluation
CN116805319A (zh) 提供训练机器学习分割算法的训练数据集的方法和系统
D’APICE et al. Variational model with nonstandard growth conditions for restoration of satellite optical images using synthetic aperture radar
US20230096719A1 (en) Scalable and high precision context-guided segmentation of histological structures including ducts/glands and lumen, cluster of ducts/glands, and individual nuclei in whole slide images of tissue samples from spatial multi-parameter cellular and sub-cellular imaging platforms
JP4609322B2 (ja) 染色体状態の評価方法および評価システム
CN104766068A (zh) 一种多规则融合的随机游走舌像提取方法
CN110739051B (zh) 利用鼻息肉病理图片建立嗜酸性粒细胞占比模型的方法
Piening et al. Learning from small data sets: Patch‐based regularizers in inverse problems for image reconstruction
De et al. Brain tumor classification from radiology and histopathology using deep features and graph convolutional network
Paroli et al. Reversible jump Markov Chain Monte Carlo methods and segmentation algorithms in hidden Markov models
Karabağ et al. Segmentation And Modelling of Helanuclear Envelope
Desquesnes et al. PdEs-based morphology on graphs for cytological slides segmentation and clustering
우동준 Adaptive Image Processing Based on Superpixel
CN114581417A (zh) 一种医学实验处理装置、系统、方法、设备以及存储介质
CN117975122A (zh) 一种基于动态稀疏化对比学习的医学图像分类方法
CN115497604A (zh) 胶囊内镜的图像处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050209

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080225

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090225

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100225

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100225

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110225

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees