JP2003303344A - 画像領域抽出方法および装置 - Google Patents

画像領域抽出方法および装置

Info

Publication number
JP2003303344A
JP2003303344A JP2002108608A JP2002108608A JP2003303344A JP 2003303344 A JP2003303344 A JP 2003303344A JP 2002108608 A JP2002108608 A JP 2002108608A JP 2002108608 A JP2002108608 A JP 2002108608A JP 2003303344 A JP2003303344 A JP 2003303344A
Authority
JP
Japan
Prior art keywords
class
coarse
grained
image
evaluation function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002108608A
Other languages
English (en)
Other versions
JP3649328B2 (ja
Inventor
Asaharu Kiyuna
朝春 喜友名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002108608A priority Critical patent/JP3649328B2/ja
Priority to US10/409,140 priority patent/US7136540B2/en
Publication of JP2003303344A publication Critical patent/JP2003303344A/ja
Application granted granted Critical
Publication of JP3649328B2 publication Critical patent/JP3649328B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 領域抽出の対象となる像を含む画像に対し,
画像上の各ピクセルが,所望の領域に属すか否かを規定
する閾値を陽に設定することなく,自動的に,かつ高速
・高精度に所望の領域を抽出する。 【解決手段】 画像データ空間を粗視化し(ステップA
2),粗視化経験確率分布を算出し(ステップA3),
パラメータを初期化し(ステップA4),粗視化条件付
き確率分布を算出し(ステップA5),クラス帰属確率
を算出し(ステップA6),パラメータを更新し(ステ
ップA7),評価関数を算出し(ステップA8),評価
関数の変化が無くなるまでステップA2からA8までを
繰り返し,評価関数の変化が無くなった時点で,クラス
帰属確率に基づいて画像領域を抽出する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、領域抽出の対象像
を含む画像データに対し、画像のピクセルが持つ属性に
基づいて、対象となる物体の領域を抽出する技術に関
し、特に、MRI装置やCTスキャン装置などで撮影さ
れた画像データ、あるいは生物顕微鏡で観測された生体
組織の断面図から、画像を特定の臓器や腫瘍、細胞の
核、腺腔などの領域を抽出する画像領域抽出方法および
装置に関する。
【0002】
【従来の技術】従来、画像から特定の物体の像を抽出す
るには、次のような方法が知られている(例えば、特開
2001−92980号公報;以下文献1とする。) 文献1にでは、輪郭抽出の対象となる物体の像を含む画
像データに対し、前記画像の各点が持つ属性に基づい
て、画像各点が各領域に属する確率である領域帰属確率
を用いて、前記各点が属する領域を分離し、前記領域間
の境界を輪郭として抽出する構成としている。このよう
な構成とすることにより、領域分類の閾値を陽(explic
it)に設定することなく、自動的に各領域の輪郭を抽出
することが可能となり、輪郭領域抽出の高速化を可能に
している。
【0003】
【発明が解決しようとする課題】上記文献1における輪
郭領域抽出は、画像データから、画像上各点が領域の各
々に属する領域帰属確率の期待値を算出し、領域帰属確
率と領域パラメータから求められる混合確率分布に基づ
いて評価関数を算出し、領域帰属確率に基づいて各領域
を分離し、分離された領域に基づいて輪郭を抽出してい
るため、評価関数を求める際、すべての画像点(ピクセ
ル)に関して和を取る必要があり、最適なパラメータを
求めるためにはこの評価関数の算出を何度も繰り返すこ
とになる。
【0004】そのため、従来の方法においては,画像の
サイズが大きくなればなるほど、領域抽出に要する時間
が膨大になるという問題がある。
【0005】本発明は上述した問題点を鑑み、画像か
ら、閾値を陽に設定することなく、更なる高速かつ高精
度に対象領域を抽出する画像領域抽出方法および装置を
提供することにある。
【0006】
【課題を解決するための手段】本発明第1記載の画像領
域抽出方法は、前記画像の前記各ピクセルが取りうる属
性値全体から構成されるデータ空間を、所与の解像度で
部分空間に分解し、該各部分空間に属性値を取るピクセ
ルの集合と、該ピクセルの属性値の平均と、該ピクセル
の個数を保持し、粗視化データ空間を構成する第1の工
程と、前記各部分空間のピクセル数を前記画像に含まれ
る全ピクセル数で割り、前記粗視化データ空間上の粗視
化経験確率分布を算出する第2の工程と、前記各クラス
の属性を規定するクラスパラメータ、前記クラスの数、
および前記クラスの混合比率を初期化する第3の工程
と、前記各クラスの属性を規定するクラスパラメータか
ら、前記クラスが指定されたもとでの条件付き確率分布
を算出し、該算出した条件付き確率分布を、前記各部分
空間内で平均化することによって粗視化条件付き確率分
布を算出する第4の工程と、前記画像を構成する各ピク
セルが前記各クラスに帰属する確率であるクラス帰属確
率を、前記クラス混合比に前記粗視化条件付き確率分布
を掛けることにより算出する第5の工程と、評価関数を
増加させるように前記クラスパラメータ、および前記ク
ラス混合比を更新する第6の工程と、前記粗視化条件付
き確率分布を用いて、前記評価関数として粗視化対数尤
度を算出する第7の工程と、前記評価関数が所与の終了
条件を満たしているかどうかを調べる第8の工程と、前
記評価関数が前記所与の終了条件を満たした後、前記ク
ラスパラメータおよび前記クラス混合比を保持し、前記
クラス帰属確率に基づいて、前記ピクセルが属する領域
を決定し、前記所望の領域を抽出する第9の工程とを有
し、所与の条件が満たされるまで、前記第4、前記第
5、前記第6、前記第7、および前記第8の工程を繰り
返すことを特徴とする。
【0007】本発明第2記載の画像領域抽出方法は、前
記第4の工程において、前記粗視化条件付き確率分布を
算出する際に、前記各部分空間に含まれるデータの平均
値を算出し、該平均値を用いて前記各部分空間における
前記粗視化条件付き確率分布を算出することを特徴とす
る。
【0008】本発明第3記載の画像領域抽出方法は、前
記第1または第2に記載の画像領域抽出方法において、
粗視化の解像度が元の解像度であるかを調べる第10の
工程と、前記部分空間の解像度を元の解像度へ復元する
第11の工程とを有し、前記第3の工程において、前記
第9の工程で保持されているクラスパラメータおよび前
記クラス混合比を初期値として用い、所与の条件が満た
されるまで、前記第4、前記第5、前記第6、前記第
7、および前記第8の工程を繰り返すことを特徴とす
る。
【0009】本発明第4記載の画像領域抽出方法は、前
記第1及至第3のいずれかに記載の画像領域抽出方法に
おける前記第9の工程において、推定された前記クラス
混合比に前記画像を構成する全ピクセル数を掛けて前記
各クラスに属するピクセル数を算出し、前記クラス帰属
確率が高い順から前記ピクセルを選択し、前記各クラス
に属するピクセルを決定することを特徴とする。
【0010】本発明第5記載の画像領域抽出方法は、前
記第1及至第4のいずれかに記載の画像領域抽出方法に
おける前記第7の工程において、前記評価関数としてA
IC(Akaike Information Criterion)を用い、前記第
6の工程において評価関数を減少させるようパラメータ
を変更することを特徴とする。
【0011】本発明第6記載の画像領域抽出方法は、前
記第1及至第4のいずれかに記載の画像領域抽出方法に
おける前記第7の工程において、前記評価関数としてM
DL(Minimum Description Length)を用い、前記第6
の工程において該評価関数を減少させるようパラメータ
を変更することを特徴とする。
【0012】本発明第7記載の画像領域抽出方法は、前
記第1及至第4のいずれかに記載の画像領域抽出方法に
おける前記第7の工程において、前記評価関数としてス
トラクチュラル・リスク(Structural Risk)を用い、
前記第6の工程において該評価関数を減少させるようパ
ラメータを変更することを特徴とする。
【0013】本発明第8記載の画像領域抽出方法は、前
記第1及至第7のいずれかに記載の画像領域抽出方法に
おける前記第3の工程において、前記各部分空間同士が
近傍にあるかどうかを定義する近傍半径と、前記クラス
の数を設定し(ステップB1)、前記各部分空間ごと
に、各部分空間の代表値を設定し(ステップB2)、分
類対象部分空間の集合を設定し(ステップB3)、前記
分類対象部分空間の集合の中から、前記粗視化経験確率
の最も高い部分空間を選択し(ステップB4)、前記粗
視化経験確率の最も高い部分空間の代表値との距離が、
前記近傍半径以内である代表値を持つ部分空間全てを、
近傍集合として選択し(ステップB5)、すでに分類が
完了したクラスに含まれる部分空間の代表値と、前記近
傍集合に含まれる部分空間の代表値との間の最短距離
が、前記近傍半径よりも大きいかどうかを調べ(ステッ
プB6)、もし、すでに分類が完了したクラスに含まれ
る部分空間の代表値と、前記近傍集合に含まれる部分空
間の代表値との間の最短距離が、前記近傍半径よりも大
きければ、前記近傍集合を新規クラスとし、前記分類対
象部分空間から前記近傍集合を削除し、ステップB4以
降を繰り返し(ステップB7)、そうでなければ、前記
近傍集合をすでに分類済みのクラスに追加し、前記分類
対象部分空間から、前記近傍集合を削除し(ステップB
8)、前記分類対象部分空間が空集合であるかどうかを
調べ(ステップB9)、もし、前記分類対象部分空間が
空集合でなければ、ステップB4以下を繰り返し、前記
分類対象部分空間が空集合であれば、分類が完了したク
ラスの数が所与の数以上あるかどうかを調べ(ステップ
B10)、もし分類が完了したクラスの数が所与の数よ
りも少なければ、前記近傍半径を縮小し(ステップB1
1)、ステップB3以下を繰り返し、もし、前記分類対
象部分空間が空集合であり、かつ分類済みのクラスの数
が所与の数よりも多ければ、各クラス内で前記クラスパ
ラメータを算出し、これをクラスパラメータの初期値と
し、また各クラス内に含まれる部分空間の数の比率を前
記クラス混合比の初期値とする(ステップB12)、こ
とを特徴とする。
【0014】本発明第9記載の画像領域抽出装置は、領
域抽出の対象となる像を含む画像データに対し、画像上
の各ピクセルを複数のクラスに分類し、所望の領域を抽
出する画像領域抽出装置において、画像データを読み込
む入力装置と、前記画像の前記各ピクセルが取りうる属
性値全体から構成されるデータ空間を、所与の解像度で
部分空間に分解し、該各部分空間に属性値を取るピクセ
ルの集合と、該ピクセルの属性値の平均と、該ピクセル
の個数を保持し、粗視化データ空間を構成する領域粗視
化装置と、前記各部分空間のピクセル数を前記画像に含
まれる全ピクセル数で割り、前記粗視化データ空間上の
粗視化経験分布を算出する粗視化経験確率分布算出装置
と、前記各クラスの属性を規定するクラスパラメータ、
前記クラスの数、および前記クラスの混合比率を初期化
し、前記各クラスの属性を規定するクラスパラメータか
ら、前記クラスが指定されたもとでの条件付き確率分布
を算出し、前記クラスが指定されたもとでの条件付き確
率分布を、前記各部分空間内で平均化することによって
粗視化条件付き確率分布を算出する粗視化条件付き確率
分布装置と、前記画像を構成する各ピクセルが前記各ク
ラスに帰属する確率であるクラス帰属確率を、前記粗視
化条件付き確率分布から算出するクラス帰属確率算出装
置と、評価関数として粗視化対数尤度を用いるときに
は、該評価関数を増加させるように、また評価関数とし
てAIC、MDL、ストラクチュラル・リスクのいずれ
かを用いる場合は該評価関数を減少させるように前記パ
ラメータを更新するパラメータ更新装置と、前記粗視化
対数尤度、前記AIC、前記MDL、前記ストラクチュ
ラル・リスクのいずれかを用いて前記評価関数を算出す
る評価関数算出装置と、前記評価関数が所与の終了条件
を満たしているかどうかを調べ、前記評価関数が前記所
与の終了条件を満たした後、前記パラメータを保持し、
前記クラス帰属確率に基づいて、前記各ピクセルが属す
るクラスを決定し、領域を抽出する領域抽出装置と、抽
出した領域を出力する出力装置と、を有することを特徴
とする。
【0015】本発明第10記載の画像領域抽出装置は、
前記第9記載の画像領域抽出装置において、前記評価関
数が前記所与の終了条件を満たしていることが確認され
たのち、粗視化の解像度が元の解像度であるかを調べ、
前記データ空間の解像度を元の解像度へ復元する解像度
復元装置を有することを特徴とする。
【0016】また、本発明は、本発明における画像領域
抽出処理をコンピュータに実行させるための画像領域抽
出プログラムをその特徴とする。
【0017】本発明では文献1記載の発明と同様に、推
定したクラス帰属確率に基づいて領域を抽出している。
この特徴により、閾値を自動的に設定できるという利点
がある。しかしながら、このクラス帰属確率を推定する
ためには、パラメータの更新を何度も(通常50回程
度)繰り返し行う必要があり、計算に時間を要するとい
う問題がある。
【0018】そこで、本発明では画像データの発生源の
モデルとして粗視化確率分布を用い、それに伴ってデー
タ空間も粗視化する。これにより、通常は条件付き確率
分布やクラス帰属確率を数十万個のデータについて計算
する必要があるところを、数千個の部分空間についての
計算に置き換えることができる。この特徴により、領域
抽出に要する時間を大幅に短縮することが可能となる。
【0019】推定されるクラスパラメータは、粗視化に
よって精度が劣ることになるが、本発明ではクラスパラ
メータを直接使うのではなく、パラメータから計算した
クラス帰属確率に基づいて領域抽出を行うため、後に示
すように、粗視化による誤差の影響をうけることなく領
域抽出を行うことが可能となっている。
【0020】以下、上記本発明の作用の有効性について
更に詳細に説明する。
【0021】本発明の第1に記載の画像領域抽出方法に
おいては、画像を構成する各ピクセルの持つ属性値を確
率変数と見なし、推定したピクセル値の確率分布に基づ
いて所望の領域を抽出する。属性値としては、例えばモ
ノクロ画像ならば輝度の値、カラー画像ならば赤
(R)、緑(G)、青(B)の色要素の強度などを用い
ることができる。
【0022】所望の領域を抽出するためには、各ピクセ
ルの属性値に基づいて、類似の属性をもった複数のグル
ープに各ピクセルを分類する必要がある。本明細書にお
いては、類似の属性を持ったピクセルの集合をクラスと
呼ぶ。各クラスは、例えばそのクラスに属する属性値の
平均値や分散などによって特徴づけられるものとする。
以下、これらクラスの特徴をそのクラスの「クラスパラ
メータ」と呼び、φi(i=1,,,k)と書くこととする。k
はクラスの数である。このような定式化のもとで、j番
目のピクセルが、xjという属性値を取る確率は、次の
混合分布で表現できる。
【0023】
【数1】 ここで、f(xji)はデータがi番目のクラスから発生
していると仮定したときの条件付確率分布、wiは、各
クラスの混合比で、
【0024】
【数2】 を満たす。
【0025】xjは、例えばモノクロ画像ならば、0から
255などの整数値をとり、カラー画像ならばRGBの色
要素の値を成分とした3次元ベクトル(xj1,xj2,xj3
で表される。ここで各xjl(l=1,2,3)は、例えば0から
255の整数値を取る。
【0026】混合比wiは、異なるクラスに属する領域
の面積比を表す。例えば、平均輝度200、輝度の標準偏
差が20という特徴で表される明るい画像領域(クラス1
とする)と、平均輝度50、輝度の標準偏差が10という特
徴で表される暗い領域(クラス2とする)の、二つの領
域から構成されるモノクロ画像があるとする。また、そ
の画像の面積の7割を明るい領域が、3割を暗い領域が
占めているとする。この場合、クラスの数はk=2、クラ
スパラメータはφ1=(200,20),φ2=(50,10)であり、この
画像の混合分布は、 p(xj)=0.7(xj|200,20)+0.3(xj|50,10) ……(2) などと表現できる。
【0027】以下、クラス混合比wiとクラスパラメー
タφiをまとめてθiと書くことにする。以下において単
に「パラメータ」というときは、このθiを意味するこ
ととする。
【0028】本発明第1記載の画像領域抽出方法では、
以下のように定義される平均対数尤度
【0029】
【数3】 を最大にするパラメータを推定し、推定したパラメータ
の情報を利用して領域抽出を行う。ここでnは画像に含
まれるピクセル数である。このような統計手法は最尤法
と呼ばれている。
【0030】しかしながら、平均対数尤度Lを最大にす
るパラメータを推定することは、一般に困難である。そ
こで、この平均対数尤度Lの代わりに次の量
【0031】
【数4】 で表される完全対数尤度の期待値Qを用いてパラメータ
を推定することができる。ここで
【0032】
【数5】 は、j番目のピクセルがi番目のクラスに帰属する確率
である。本発明ではこれをクラス帰属確率と呼ぶ。Qが
増大するようにパラメータを更新すれば、上述の平均対
数尤度Lも必ず増大することは、数学的に証明されてお
り、この証明は、例えば A. P. Dempster, N.M.Laird,
and D.B.Rubin, Maximum Likelihood FromIncomplete D
ata via The EM Algorithm, J. Roy. Stat. Soc. Vol.3
0, pp.205248, 1977(以下文献2とする)に詳しい。
【0033】本発明において、推定されたパラメータか
ら実際に領域を抽出するには、以下のように行う。まず
適当な初期パラメータから開始し、(5)式で与えられ
るクラス帰属確率を求める。次にQを増加させるように
パラメータw,φを更新し、改めてQを算出する。最終
的にQが増加しなくなるまでこの手順を繰り返す。
【0034】k個のクラスのうち、例えばi番目のクラ
スに属する点を抽出するには、i番目のクラスへの帰属
確率の値を調べ、その確率値が一定値以上のピクセルを
そのクラスに属するものとして分類する。すべてのピク
セルを分類し終わった時点で、k個のクラスの中から所
望の属性を持ったクラスを選択し、そのクラスに属する
ピクセルを画像から抽出すれば、所望の領域を自動的に
抽出することができる。
【0035】本発明では、このQの最大化を高速に行う
ために、粗視化確率分布を導入する。粗視化確率分布
は、データが取りうる値全体からなる空間(以下、デー
タ空間と呼ぶ)を互いに交わらないN個の部分空間に分
解し、各部分空間に確率を割り当てることによって構成
される。
【0036】具体的には、j番目の部分空間における粗
視化された条件付き確率分布を
【0037】
【数6】 で定義し、粗視化条件付き確率分布を
【0038】
【数7】 とする。ここで、Ajはj番目の部分空間である。Dを
データ空間全体とすると
【0039】
【数8】 を満たす。またI(x)は、データ値が部分空間Aに含
まれるときに1、それ以外の時に0となる指示関数で、
m(A)=∫Adx はAの測度である(データ空間が2次元の
ときにはAの面積を、3次元空間のときは体積を表
す。) このように定義された粗視化条件付き確率分布を用いる
と、Qは、
【0040】
【数9】 と書き換えることができる。ここで
【0041】
【数10】 は粗視化された経験確率分布、
【0042】
【数11】 は粗視化されたクラス帰属確率である。この式(9)で
与えられる粗視化された完全対数尤度を最大化すること
によって、次の粗視化平均対数尤度
【0043】
【数12】 を最大化することが可能となる。
【0044】元のQと比較すると、式(4)で与えられ
るQが全データに関して和をとっているのに対し、式
(9)で与えられる粗視化された完全対数尤度は、部分
空間に関してのみ和を取っている。後に示すように、こ
の改善によって本発明では計算量が大幅に軽減できる。
例えば、512×512ピクセルの画像の場合、26万個以上
のデータについて和を取る必要があるが、本発明の粗視
化分布を用いた場合、部分空間に関する和を1000個
程度にまで軽減でき、高速な推定が可能となる。
【0045】本発明第2に記載の画像領域抽出方法で
は、各部分空間における粗視化された確率値を、その部
分空間に含まれるデータの平均値における確率値で近似
する。
【0046】
【数13】 ここで
【0047】
【数14】 は、j部分空間Ajに含まれるデータの平均値である。
この近似によって、部分空間内における積分(あるいは
総和)操作を省略することができ、さらなる計算量の軽
減が可能となる。
【0048】本発明第3に記載の画像領域抽出方法で
は、粗視化確率分布を用いて推定したパラメータを初期
値とし、元の解像度で再度推定を行う。この場合、粗視
化確率分布を用いてすでにほぼ最適なパラメータが得ら
れているため、最初から元の解像度で推定を行う場合に
比較して、パラメータの逐次更新の回数がはるかに少な
くてすむため、高精度な推定を高速に行うことが可能と
なる。
【0049】本発明第4に記載の画像領域抽出方法で
は、領域を抽出する際、推定された混合比wiに全ピク
セル数nを掛け、i番目の領域に属するピクセル数を推
定する。そして領域帰属確率の高い順に上位ni個をこ
の領域に属するピクセルとして抽出する。この方法によ
り、どの値までの確率値をその領域に属しているものと
見なすか、という閾値を自動的に決定することができ
る。
【0050】本発明第5、第6および第7に記載の画像
領域抽出方法においては、評価関数として、それぞれA
IC、MDL、ストラクチュラル・リスクを用い、その
値がもっとも小さい結果を与えるモデルを選択する。最
尤推定においては一般にパラメータの数が多いほど、評
価値としてはよい値を与えるため、本来のパラメータ数
が決定できないという問題がある。
【0051】これに対し、本発明第5、第6および第7
に記載の評価関数は、過剰なパラメータ数を用いたと
き、評価関数の値が逆に増加するという特性を持ってい
る。これにより、最適なパラメータ数を推定することが
可能となる。領域抽出へ適用する場合は、画像が何種類
の領域から形成されているか、その適切な領域数を推定
することができる。
【0052】
【発明の実施の形態】次に、本発明の好ましい実施の形
態について、図面を参照しながら詳細に説明する。な
お、以下の説明において用いる記号は、特に言及しない
限りこれまで用いてきた記号の説明に従うものである。
また、以下の実施例では、染色された細胞のカラー顕微
鏡写真から、細胞の各組織(核、腺腔)を抽出する場合
を例に取って説明を行うが、画像として記録されている
像であるならば、以下に説明する方法と同様な方法で実
行できる。
【0053】図1は本発明の第1の実施形態の画像領域
抽出方法における処理手順を示すフローチャートであ
る。また、図2は本実施形態の画像領域抽出装置の構成
を示すブロック図である。
【0054】本発明の画像領域抽出装置は、画像データ
を読み込む入力装置1と、データ空間粗視化装置2と、
粗視化経験確率分布算出装置3と、粗視化条件付き確率
分布算出装置4と、クラス帰属確率算出装置5と、パラ
メータ更新装置6と、評価関数算出装置7と、領域抽出
装置8と、出力装置9から構成されている。
【0055】以下、本発明の画像領域抽出装置の処理に
ついて、図1および図2を用いて説明する。
【0056】入力装置1は、生物顕微鏡などで観測され
た細胞のカラー画像を入力する(ステップA1)。この
入力装置は、例えば、画像スキャナやデジタルカメラな
どを用いて構成することができる。あるいは、生物顕微
鏡をコンピュータに接続し、ネットワークを通して画像
を直接入力することも可能である。入力装置1は、読み
込んだデータをデータ空間粗視化装置2に送る。
【0057】データ空間粗視化装置2は、本発明第1記
載の第1の工程に基づいて、粗視化データ空間を構成す
る(ステップA2)。ここで、データ空間とは、画像の
各ピクセルが取りうる属性値全体の集合を意味する。例
えば標準的グレースケールの画像において、各ピクセル
の属性は輝度によって表すことができ、輝度は通常0か
ら255の整数値で表現される1次元空間である。また、
標準的なカラー画像の場合ならば、R、G、B各色要素
に対し、通常0から255の整数値で表現される3次元空間
となる。
【0058】部分空間を構成するには、例えば解像度を
8とすると、RGBの各値を8ずつに区切り、8×8×
8の立方体を1つの部分空間として構成することができ
る。解像度は3次元の軸で同一で無くともよい。例えば
R軸をh1ずつ、G軸をh2ずつ、B軸をh3ずつに区切
って粗視化してもよく、各部分空間が重なりを持たず、
かつ全データ空間をもれなく覆うことができればよい。
以下において、解像度hで粗視化すると表現する場合
は、h×h×hでRGBの各値を区切ることを意味す
る。
【0059】データ空間粗視化装置2は、また、各部分
空間に値を取るピクセルの集合と、それらピクセル値の
平均と、ピクセルの個数を保持する。
【0060】図6に解像度h1×h2×h3で粗視化した
ときの粗視化データ空間11、および部分空間12を示
す。例えばj番目のピクセルの属性値xjが、R=128、
G=255、B=18なる値の時、このピクセルは、(16,31,
2)なる指標で指定される部分空間に値を取る。このこ
とを以下では、xjがこの部分空間に含まれる、と表現
する。
【0061】データ空間粗視化装置2は、粗視化データ
空間を構成した後、各部分空間に含まれるピクセルの番
号と、ピクセル数を粗視化経験確率分布算出装置3に送
る。粗視化経験確率分布算出装置3では、本発明第1記
載の第2の工程に基づいて、粗視化経験確率分布を算出
する(ステップA3)。ここで粗視化経験確率分布と
は、粗視化データ空間の各部分空間に含まれる観測デー
タを、全ピクセル数で割った値から算出された確率分布
を表す。
【0062】粗視化経験確率分布算出装置3は、粗視化
経験確率分布を粗視化条件付き確率分布算出装置4に送
る。粗視化条件付き確率分布算出装置4では、本発明第
1記載の第3の工程に基づいて、クラスパラメータを初
期化する(ステップA4)。また、粗視化条件付き確率
分布算出装置4では、本発明第1記載の第4の工程に基
づいて、粗視化条件付き確率分布を算出する(ステップ
A5)。
【0063】粗視化条件付き確率分布を具体的に算出す
るには、以下のようにする。ここでは、j番目のピクセ
ル値がi番目のクラスから発生しているとした条件のも
とでの条件付き確率が、以下のような多次元正規分布
【0064】
【数15】 で与えられているとする。ここで、xは、RGB各色の
値からなる3次元ベクトル、μiはi番目のクラスの平
均色を表す3次元ベクトル、Σiはi番目のクラスの共
分散行列であり、|Σi|,Σi -1はそれぞれ行列Σiの行列
式,逆行列を表す。また、(x-μi)は転置を表す。
【0065】粗視化条件付き確率分布算出装置4では、
この条件付き確率を式(6)で与えられる式で計算す
る。このとき、各部分空間の測度m(Aj)は、各部分空
間の体積となる。例えば、解像度8で一様に粗視化した
場合、8×8×8=512となる。
【0066】粗視化条件付き確率分布算出装置4では、
本発明第2記載の方法のように、粗視化条件付き確率分
布を式(13)によって近似することも可能である。こ
の方法により、パラメータを更新する度に式(6)で与
えられる演算をする必要がなくなり、計算量を大幅に削
減できる効果がある。
【0067】また、粗視化条件付き確率分布算出装置4
では、本発明第8記載の方法のように、粗視化経験分布
に基づいてパラメータの初期値を決定することも可能で
ある。本発明第8記載の方法では、各部分空間を大雑把
にクラス分類し、分類の結果得られた各クラス内で平均
値や分散値を求め、これらの値をパラメータ推定の初期
値とする。
【0068】図5は、粗視化経験確率分布に基づいて、
パラメータの初期値を決定する処理手順を示したフロー
チャートである。以下、図5を参照しながらパラメータ
の初期値設定法について説明する。
【0069】まず、ステップB1において、近傍半径r
と、分類すべきクラスの個数kを設定する。近傍半径
は、近傍半径内にあるすべての部分空間を同じクラスに
属するとみなし、大雑把にクラス分類するための基準値
として用いられる。例えばカラー画像の場合、同じよう
な色のピクセル同士はRGB値も近く、したがって同じ
クラスに分類するのが自然であると考えられるからであ
る。
【0070】後に説明するように、近傍半径が大きすぎ
る場合は所望のクラス数に到達する前に分類が完了して
しまう場合があるが、近傍半径を縮小して再度クラス分
類を行うため、最終的には必要な数のクラスに分類する
ことができる。したがってこの近傍半径の初期値は十分
大きな値に、例えば50などに設定する。分類すべきク
ラスの個数kは、所与の値をそのまま用いる。
【0071】次に、ステップB2において、各部分空間
ごとに、各部分空間の代表値Xを設定する。各部分空
間の代表値としては、例えば部分空間の中央値などを用
いることができる。以下では、これら代表値間の距離を
部分空間の距離とする。
【0072】次に分類対象となる部分空間の集合を設定
する(ステップB3)。以下ではこの集合をΩと書く。
Ωの初期値は、データを含む全部分空間全体から成る集
合とする。また分類済みクラスの数iを1とし、分類済
みクラスCの初期値を空集合とする。
【0073】次に、Ωに属する部分空間の中から、粗視
化経験確率の最も高い部分空間を選択する(ステップB
4)。この部分空間をAと書く。次に、Ωに属する部
分空間とAとの距離を調べ、近傍半径r以内にある部
分空間を全て選択し、これを近傍集合とする(ステップ
B5)。以下では、近傍集合をBと書く。
【0074】次に、すでに分類が完了しているクラスC
に含まれる部分空間と、近傍集合Bに含まれる部分
空間との最短距離を求め、近傍半径rよりも大きいかど
うかを調べる(ステップB6)。もしこの最短距離がr
よりも大きいならば、近傍集合Bは、すでに分類が完
了したクラスと十分異なる属性を持ち、かつ高い確率で
出現しているから、新しいクラスと見なしてよい。した
がって、近傍集合Bをそのまま新規クラスとして採用
する。
【0075】Bは分類が完了したので、分類対象集合
Ωから削除する。図5においてはこの削除を、記号を用
いて「Ω←Ω\B」と表している。Ωを更新したらス
テップB4に戻る(ステップB7)。
【0076】もし、すでに分類が完了しているクラスC
に含まれる部分空間と、近傍集合Bに含まれる部分
空間との最短距離が、近傍半径rよりも小さければ、近
傍集合BはCと属性が近いと考えられるため、B
をCに統合する。Bは分類が完了したので、分類対
象集合Ωから削除する(ステップB8)。
【0077】次に、Ωが空集合であるかどうかを調べ
(ステップB9)、もし、空集合でなければ、ステップ
B4へ行き、Ωが空集合であれば、分類が完了したクラ
スの数がk個以上あるかどうかを調べ(ステップB1
0)、k個以下なら近傍半径rに1以下の定数をかけて
半径を縮小する。この定数としては例えば0.9などの値
を用いることができる。そののちステップB3以下を繰
り返す。
【0078】もし、Ωが空集合であり、かつ分類済みの
クラスの数が所与の数よりも多ければ、所望の数のクラ
ス分類が完了しているので、各クラス内で前記クラスパ
ラメータを算出し、これをクラスパラメータの初期値と
し、また各クラス内に含まれる部分空間の数の比率を前
記クラス混合比の初期値とする(ステップB12)。
【0079】図7は、図5に示す粗視化経験確率分布に
基づいてパラメータの初期値を決定する初期値設定の手
順を理解しやすくするための簡単な例を表した図であ
る。図7ではデータ空間が一次元であるとし、全部で1
0個の部分空間に分けられていると仮定する。以下、図
7を用いて初期値設定の手順について説明する。
【0080】図7(a)において、横軸は部分空間の番
号を表し、縦軸は粗視化経験確率分布を表す。以下では
処理の流れを直観的に説明することに主眼を置くため、
粗視化経験確率値や部分空間の代表値、近傍半径につい
ては具体的な数値は用いず、図示することにする。
【0081】まず、スッテプB1において、例えばクラ
ス数を2とし、近傍半径をrとする。ステップB2にお
いて、各部分空間の代表値を設定する。ステップB3に
おいて、分類対象集合Ωの初期値は、データを含んだ全
部分空間とするので、 Ω={A,A,A,A,A,A} となる。A,AおよびA,A10は、粗視化確率
が0、すなわちこれらの部分空間に含まれるデータは観
測されていないので、分類対象集合には含めない。
【0082】ステップB4で、分類対象集合に含まれる
部分空間の中で、最も高い粗視化経験確率を持つA
選び、これをAとする(図7(a))。ステップB5
で、Aから近傍半径r内にある部分空間を選択し、こ
れをBとする。図7(a)に示された近傍半径内にあ
る部分空間は、A,A,A,Aであるから、 B={A,A,A,A} となる(図7(b))。
【0083】スッテプB6において、分類されているク
ラスはまだないので、このBをそのまま最初のクラス
として採用し、分類対象集合からBを取り除き、
ステップB4に戻る。図7(b)において、粗視化経験
確率の高さを示す棒グラフが白抜きで表されているの
は、部分空間が分類対象集合から除かれたことを表す。
【0084】ステップB4において、残りの分類対象集
合の中で最も高い粗視化経験確率を持つものは、A
あるから、これを新たにAとする(図7(c))。ス
テップB5で、Aから近傍半径r内にある部分空間を
選択して、これをBとする。ここでは、 B={A,A} となる。
【0085】ステップB6で、分類済みのクラス、すな
わち C={A,A,A,A} を調べると、Aから近傍半径r内にあるA,A
含んでいる。したがって現在のBを分類済みのクラス
に統合する(図7(d))。
【0086】これで分類対象集合Ωは空となり、全ての
部分空間の分類が完了したことになるが、分類されたク
ラス数は1であり、所望のクラス数2に達していない
(スッテプB10)。したがって近傍半径を縮小し(ス
テップ11)、ステップB3以下を繰り返す。
【0087】以下、縮小された半径をr’とし(図7
(e))、上述の説明と同様の手続きを繰り返す。ただ
し、今回は近傍半径が縮小されているため、以下のよう
な違いが生じる。即ち、Aの近傍半径r’内にある部
分空間は、今回の場合 B={A,A,A} となる(図7(f))。
【0088】このBをそのまま最初のクラスCとし
て採用し、残りの分類対象集合の中から最も高い粗視化
経験確率を持つAを選ぶ(図7(g))。Aから近
傍半径r’内にある部分空間は、 B={A,A,A} となる。今回は、分類済みのクラスCの中に、A
ら近傍半径r’内にある部分空間は存在しないので、現
在のBを新規クラスCとして採用する(図7
(h))。これで全ての部分空間が所望の二つのクラス
に分類されたことになる。
【0089】大雑把なクラス分類が完了すれば、分類さ
れたクラス内で平均や分散を求め、以降で行う推定の初
期パラメータとすることができる。初期パラメータを適
切に設定することは、粗視化対数尤度の最大化の過程で
局所最適解に陥ることを防止する上で有効である。
【0090】粗視化条件付き確率分布算出装置4では、
このようにして求めたパラメータを初期値として粗視化
条件付き確率分布を求めることが可能となる。粗視化条
件付き確率分布算出装置4は、求めた粗視化条件付き確
率分布をクラス帰属確率算出装置5に送る。クラス帰属
確率算出装置5は、本発明第1記載の第5の工程に基づ
いて、式(11)を用いてクラス帰属確率を算出する
(ステップA6)。
【0091】このクラス帰属確率は、j番目の部分空間
に含まれるピクセルが、i番目のクラスに属する確率を
表す。したがって、画像各ピクセルに対してこのクラス
帰属確率を算出し、確率の高いクラスに各ピクセルを分
類することによって、領域抽出が容易に行うことが可能
となる。クラス帰属確率算出装置5は、算出したクラス
帰属確率をパラメータ更新装置6に送る。
【0092】パラメータ更新装置6では、本発明第1記
載の第6の工程に基づいて、式(9)を最大化するよう
にパラメータを更新する。具体的には、以下のようにパ
ラメータを更新する。
【0093】
【数16】 ここで、
【0094】
【数17】 は、ベクトルu,vのi成分とj成分の積uをi
j成分に持つマトリクスを表す。また、
【0095】
【数18】 は、式(14)で定義されるj番目の部分空間Aに含
まれるデータの平均値である。
【0096】すでに述べたように、このようにパラメー
タを更新すれば、式(9)で与えられる粗視化された完
全対数尤度は増加し、したがって式(12)で与えられ
る粗視化平均対数尤度も増加する。このことは文献2に
詳しい説明がある。パラメータ更新装置6は、パラメー
タを更新した後、更新したパラメータを評価関数算出装
置7に送る。評価関数算出装置7は、本発明第1記載の
第7の工程に従って、式(12)を用いて粗視化対数尤
度を算出する(ステップA8)。
【0097】また粗視化対数尤度のかわりに、本発明第
5に記載のAIC
【0098】
【数19】 を用い、AICが小さいほど良い推定結果であるとする
評価関数を用いることも可能である。ここでmは、全パ
ラメータの個数を表す。AICは粗視化対数尤度にマイ
ナスを掛けた量に比例するため、パラメータ変更装置6
で行う更新によってAICは減少する方向に変化する。
また、パラメータに比例する項が付加されているため、
同じ粗視化対数尤度ならばパラメータの少ないモデルを
用いた推定結果の方が良いとする。この評価関数を用い
ることにより、データへの過剰な適合が抑制され、雑音
に強い推定を行うことが可能となる。
【0099】また、本発明第6に記載するように、次式
で定義されるMDL
【0100】
【数20】 を用いても同様な効果が得られる。
【0101】さらに、ストラクチュラル・リスク
【0102】
【数21】 を用いても同様な効果が得られる。ここでηは式(2
1)が確率ηで成り立つことを表し、通常0.01などの値
を用いる。c,a1,a2は確率分布の性質によって決まる定
数であるが、通常 c=1,a1=1,a2=1などの値が用いられる。hはVC
次元と呼ばれるものであり、パラメータの数に比例する
量である。
【0103】評価関数算出装置7は、本発明請求項1の
第8の工程として記載されるように、評価関数の変化が
所与の終了条件を満たしているかどうかを調べ、終了条
件が満たされていれば領域抽出装置8に現在のパラメー
タを送り、終了条件が満たされていなければ粗視化条件
付き確率分布算出装置4に現在のパラメータを送る(ス
テップA9)。終了条件としては、例えば現時点での評
価関数値と前回算出した評価関数値の差を現時点での評
価関数値で割り、その値の絶対値が0.0001以下であるか
どうか、などの条件を用いることができる。
【0104】領域抽出装置8は、本発明請求項1の第9
の工程として記載されるように、評価関数算出装置7か
らパラメータを受け取り、パラメータの情報を用いて領
域を抽出する(ステップA10)。例えば、i番目のク
ラスに属する領域を抽出するには、式(11)で与えら
れる粗視化されたクラス帰属確率の値をj=1からj=
Nまで調べ、その確率がある値(閾値)以上の部分空間
をi番目のクラスに属する部分空間とする。次に、その
部分空間に含まれるピクセルを調べ、これらのピクセル
をi番目の領域であるとして抽出する。クラス帰属確率
の閾値としては、例えば0.5を用いれば、所望の結果を
得ることができる。
【0105】領域抽出装置8は、本発明請求項4に記載
されるように、自動的に閾値を設定することも可能であ
る。そのためには以下のようにする。i番目の領域を抽
出するためには、まず推定されたクラス混合比wに全
ピクセル数を掛け、各クラスに属するピクセル数の推定
値を求める。この数をnとする。
【0106】次に、式(11)の粗視化されたクラス帰
属確率をj=1からj=Nまで調べ、値の高い部分空間
から順に、その部分空間に含まれるピクセルを抽出し、
抽出したピクセルがnに到達するまで続ける。n
目に抽出したピクセルの番号をlとすると、式(11)
の粗視化されたクラス帰属確率の値が、i番目の領域に
属する確率の閾値となる。領域抽出装置8は、領域抽出
が完了した後、抽出した領域のデータを出力装置9へ送
る。
【0107】上に説明した、データ空間粗視化装置2、
粗視化経験分布算出装置3、粗視化条件付き確率分布
4、クラス帰属確率算出装置5、パラメータ更新装置
6、評価関数算出装置7、領域抽出装置8は、例えば、
パーソナルコンピュータやワークステーション、あるい
はスーパーコンピュータなどの計算機を用いて構築する
ことができる。出力装置9は、領域抽出装置8から領域
データを受け取り、出力する(ステップA11)。出力
装置9は、例えばディスプレイ装置やプリンタなどを用
いて構成することができる。
【0108】図3は本発明の第2の実施形態の画像領域
抽出方法における処理手順を示すフローチャートであ
る。また、図4は本実施形態の画像領域抽出装置の構成
を示すブロック図である。本実施形態は、第1の実施形
態に領域復元装置10を追加した点を特徴とする。従っ
て、以下の説明では、第1の実施の形態と重複する部分
の説明は省略する。
【0109】領域復元装置10は、請求項3に記載され
るように、粗視化確率分布を用いたパラメータ推定が完
了した後、粗視化の解像度が元の解像度に等しいかを調
べ(ステップA12)、粗視化されていれば、データを
元の解像度に戻す(ステップA13)。粗視化されてい
なければ、元の解像度での推定が完了していることを意
味するから、元の解像度で推定されたパラメータを領域
抽出装置8に送る。
【0110】データを元の解像度に戻すには、粗視化の
解像度をデータ属性値の最小単位に設定し(例えば
1)、第1の実施の形態に述べた方法と全く同一の方法
を繰り返せばよい。この場合、第1の実施例で述べた方
法よりも推定に時間を要するようになるが、より高い精
度でパラメータを推定することができ、結果としてより
精度の高い領域抽出が可能となる。また、粗視化確率分
布を用いて推定したパラメータは、すでに最適なパラメ
ータの近傍に推定されているため、最初から高い解像度
で推定を行うよりも少ない回数のパラメータ更新で最適
パラメータが推定でき、はるかに高速に領域抽出を行う
ことができる。
【0111】次に、シミュレーションデータを用いて本
発明の有効性を評価した結果について説明する。
【0112】図8は、細胞の顕微鏡写真を模擬した画像
であり、腺腔(画像中もっとも明るい領域)、細胞核
(腺腔の周りを取り囲むように存在する輝度の低い小さ
な円形の組織)、およびそれ以外の組織から成る。書面
ではモノクロ画像であるが、実際は腺腔が薄いピンク、
細胞核が暗い青紫色、それ以外の領域が赤紫色のカラー
画像となっている。
【0113】ここでの目的は、画像から腺腔領域と細胞
核領域を分離して抽出することである。抽出した腺腔の
形状、細胞核の密度や大きさは、例えば細胞が癌化して
いるかどうかの判定に役立てることができる。しかしな
がら図8からわかるように、細胞核に対応する領域は背
景と区別が付きにくく、通常の方法では細胞核領域だけ
を自動抽出することは困難である。
【0114】この画像に対し、本発明に記載する手法を
用いて、腺腔領域と細胞核領域を抽出することを試み
た。ここでの推定は、粗視化解像度を16×16×16とし、
クラスの数を3と仮定して行っている。クラスの数を3
としたのは、細胞核に対応する領域(クラス1とす
る)、腺腔に対応する領域(クラス2とする)、それ以
外の領域(クラス3とする)に分離できることを期待し
ているからである。
【0115】このようにして得られた推定結果を図9
(a)、(b)、(c)、(d)に示す。図9(a)
は、クラス1(細胞核領域)のクラス帰属確率を3次元
的に表現したものであり、x軸、y軸が画像上のピクセ
ル位置を示し、z軸が帰属確率値を表している。図9
(b)はクラス1への帰属確率を2次元的に濃淡で表示
したものであり、クラス1に属する確率が低いピクセル
ほど黒く、確率が高いピクセルほど白く表現されてい
る。
【0116】同様にして図9の(c)、(d)は、クラ
ス2(腺腔領域)へのクラス帰属確率を、それぞれ3次
元的、2次元的に表したものであり、帰属確率の高い部
分が腺腔領域に属するピクセルとなっていることが分か
る。(クラス3に対する結果は、今の場合抽出対象では
ないので省略する。)これらの結果は、閾値を陽に設定
することなく自動的に得られたものであり、各クラスへ
の帰属確率の分布を調べるだけで、領域抽出が可能とな
っている。
【0117】同じ推定を、粗視化無し(粗視化解像度
1)で行った結果を図10の(a)、(b)、(c)、
(d)に示す。図10(a)、(b)は、クラス1への
クラス帰属確率を、それぞれ3次元的、2次元的に表し
たもの、また図10(c)、(d)は、クラス2への帰
属確率を、それぞれ3次元的、2次元的に表したもので
ある。これらの図から、粗視化解像度16での推定結果
と粗視化無しでの推定結果がほとんど同じであることが
分かる。
【0118】推定されたパラメータ値を比較すると、例
えばクラス1に属する領域の平均RGB値は、粗視化無
しで推定した場合RGB=(143.068,86.68
9,135.737)、解像度16で推定した場合RG
B=(141.522,86.128,135.513)
となっており、粗視化の影響はほとんどない。
【0119】しかしながら、粗視化のある無しでは推定
時間に大きな差が生じる。この違いを調べるために、さ
まざまな粗視化解像度で推定したときの推定時間を比較
したグラフを図11に示す。このグラフより、粗視化解
像度16で推定した場合、粗視化無しで推定したときに
比べて約1/7の時間で推定できていることがわかる。
【0120】
【発明の効果】以上に説明したように本発明では、クラ
ス帰属確率に基づいて領域抽出を行うことにより、閾値
を陽に設定することなく、自動的に画像データから所望
の領域を抽出することができる。また、粗視化確率分布
を用いることにより、従来例よりも更に高速に領域抽出
を行うことができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態における処理手順を
示すフローチャートである。
【図2】本発明の第1の実施の形態における、画像領域
抽出装置の構成を示すブロック図である。
【図3】本発明の第2の実施の形態における処理手順を
示すフローチャートである。
【図4】本発明の第2の実施の形態における、画像領域
抽出装置の構成を示すブロック図である。
【図5】本発明の第1の実施の形態における、パラメー
タの初期化手順を示すフローチャートである。
【図6】粗視化データ空間と部分空間の一形態を示す図
である。
【図7】本発明請求項8記載の、パラメータの初期化方
法の一例を表した図である。
【図8】本発明が適応できる画像の一例である。
【図9】本発明を用いた画像領域抽出を、粗視化解像度
16で行った結果を示しており、(a)クラス1(細胞
核領域)に属するクラス帰属確率分布の3次元表示、
(b)クラス1(細胞核領域)に属するクラス帰属確率
分布の2次元表示、(c)クラス2(腺腔領域)に属す
るクラス帰属確率分布の3次元表示、(d)クラス2
(腺腔領域)に属するクラス帰属確率分布の2次元表示
をそれぞれ示す。
【図10】本発明を用いた画像領域抽出を、粗視化無し
(粗視化解像度1)で行った結果を示しており、(a)
クラス1(細胞核領域)に属するクラス帰属確率分布の
3次元表示、(b)クラス1(細胞核領域)に属するク
ラス帰属確率分布の2次元表示、(c)クラス2(腺腔
領域)に属するクラス帰属確率分布の3次元表示、
(d)クラス2(腺腔領域)に属するクラス帰属確率分
布の2次元表示をそれぞれ示す。
【図11】本発明を用いた画像領域抽出を、粗視化解像
度1、2、4、8、16で行ったときの推定時間を示す
グラフである。
【符号の説明】
1 入力装置 2 データ空間粗視化装置 3 粗視化経験確率分布算出装置 4 粗視化条件付き確率分布算出装置 5 クラス帰属確率算出装置 6 パラメータ更新装置 7 評価関数算出装置 8 領域抽出装置 9 出力装置 10 領域復元装置 11 粗視化データ空間 12 部分空間 A1〜A13 ステップ B1〜B12 ステップ

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 領域抽出の対象となる像を含む画像デー
    タに対し、画像上の各ピクセルを複数のクラスに分類
    し、所望の領域を抽出する画像領域抽出方法において、 前記画像の前記各ピクセルが取りうる属性値全体から構
    成されるデータ空間を、所与の解像度で部分空間に分解
    し、該各部分空間に属性値を取るピクセルの集合と、該
    ピクセルの属性値の平均と、該ピクセルの個数を保持
    し、粗視化データ空間を構成する第1の工程と、 前記各部分空間のピクセル数を前記画像に含まれる全ピ
    クセル数で割り、前記粗視化データ空間上の粗視化経験
    確率分布を算出する第2の工程と、 前記各クラスの属性を規定するクラスパラメータ、前記
    クラスの数、および前記クラスの混合比率を初期化する
    第3の工程と、 前記各クラスの属性を規定するクラスパラメータから、
    前記クラスが指定されたもとでの条件付き確率分布を算
    出し、前記クラスが指定されたもとでの条件付き確率分
    布を、前記各部分空間内で平均化することによって粗視
    化条件付き確率分布を算出する第4の工程と、 前記画像を構成する各ピクセルが前記各クラスに帰属す
    る確率であるクラス帰属確率を、前記クラス混合比に前
    記粗視化条件付き確率分布を掛けることにより算出する
    第5の工程と、 評価関数を増加させるように前記クラスパラメータ、お
    よび前記クラス混合比を更新する第6の工程と、 前記粗視化条件付き確率分布を用いて、前記評価関数と
    して粗視化対数尤度を算出する第7の工程と、 前記評価関数が所与の終了条件を満たしているかどうか
    を調べる第8の工程と、 前記評価関数が前記所与の終了条件を満たした後、前記
    クラスパラメータおよび前記クラス混合比を保持し、前
    記クラス帰属確率に基づいて、前記ピクセルが属する領
    域を決定し、前記所望の領域を抽出する第9の工程とを
    有し、 前記評価関数が前記所与の条件を満たすまで、前記第
    4、前記第5、前記第6、前記第7、および前記第8の
    工程を繰り返すことを特徴とする画像領域抽出方法。
  2. 【請求項2】 前記第4の工程において、前記粗視化条
    件付き確率分布を算出する際に、前記各部分空間に含ま
    れるデータの平均値を算出し、該平均値を用いて前記各
    部分空間における前記粗視化条件付き確率分布を算出す
    ることを特徴とする請求項1に記載の画像領域抽出方
    法。
  3. 【請求項3】 前記第8の工程において、前記評価関数
    が前記所与の終了条件を満たしたとき、前記粗視化の解
    像度が元の解像度であるかを調べる第10の工程と、前
    記粗視化の解像度が元の解像度でなかったとき前記部分
    空間の解像度を元の解像度へ復元する第11の工程とを
    有し、 前記第3の工程において、前記第9の工程で保持されて
    いるクラスパラメータおよび前記クラス混合比を初期値
    として用い、所与の条件が満たされるまで、前記第4、
    前記第5、前記第6、前記第7、および前記第8の工程
    を繰り返すことを特徴とする請求項1または2に記載の
    画像領域抽出方法。
  4. 【請求項4】 前記第9の工程において、推定された前
    記クラス混合比に前記画像を構成する全ピクセル数を掛
    けて前記各クラスに属するピクセル数を算出し、前記ク
    ラス帰属確率が高い順から前記ピクセルを選択し、前記
    各クラスに属するピクセルを決定することを特徴とする
    請求項1及至3のいずれかに記載の画像領域抽出方法。
  5. 【請求項5】 前記第7の工程において、前記評価関数
    としてAICを用い、前記第6の工程において評価関数
    を減少させるようパラメータを変更することを特徴とす
    る請求項1及至4のいずれかに記載の画像領域抽出方
    法。
  6. 【請求項6】 前記第7の工程において、前記評価関数
    としてMDLを用い、前記第6の工程において該評価関
    数を減少させるようパラメータを変更することを特徴と
    する請求項1及至4のいずれかに記載の画像領域抽出方
    法。
  7. 【請求項7】 前記第7の工程において、前記評価関数
    としてストラクチュラル・リスク(Structural Risk)
    を用い、前記第6の工程において該評価関数を減少させ
    るようパラメータを変更することを特徴とする請求項1
    及至4のいずれかに記載の画像領域抽出方法。
  8. 【請求項8】 前記第3の工程は、 前記各部分空間同士が近傍にあるかどうかを定義する近
    傍半径と、前記クラスの数を設定する第1のステップ
    と、 前記各部分空間ごとに、各部分空間の代表値を設定する
    第2のステップと、 分類対象部分空間の集合を設定する第3のステップと、 前記分類対象部分空間の集合の中から、前記粗視化経験
    確率の最も高い部分空間を選択する第4のステップと、 前記粗視化経験確率の最も高い部分空間の代表値との距
    離が、前記近傍半径以内である代表値を持つ部分空間全
    てを、近傍集合として選択する第5のステップと、 すでに分類が完了したクラスに含まれる部分空間の代表
    値と、前記近傍集合に含まれる部分空間の代表値との間
    の最短距離が、前記近傍半径よりも大きいかどうかを調
    べる第6のステップと、 もし、すでに分類が完了したクラスに含まれる部分空間
    の代表値と、前記近傍集合に含まれる部分空間の代表値
    との間の最短距離が、前記近傍半径よりも大きければ、
    前記近傍集合を新規クラスとし、前記分類対象部分空間
    から前記近傍集合を削除して前記第4のステップ以降を
    繰り返す第7のステップと、 前記最短距離が前記近傍半径以下であれば、前記近傍集
    合をすでに分類済みのクラスに追加し、前記分類対象部
    分空間から、前記近傍集合を削除する第8のステップ
    と、 前記分類対象部分空間が空集合であるかどうかを調べる
    第9のステップと、 もし、前記分類対象部分空間が空集合でなければ、前記
    第4のステップ以下を繰り返し、前記分類対象部分空間
    が空集合であれば、分類が完了したクラスの数が所与の
    数以上あるかどうかを調べる第10のステップと、 もし分類が完了したクラスの数が所与の数よりも少なけ
    れば、前記近傍半径を縮小して前記第3のステップ以降
    を繰り返す第11のステップと、 もし、前記分類対象部分空間が空集合であり、かつ分類
    済みのクラスの数が所与の数よりも多ければ、各クラス
    内で前記クラスパラメータを算出し、これをクラスパラ
    メータの初期値とし、また各クラス内に含まれる部分空
    間の数の比率を前記クラス混合比の初期値とする第12
    のステップと、からなることを特徴とする請求項1及至
    7のいずれかに記載の画像領域抽出方法。
  9. 【請求項9】 領域抽出の対象となる像を含む画像デー
    タに対し、画像上の各ピクセルを複数のクラスに分類
    し、所望の領域を抽出する画像領域抽出装置において、 画像データを読み込む入力装置と、 前記画像の前記各ピクセルが取りうる属性値全体から構
    成されるデータ空間を、所与の解像度で部分空間に分解
    し、該各部分空間に属性値を取るピクセルの集合と、該
    ピクセルの属性値の平均と、該ピクセルの個数を保持
    し、粗視化データ空間を構成する領域粗視化装置と、 前記各部分空間のピクセル数を前記画像に含まれる全ピ
    クセル数で割り、前記粗視化データ空間上の粗視化経験
    分布を算出する粗視化経験確率分布算出装置と、 前記各クラスの属性を規定するクラスパラメータ、前記
    クラスの数、および前記クラスの混合比率を初期化し、
    前記各クラスの属性を規定するクラスパラメータから、
    前記クラスが指定されたもとでの条件付き確率分布を算
    出し、前記クラスが指定されたもとでの条件付き確率分
    布を、前記各部分空間内で平均化することによって粗視
    化条件付き確率分布を算出する粗視化条件付き確率分布
    算出装置と、 前記画像を構成する各ピクセルが前記各クラスに帰属す
    る確率であるクラス帰属確率を、前記粗視化条件付き確
    率分布から算出するクラス帰属確率算出装置と、 評価関数として粗視化対数尤度を用いるときには、該評
    価関数を増加させるように、また評価関数としてAI
    C、MDL、ストラクチュラル・リスクのいずれかを用
    いる場合は該評価関数を減少させるように前記パラメー
    タを更新するパラメータ更新装置と、 前記粗視化対数尤度、前記AIC、前記MDL、前記ス
    トラクチュラル・リスクのいずれかを用いて前記評価関
    数を算出する評価関数算出装置と、 前記評価関数が所与の終了条件を満たしているかどうか
    を調べ、前記評価関数が前記所与の終了条件を満たした
    後、前記パラメータを保持し、前記クラス帰属確率に基
    づいて、前記各ピクセルが属するクラスを決定し、領域
    を抽出する領域抽出装置と、 抽出した領域を出力する出力装置と、を有することを特
    徴とする画像領域抽出装置。
  10. 【請求項10】 前記評価関数が前記所与の終了条件を
    満たしていることが確認されたのち、粗視化の解像度が
    元の解像度であるかを調べ、前記データ空間の解像度を
    元の解像度へ復元する解像度復元装置を有することを特
    徴とする請求項9に記載の画像領域抽出装置。
  11. 【請求項11】 領域抽出の対象となる像を含む画像デ
    ータに対し、画像上の各ピクセルを複数のクラスに分類
    することによって所望の画像領域を抽出する処理をコン
    ピュータに実行させるためのプログラムであって、 前記画像を構成する各ピクセルが取りうる属性値全体か
    ら構成されるデータ空間を、所与の解像度で部分空間に
    分解し、該各部分空間に属性値を取るピクセルの集合
    と、該ピクセルの属性値の平均と、該ピクセルの個数を
    保持し、粗視化データ空間を構成する第1の処理と、 前記各部分空間のピクセル数を前記画像に含まれる全ピ
    クセル数で割り、前記粗視化データ空間上の粗視化経験
    確率分布を算出する第2の処理と、 前記各クラスの属性を規定するクラスパラメータ、前記
    クラスの数、および前記クラスの混合比率を初期化する
    第3の処理と、 前記各クラスの属性を規定するクラスパラメータから、
    前記クラスが指定されたもとでの条件付き確率分布を算
    出し、前記クラスが指定されたもとでの条件付き確率分
    布を、前記各部分空間内で平均化することによって粗視
    化条件付き確率分布を算出する第4の処理と、 前記画像を構成する各ピクセルが前記各クラスに帰属す
    る確率であるクラス帰属確率を、前記クラス混合比に前
    記粗視化条件付き確率分布を掛けることにより算出する
    第5の処理と、 評価関数を増加させるように前記クラスパラメータ、お
    よび前記クラス混合比を更新する第6の処理と、 前記粗視化条件付き確率分布を用いて、前記評価関数と
    して粗視化対数尤度を算出する第7の処理と、 前記評価関数が所与の終了条件を満たしているかどうか
    を調べる第8の処理と、 前記評価関数が前記所与の終了条件を満たした後、前記
    クラスパラメータおよび前記クラス混合比を保持し、前
    記クラス帰属確率に基づいて、前記ピクセルが属する領
    域を決定し、前記所望の領域を抽出する第9の処理とを
    含み、 前記評価関数が前記所与の条件を満たすまで、前記第
    4、前記第5、前記第6、前記第7、および前記第8の
    処理を繰り返すことを特徴とする画像領域抽出プログラ
    ム。
  12. 【請求項12】 前記第4の処理は、前記粗視化条件付
    き確率分布を算出する際に、前記各部分空間に含まれる
    データの平均値を算出し、該平均値を用いて前記各部分
    空間における前記粗視化条件付き確率分布を算出する処
    理を含むことを特徴とする請求項11に記載の画像領域
    抽出プログラム。
  13. 【請求項13】 前記第8の処理において、前記評価関
    数が前記所与の終了条件を満たしたとき、前記粗視化の
    解像度が元の解像度であるかを調べる第10の処理と、
    前記粗視化の解像度が元の解像度でなかったとき前記部
    分空間の解像度を元の解像度へ復元する第11の処理を
    含み、 前記第3の処理において前記第9の処理で保持されてい
    るクラスパラメータおよび前記クラス混合比を初期値と
    して用い、前記評価関数が前記所与の条件を満たすま
    で、前記第4、前記第5、前記第6、前記第7、および
    前記第8の処理を繰り返すことを特徴とする請求項11
    または12に記載の画像領域抽出プログラム。
  14. 【請求項14】 前記第9の処理は、推定された前記ク
    ラス混合比に前記画像を構成する全ピクセル数を掛けて
    前記各クラスに属するピクセル数を算出し、前記クラス
    帰属確率が高い順から前記ピクセルを選択し、前記各ク
    ラスに属するピクセルを決定する処理を含むことを特徴
    とする請求項11及至13のいずれかに記載の画像領域
    抽出プログラム。
  15. 【請求項15】 前記第7の処理は、前記評価関数とし
    て前記粗視化対数尤度に代えてAICを算出する処理で
    あり、前記第6の処理は、該評価関数を減少させるよう
    パラメータを変更する処理であることを特徴とする請求
    項1及至4のいずれかに記載の画像領域抽出プログラ
    ム。
  16. 【請求項16】 前記第7の処理は、前記評価関数とし
    て前記粗視化対数尤度に代えてMDLを算出する処理で
    あり、前記第6の処理は、該評価関数を減少させるよう
    パラメータを変更する処理であることを特徴とする請求
    項1及至4のいずれかに記載の画像領域抽出プログラ
    ム。
  17. 【請求項17】 前記第7の処理は、前記評価関数とし
    て前記粗視化対数尤度に代えてストラクチュラル・リス
    ク(Structural Risk)を算出する処理であり、前記第
    6の処理は、該評価関数を減少させるようパラメータを
    変更する処理であることを特徴とする請求項1及至4の
    いずれかに記載の画像領域抽出プログラム。
  18. 【請求項18】 前記第3の処理は、 前記各部分空間同士が近傍にあるかどうかを定義する近
    傍半径と、前記クラスの数を設定する第1のステップ
    と、 前記各部分空間ごとに、各部分空間の代表値を設定する
    第2のステップと、 分類対象部分空間の集合を設定する第3のステップと、 前記分類対象部分空間の集合の中から、前記粗視化経験
    確率の最も高い部分空間を選択する第4のステップと、 前記粗視化経験確率の最も高い部分空間の代表値との距
    離が、前記近傍半径以内である代表値を持つ部分空間全
    てを、近傍集合として選択する第5のステップと、 すでに分類が完了したクラスに含まれる部分空間の代表
    値と、前記近傍集合に含まれる部分空間の代表値との間
    の最短距離が、前記近傍半径よりも大きいかどうかを調
    べる第6のステップと、 もし、すでに分類が完了したクラスに含まれる部分空間
    の代表値と、前記近傍集合に含まれる部分空間の代表値
    との間の最短距離が、前記近傍半径よりも大きければ、
    前記近傍集合を新規クラスとし、前記分類対象部分空間
    から前記近傍集合を削除して前記第4のステップ以降を
    繰り返す第7のステップと、 前記最短距離が前記近傍半径以下であれば、前記近傍集
    合をすでに分類済みのクラスに追加し、前記分類対象部
    分空間から、前記近傍集合を削除する第8のステップ
    と、 前記分類対象部分空間が空集合であるかどうかを調べる
    第9のステップと、 もし、前記分類対象部分空間が空集合でなければ、前記
    第4のステップ以下を繰り返し、前記分類対象部分空間
    が空集合であれば、分類が完了したクラスの数が所与の
    数以上あるかどうかを調べる第10のステップと、 もし分類が完了したクラスの数が所与の数よりも少なけ
    れば、前記近傍半径を縮小して前記第3のステップ以降
    を繰り返す第11のステップと、 もし、前記分類対象部分空間が空集合であり、かつ分類
    済みのクラスの数が所与の数よりも多ければ、各クラス
    内で前記クラスパラメータを算出し、これをクラスパラ
    メータの初期値とし、また各クラス内に含まれる部分空
    間の数の比率を前記クラス混合比の初期値とする第12
    のステップと、を含むことを特徴とする請求項11及至
    17のいずれかに記載の画像領域抽出プログラム。
JP2002108608A 2002-04-10 2002-04-10 画像領域抽出方法および装置 Expired - Fee Related JP3649328B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002108608A JP3649328B2 (ja) 2002-04-10 2002-04-10 画像領域抽出方法および装置
US10/409,140 US7136540B2 (en) 2002-04-10 2003-04-09 Picture region extraction method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002108608A JP3649328B2 (ja) 2002-04-10 2002-04-10 画像領域抽出方法および装置

Publications (2)

Publication Number Publication Date
JP2003303344A true JP2003303344A (ja) 2003-10-24
JP3649328B2 JP3649328B2 (ja) 2005-05-18

Family

ID=28786527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002108608A Expired - Fee Related JP3649328B2 (ja) 2002-04-10 2002-04-10 画像領域抽出方法および装置

Country Status (2)

Country Link
US (1) US7136540B2 (ja)
JP (1) JP3649328B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234810A (ja) * 2004-02-18 2005-09-02 Fuji Xerox Co Ltd 画像処理装置
US8280139B2 (en) 2007-02-13 2012-10-02 Nec Corporation Cell feature amount calculating apparatus and cell feature amount calculating method
US8571279B2 (en) 2008-01-18 2013-10-29 Nec Corporation Spot quantification apparatus, spot quantification method, and recording medium
JP2016522720A (ja) * 2013-09-26 2016-08-04 コリア インスティテュート オブ コンストラクション テクノロジー 複合媒質からなる試片に対するx線ct画像の最小単位に存在する各純粋媒質の体積比の測定方法
CN112092675A (zh) * 2020-08-31 2020-12-18 长城汽车股份有限公司 一种电池热失控预警方法、系统及服务器

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7526112B2 (en) * 2001-04-30 2009-04-28 Chase Medical, L.P. System and method for facilitating cardiac intervention
US7327862B2 (en) 2001-04-30 2008-02-05 Chase Medical, L.P. System and method for facilitating cardiac intervention
WO2004068406A2 (en) 2003-01-30 2004-08-12 Chase Medical, L.P. A method and system for image processing and contour assessment
US7840357B2 (en) * 2003-07-29 2010-11-23 Nec Corporation Method of evaluating chromosome state and evaluation system
JP2005141601A (ja) * 2003-11-10 2005-06-02 Nec Corp モデル選択計算装置,動的モデル選択装置,動的モデル選択方法およびプログラム
US7333643B2 (en) * 2004-01-30 2008-02-19 Chase Medical, L.P. System and method for facilitating cardiac intervention
US7848566B2 (en) * 2004-10-22 2010-12-07 Carnegie Mellon University Object recognizer and detector for two-dimensional images using bayesian network based classifier
JP4493679B2 (ja) * 2007-03-29 2010-06-30 富士フイルム株式会社 対象領域抽出方法および装置ならびにプログラム
JP5365011B2 (ja) * 2008-01-29 2013-12-11 日本電気株式会社 病理診断支援装置、病理診断支援方法、およびプログラム
EP2309493B1 (en) * 2009-09-21 2013-08-14 Google, Inc. Coding and decoding of source signals using constrained relative entropy quantization
JP5557091B2 (ja) * 2010-03-30 2014-07-23 日本電気株式会社 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
JP5906071B2 (ja) * 2011-12-01 2016-04-20 キヤノン株式会社 情報処理方法、情報処理装置、および記憶媒体
CN102609721B (zh) * 2012-02-01 2014-06-04 北京师范大学 遥感影像的聚类方法
WO2021005733A1 (ja) * 2019-07-10 2021-01-14 サイバネットシステム株式会社 画像解析装置及び画像解析方法
WO2021178287A1 (en) * 2020-03-02 2021-09-10 Texas Instruments Incorporated Projector with phase hologram modulator
CN111401470B (zh) * 2020-03-31 2023-03-10 西安电子科技大学 基于特征空间分布的Fisher特征选择方法
US20210366139A1 (en) * 2020-05-21 2021-11-25 Samsung Electronics Co., Ltd. Method and apparatus for generating depth image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415048B1 (en) * 1993-10-12 2002-07-02 Schneider Medical Technologies, Inc. Compositional analysis system
JP3534009B2 (ja) 1999-09-24 2004-06-07 日本電気株式会社 輪郭抽出方法及び装置
US6424960B1 (en) * 1999-10-14 2002-07-23 The Salk Institute For Biological Studies Unsupervised adaptation and classification of multiple classes and sources in blind signal separation
US20040125877A1 (en) * 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234810A (ja) * 2004-02-18 2005-09-02 Fuji Xerox Co Ltd 画像処理装置
US8280139B2 (en) 2007-02-13 2012-10-02 Nec Corporation Cell feature amount calculating apparatus and cell feature amount calculating method
US8571279B2 (en) 2008-01-18 2013-10-29 Nec Corporation Spot quantification apparatus, spot quantification method, and recording medium
JP2016522720A (ja) * 2013-09-26 2016-08-04 コリア インスティテュート オブ コンストラクション テクノロジー 複合媒質からなる試片に対するx線ct画像の最小単位に存在する各純粋媒質の体積比の測定方法
CN112092675A (zh) * 2020-08-31 2020-12-18 长城汽车股份有限公司 一种电池热失控预警方法、系统及服务器
CN112092675B (zh) * 2020-08-31 2022-03-25 长城汽车股份有限公司 一种电池热失控预警方法、系统及服务器

Also Published As

Publication number Publication date
US7136540B2 (en) 2006-11-14
JP3649328B2 (ja) 2005-05-18
US20030194132A1 (en) 2003-10-16

Similar Documents

Publication Publication Date Title
JP2003303344A (ja) 画像領域抽出方法および装置
KR101176649B1 (ko) 동적 프로그래밍에 의한 경계선 매팅
US8655069B2 (en) Updating image segmentation following user input
CN109472199B (zh) 一种图像融合分类的方法及装置
CN106340016B (zh) 一种基于细胞显微镜图像的dna定量分析方法
US20090252429A1 (en) System and method for displaying results of an image processing system that has multiple results to allow selection for subsequent image processing
Chen et al. An efficient and robust algorithm for 3D mesh segmentation
Tashk et al. Automatic detection of breast cancer mitotic cells based on the combination of textural, statistical and innovative mathematical features
JP2006153742A (ja) 病理診断支援装置、病理診断支援プログラム、病理診断支援方法、及び病理診断支援システム
CN104463843B (zh) 安卓系统的交互式图像分割方法
KR101150901B1 (ko) 위성영상을 이용한 객체기반 분석을 위한 자동 영상분할 방법
CN110675464A (zh) 一种医疗影像的处理方法、装置、服务器及存储介质
CN105389821B (zh) 一种基于云模型和图割相结合的医学图像分割方法
Lakshmi et al. Tooth decay prediction and classification from X-ray images using deep CNN
US11830622B2 (en) Processing multimodal images of tissue for medical evaluation
CN110838094A (zh) 病理切片染色风格转换方法和电子设备
CN109961449B (zh) 图像分割的方法与设备、三维图像的重建方法与系统
Berezsky et al. Segmentation of cytological and histological images of breast cancer cells
Lodha et al. Aerial lidar data classification using expectation-maximization
CN114708237A (zh) 一种用于头发健康状况的检测算法
JP2009151371A (ja) 画像処理装置、画像処理方法およびプログラム
US20230096719A1 (en) Scalable and high precision context-guided segmentation of histological structures including ducts/glands and lumen, cluster of ducts/glands, and individual nuclei in whole slide images of tissue samples from spatial multi-parameter cellular and sub-cellular imaging platforms
CN112840375A (zh) 使用图形分析显微数据的系统
Samsi et al. Colorization of H&E stained tissue using Deep Learning
JP5617841B2 (ja) 画像処理装置、画像処理方法および画像処理用プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050209

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080225

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090225

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100225

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100225

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110225

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees