JP2008527546A - 改良された画像セグメンテーション方法 - Google Patents

改良された画像セグメンテーション方法 Download PDF

Info

Publication number
JP2008527546A
JP2008527546A JP2007550545A JP2007550545A JP2008527546A JP 2008527546 A JP2008527546 A JP 2008527546A JP 2007550545 A JP2007550545 A JP 2007550545A JP 2007550545 A JP2007550545 A JP 2007550545A JP 2008527546 A JP2008527546 A JP 2008527546A
Authority
JP
Japan
Prior art keywords
image
identifying
pixel
pixels
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007550545A
Other languages
English (en)
Other versions
JP4825222B2 (ja
Inventor
ザニサー,マイケル
Original Assignee
サイテック コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サイテック コーポレイション filed Critical サイテック コーポレイション
Publication of JP2008527546A publication Critical patent/JP2008527546A/ja
Application granted granted Critical
Publication of JP4825222B2 publication Critical patent/JP4825222B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Abstract

【課題】
【解決手段】画像内の各対象物を識別する改良された画像セグメンテーションアルゴリズムが提供される。画像のピクセルは画像の属性値範囲に基づいてソートされる。次いでこれらのピクセルは、属性値範囲の端点から始めて一づつラベルイメージに追加される。配置された対象物ごとに特徴が算出され、これらの特徴が所定の受入基準と照合される。合致した場合は、対象物が出力画像に出力される。ストップポイントに達するまで、ピクセルをラベルイメージに追加するステップ、生成された対象物の特徴を評価するステップ、対象物を出力するステップが繰り返される。
【選択図】なし

Description

関連出願
本出願は、全体を参照して本明細書に組み込まれている2005年1月10日に出願された米国暫定出願第60/642,110の優先権を主張し、この出願の非仮出願である。
本発明は一般に画像を解析する分野に関する。特に、本発明は新しい画像セグメンテーション方法に関する。
病理学または細胞学では、自動化または半自動化された機器を利用して、細胞や細胞核の位置を特定し、測定することがしばしば所望されている。このような機器は調査やスクリーニングに利用されている。後者の一例は、パパニコロー試験(またはPap試験)による子宮頚がんのスクーリングである。これらの機器は、デジタル画像を取得および解析して、関心のある細胞を特定し、スライドを正常または疑わしいものに分類する。
デジタル画像内の対象物の解析では、対象物が画像の背景と区別されることが必要不可欠である。細胞または対象物を特徴づけるために、最初に対象物が特定されなければならない。デジタル画像内の対象物の特定する処理は、「セグメンテーション」として知られている。セグメンテーション技術では、様々な技術が、関心のある対象物を特定するのに用いられ、後続のコンピュータ解析により対象物を特徴づけることができる。例えば、細胞を含む画像のセグメンテーションにより、細胞核および/または細胞質の特定することができる。
画像内の対象物を特定および分類する課題に対する従来の解決方法は、様々な段階を含み、すなわち初めに、画像をセグメント化して対象物のバイナリマスクを生成し、次に、連結するピクセルのセットごとに、異なるラベルを割り当てることにより、このマスク内の対象物にラベルを付し、最後に、ラベルが付された対象物の様々な特徴を測定する。
画像をセグメント化するのに用いられる技術の一つは「閾値」である。この技術では、画像の輝度の閾値が選択され、画像内の各ピクセルがこの閾値と比較される。この閾値よりも高い輝度値のピクセルは背景ピクセルとみなされ、この閾値よりも低い値のピクセルは対象物のピクセルとみなされる。対象物を特定する閾値は、画像内の暗さの値の度数分布である画像のヒストグラムに基づいて選択される。閾値のアルゴリズムは、これらのヒストグラムを利用して単一の閾値を得ることができる。例えば、閾値は最も暗いピクセルと最も明るいピクセルとの間の中間にすることができる。代替的に、閾値を多量の「背景」ピクセルと非常に希な「対象物」ピクセルとの変曲点として選択してもよい。画像内の各対象物の理想的な閾値を見つけることは難しい課題である。単一の閾値はしばしば、画像全体で暗さの値が異なる複数の対象物には最適ではない。
閾値が選択され閾値処理が完了すると、「対象物」ピクセルは、画像内の対象物のバイナリマスクを形成できる。このマスク周囲の境界は、各対象物を表示するのに利用できる。この境界により対象物を正確に表示してもよいし、表示しなくてもよい。境界が特定された後に境界を明瞭にする多くの方法が開発されている。このような方法は、境界近くの暗さの情報、または階調度、曲率(curvature)、もしくは「円への近似(closeness to a circle)」などの制限を利用して境界を明瞭にしてもよい。
現在知られている画像のセグメンテーションは、しばしば複雑で時間がかかる。これらの技術は、特に、特定された対象物とこの対象物の周りの背景とのコントラストが小さい場合に、セグメンテーション処理における高い精度を常に提供するのではない。したがって、現在のセグメンテーションアルゴリズムは、しばしば対象物を正確に特定できない。細胞画像の解析では、例えば、特定される境界が非常に大きくまたは非常に小さいために、細胞核が不正確にセグメント化されてしまう。これにより、偽陽性の事象(機器が正常な対象物を疑いがあるものと誤って判断する)または偽陰性の事象(機器が真に疑いのある対象物を見逃す)が起こり得る。
自動化されたイメージングおよび自動化されたイメージング装置、特に対象物の境界を正確に識別する改良されたセグメンテーションの必要性がある。
本発明の目的は、従来のセグメンテーション技術の正確な長所、特徴、および利点の総て、ならびにこれら以外のものを達成または実現することである。
本発明は画像内の各対象物を識別する方法を提供し、当該方法は、(a)前記画像の属性値範囲に基づいてピクセルをソートするステップと、(b)ラベルイメージ内に対象物を配置するために、前記属性値範囲の端点から始めて、前記ソートされたピクセルを一つずつ「ラベルイメージ」に追加するステップと、(c)前記対象物の特徴が所定の受入基準と合致する場合に、前記対象物を出力画像に出力するステップと、(d)前記属性値範囲の別の端点を示すストップポイントに達するまで、ステップbおよびcを繰り返し実行するステップとを含む。
本発明は画像内の各対象物を識別するコンピュータ読み取り可能なプログラムコードが実装されたコンピュータ読み取り可能な媒体を具える製品を提供し、当該媒体は、(a)前記画像の属性値範囲に基づいてピクセルをソートするコンピュータ読み取り可能なプログラムコードと、(b)ラベルイメージ内に対象物を配置するために、前記属性値範囲の端点から始めて、前記ソートされたピクセルを一つずつラベルイメージに追加するコンピュータ読み取り可能なプログラムコードと、(c)前記対象物の特徴が所定の受入基準と合致する場合に、前記対象物を出力画像に出力するコンピュータ読み取り可能なプログラムコードと、(d)前記属性値範囲の別の端点を示すストップポイントに達するまで、ステップbおよびcを繰り返し実行するコンピュータ読み取り可能なプログラムコードとを具える。
本発明は、複数の閾値の下に画像内の各対象物を識別する方法を提供し、当該方法は、(a)前記複数の閾値に対応するピクセルの属性値範囲に基づいてピクセルをソートするステップと、(b)新しい対象物を生成しまたは古い対象物を更新するために、前記属性値範囲の端点から始めて、ピクセルを一つずつラベルイメージに追加するステップと、(c)前記新しく生成された対象物および前記更新された古い対象物の特徴を算出するステップと、(d)前記新しく生成された対象物および前記更新された古い対象物の算出された特徴を、所定の基準と照合するステップと、(e)前記特徴が受入基準を満たす場合に、前記新しく生成された対象物および前記更新された古い対象物を出力画面に出力するステップと、(f)ストップポイントに達するまで、ステップb−eを繰り返し実行するステップとを含み、前記ストップポイントは、前記値の範囲の別の端点、前記属性値内の背景ピクセルの値を示すポイント、または前記新しい対象物および前記更新された古い対象物に関係ないピクセルの値を示すポイントのうちのいずれかから選択される。
本発明は好適な実施例により図示され説明されているが、本発明は多くの異なる構成で適用および提供してもよい。本発明の好適な実施例が図示され、ここに詳細に説明されているが、本開示は、本発明の原理や本発明の構成に関連する機能的な仕様を例示するものであり、図示されている実施例に本発明を限定する意図ではないと理解すべきである。当業者であれば、本発明の目的の範囲内において、他の多くの可能な変更例を想像できるであろう。
デジタル2次元画像内の対象物の境界を識別する改良された自動化画像セグメンテーション技術が、ここに記載されている。ここに記載されている画像セグメンテーシ技術は細胞核を識別するが、この技術自体は、生物学的な応用例における細胞質または組織構造、または回路基板上の異なる構成部材もしくは人工衛星画像の人工および自然の地形などの非生物学的な応用例における対象物などの、デジタル画像内の任意の対象物を識別するのに応用できる。この技術は、X線、CAT(コンピューター断層撮影)スキャン、またはMRI(磁気共鳴像)などにより生成される3次元画像に拡大することができる。このような3次元画像の3次元ピクセル構成要素は「ボクセル」として知られている。ボクセルの集合物により、3次元の臓器や腫瘍を表わすことができる。
デジタル2次元画像は3次元の表面として考えることができ、高さは各ピクセルのグレーの値(即ち、輝度)で表わす。この表面の輪郭図(contour map)では、細胞核の識別は、特定の大きさの範囲内であって細胞核にとって十分な範囲内の輪郭を見つけることにより行うことができる。ある輪郭が別の輪郭に含まれる場合、2つの内の「より良い」方を選択すべきである。図1は、細胞群の細胞を複層にしたそのような「輪郭図」を示している。この画像の関心のある対象物は、連続したピクセルのセットである。
これらの輪郭の生成は、総ての可能な閾値において総ての対象物を生成するのに等しく、数学的に複雑で時間のかかる作業である。本来の解決手段は、各閾値で画像をセグメント化し、対象物にラベルを割り当て、対象物の特徴を測定し、最良の特徴を有する対象物を維持するだけで、「より良い」対象物のサブセットやスーパーセットである対象物を取り除くことであろう。この解決手段は非常に計算コストが高い。
図2は、本発明の一実施例による画像セグメンテーションアルゴリズムのステップを示し、以下のステップを実行することにより画像内で発見された各対象物を識別する。初めに、アルゴリズムは画像の属性値範囲に基づいてピクセルをソートする(ステップ202)。次いで、アルゴリズムはラベルイメージ内に対象物を配置するために、前記属性値範囲の端点から始めて、前記ソートされたピクセルを一つずつ「ラベルイメージ」に追加する(ステップ204)。ラベルイメージとは、明瞭な各対象物のピクセルに、固有の値または「ラベル」が割り当てられた画像である。また、初期値として使用される端点は、属性値範囲の最大値または最小値とすることができる。ピクセルは、限定しないが輝度、色相、または階調度(gradient)などの属性に基づいてソートすることができる。次いで、配置された対象物の特徴が所定の基準と比較される。対象物がこの基準と合致する場合、アルゴリズムはステップ206に示すように対象物を出力画像に出力する。また、ストップポイントがこの画像のために規定される。このストップポイントは、属性値範囲内のポイントを意味し、アルゴリズムはこのポイントで、ステップ204および206の繰り返し処理(ステップ208)を停止すべきである。このストップポイントは、属性値範囲の他方の端点であってもよい。一実施例では、このストップポイントは、属性値範囲内の背景ピクセルの値を示すポイントである。別の実施例では、ストップポイントは、配置された対象物に関連しないピクセルの値を示すポイントである。
図4は、本発明の一実施例による画像セグメンテーションアルゴリズムのステップを示している。ステップ402では、画像内のピクセルが画像の属性値範囲に基づいてソートされる。この属性値範囲は画像内の複数の閾値に対応する。この閾値は、使用される属性値のヒストグラムから決定される。ピクセルは、限定しないが輝度、色相、階調度などの属性に基づいてソートできる。また、ヒストグラムの索引付け(indexing)は、輝度、色相、階調度などにより行うことができる。各閾値で画像をセグメント化する代わりに、ステップ404に示すように、ソートされたピクセルが属性値範囲の端点から始めて一つずつ空のラベルイメージに追加され、処理中に新しい対象物が生成され、または古い対象物が更新される。この追加されたピクセルがラベルイメージに既に配置された別のピクセルまたは対象物(古い対象物)に隣接しない場合は、新しい対象物が生成される(図3a、3b、および3eを参照)。追加されたピクセルが古い対象物に隣接する場合、このピクセルは古い対象物と連結され、古い対象物が更新される(図3c、3d、3f、3g、3h、3i、3j、3k、3m、および3nを参照)。さらに、追加されたピクセルが2つの古い対象物を連結する場合、この2つの古い対象物は更新され、一つの対象物に統合される(図3lを参照)。ステップ406で、これらの新しいまたは更新された対象物の特徴が算出される。これらの特徴はステップ408で所定の受入基準と照合される。合致する場合(即ち、受入基準が満たされた場合)、(配置された細胞核を示す)新しいまたは更新された対象物が、ステップ410で出力画像に出力される。アルゴリズムは、ストップポイントに達するまでステップ404−410を繰り返し実行する(ステップ412)。閾値(即ち、属性値)の処理中はいつでも対象物を出力画面に出力できることに留意すべきである。また、このストップポイントは、属性値範囲の他方の端点であってもよい。一実施例では、このストップポイントは、属性値範囲内の背景のピクセル値を示すポイントである。別の実施例では、このストップポイントは、配置された対象物に関連しないピクセル値を示すポイントである。
アルゴリズムは、前述したステップで生成または更新された対象物をその特徴によって記録(track)する。また、対象物はラベルが割り当てられる(例えば、図3aおよび3bを参照)。既存の対象物に接するピクセルが追加されたときは常に、当該対象物のラベルがそのピクセルに割り当てられ、当該対象物の特徴は、新しいピクセルが追加されたことを反映するために更新される(例えば、図3dおよび3gを参照)。2つの対象物を連結するピクセルが追加された場合、この2つの対象物のラベルおよび特徴は一つに統合される(例えば、図3lを参照)。図3a−3nは、どのようにピクセルが、初めは空欄であるマスク/ラベルイメージに一つずつ追加されるのか、どのようにラベルが必要に応じて各ピクセルに割り当てられるかを示している。
この方法を受けてアルゴリズムが設計され、特定の閾値内また所定の時間で画像を処理する間の画像のマスクと、この特定の閾値で発見される総ての対象物のラベルおよび特徴が記録される。しかしながら、これらのデータを閾値ごとに新たに生成する代わりに、アルゴリズムは先の閾値のデータを利用して構築される。これによりアルゴリズムの効率性を一層高める。
本発明の一実施例では、現在の閾値により算出された対象物の現在の特徴が、総ての閾値で算出されたこれまでの対象物の特徴よりも受入基準に合致する場合に限り、対象物が出力画像に出力される。より良い合致を確定するために、これまでに最も合致したデータが使用される。総ての閾値において総ての対象物の中から受入基準に最も合致する最適の対象物のセットを算出するために、ダイナミックプログラミングと呼ばれる方法が用いられる。このプログラムは、これまでに配置された対象物だけを利用して形成可能な最良の対象物のセットの記録(track)を保持しながら、閾値を一つずつ処理(pass)する。各対象物は、これまでに得た最良の状態を「記録している」。図5は、5つの異なる閾値における画像内の対象物の成長を示している。ある閾値で別々であった個々の対象物は、別の閾値で連結される。図の対象物はそれぞれ、それまでの最良の状態を「指し示している」。矢印の無い対象物は、対象物自体を指し示している(図示せず)。即ち、これらの対象物の現在の状態が、以前の状態のいずれよりも良いことを意味している。したがって、矢印が指し示す状態はこれまでに得た最良の状態を意味するため、矢印が指し示す状態と対象物の新しい状態とを比較するだけでよい。所定の閾値において2つの対象物が統合された場合、新たに統合された対象物の矢印は、統合された対象物を形成する2つの対象物のうちのより良い方を指し示す。
総ての閾値を処理する間、プログラムはこれまでに形成された対象物のセットのうちの最良の対象物を含む出力画像を維持する。対象物が、これまでに記録された最良の状態よりも優れている新しい状態に成長したときは必ず、更新された対象物が出力画像に表示される。図6は、対象物が成長するときの出力画像を示している。初めに、出力画像には第1の閾値の対象物が含まれる。次いで、出力画像には第1および第2の閾値の最良の対象物が含まれ、続いて第1から第3の閾値の最良の対象物が含まれ、これが繰り返される。最後に出力画像には、最良の対象物として記録された対象物であって、これ以後、より良い対象物によって退けられることのない総ての対象物が含まれる(図5と比較)。
したがって、対象物が受入基準と合致する場合に直接出力画像に出力する代わりに、アルゴリズムの一実施例のように、対象物の現在の状態と以前の状態とを比較して、条件付で対象物を出力することができる。
ここで説明されている本発明のアルゴリズムは、範囲や輪郭などの特徴に基づいて細胞核を識別し、円形の(circularity)受入基準を満たす対象物(範囲により分割される四角の輪郭)を受け入れるが、他の特徴および基準を用いて対象物を識別してもよい。受入基準は、特定のイメージングの応用例(生物学または非生物学)に応じて変更することができる。対象物が円形以外の受入基準に基づいて識別される場合は、その他の特徴を代わりに用いてもよい。慣性モーメント、離心率(eccentricity)、楕円形の長軸および短軸は、楕円形の適合度、周囲のピクセルとのコントラスト、グレーの値または最適な平均密度または標準偏差、およびテクスチャ特徴は、その他の特徴の例であり、これらは容易に測定でき、最良のセグメンテーションの受入基準を指定するのに用いることができる。また、その他の受入基準は、大きさ、形状、テクスチャ、色、濃度、コントラストなどを利用してもよい。複数の基準を組み合わせることにより、一の画像内の細胞核、異なる形状の細胞核、細胞質、細胞核または細胞質の「封入体」、およびクラスタ細胞などの異なる種類の対象物を同時に配置することができる。しかしながら、本発明はこれらの特徴または受入基準を使用することに限定されないと理解すべきである。
輪郭の妥当な近似だけが必要な場合、ピクセルが追加されたときの対象物の輪郭測定の更新は、そのピクセルに隣接する4つのピクセルのみを使用して行うことできる。したがって、ピクセルが「配置される」度に、どのように対象物の特徴を更新すべきか決定するために、この配置されたピクセルと当該ピクセルに隣接する4つのピクセルのみが調べられる。これらの4つの隣接するピクセルよりも多くのピクセルが影響を受けるのは、2つの対象物が統合されて、2つのうちの一方に他方のラベルが割り当てられるときだけである。しかしながら、統合処理を最適化することにより、アルゴリズムの実行時間をピクセルの数に比例した実行時間に直線的に近付けることができる。したがって、この輪郭の測定は、どのようにして対象物の特徴がこれまでの対象物から算出できるか示しており、即ち、アルゴリズムは、先の閾値のデータを利用して構築され、アルゴリズムの効率性を高めることができる。
別の実施例のように、楕円率(測定された目的物と、慣性マトリックスにより規定される楕円との比率)を特徴として使用して細胞核を識別することができる。楕円率に基づくセグメンテーションは、不規則な形状のアーティファクトから長い細胞核を区別できるため、より良いセグメンテーション結果となり得る。
このように、本発明のアルゴリズムは、画像セグメンテーションの処理時間を短縮し、関心がある潜在的な対象物を特定する時間のかかる事前の処理と第2の処理で目的物をより正確に規定するために関心のある領域を確定することを省略し、偽陰性のケースを最小限にするために暗さやコントラストを変更して画像を処理し、偽陰性のケースを最小限にするために異常なクラスターを有する画像を処理し、複数の受入基準を用いて単一の画像内の複数の対象物を同時に特定する、様々な改良を提供することがわかるだろう。
本発明のアルゴリズムは、領域拡大(region growing)アルゴリズムや能動輪郭(または「snake」と呼ばれる)などのその他の公開された反復型画像解析技術とは異なることに留意すべきである。領域拡大アルゴリズムは、初めに画像を分割して多くの別々の領域(個々のピクセル、ピクセルの小さなグループ、同じグレーレベルの隣接するピクセル等)にすることにより機能する。次に領域は、この領域に接触しかつ同様の特徴を有する他の領域と統合することにより「拡大する」。これは通常、同じような領域の統合がそれ以上できなくなると中断する繰り返し処理である。この技術の目的は、最終的な領域のセットがセグメント化された対象物に一致することである。
本発明のセグメンテーションアルゴリズムでは、対象物が「成長」する方法が事前に規定されており、即ち成長が実行される唯一の経路があり、アルゴリズムは、対象物が当該経路に従って移り変わる(travel)ことに伴い変化する対象物の特徴を単に「監視する」だけである。測定された特徴は、いずれのピクセルが次に追加され、またはいずれの領域が統合されるかについて影響を与えない。画像を1回処理した後に、前記経路で観察された「最良の対象物」が報告される。
領域を拡大する技術では、領域の特徴によって、いずれの領域が拡大または統合されるかが決まる。領域拡大技術は、線形経路を探索する代わりに多くの枝を有する木を探索する。対象物の特徴は、いずれの枝を選択するかを決めるのに用いられる。通常は、画像に対して複数の経路が実行され、領域の最終的な状態が報告される。領域拡大アルゴリズムは、対象物により得た最良の状態を記憶するのではなく、むしろこのアルゴリズムは「バックアップ」をしてより良い状態を戻す。
「snake」と呼ばれる「能動輪郭」は、多角形または助変数方程式のいずれかにより表わされる対象物の輪郭であり、画像のオーバーレイである。能動輪郭画像解析技術では、これらの輪郭を「発展」させて、輪郭の形状や、これの下にある画像の対応部分を改良する。またこれは、さらに輪郭を発展させて改良することができないときに終了する繰り返し処理である。
本発明は、個々のピクセルを操作し、各ピクセルの直近のピクセルだけを利用して処理を行う。能動輪郭技術では、輪郭はピクセルではなく数学的関数により表わされる。本アルゴリズムと能動輪郭技術との違いは、領域拡大技術で記載した違いと同じである。
本発明のアルゴリズムと他のセグメンテーションアルゴリズムを区別する大きな違いは、他のアルゴリズムが、次に移動する方向を選択するために目的物の特徴を利用して、木やグラフにより最良の経路を探索する繰り返し処理を必要とすることである。これは、アルゴリズムが最良の可能な結果を得ると終了するバックトラッキングを必要とする場合がある。本アルゴリズムは、所定の線形経路を進み、途中の総ての「最良の」対象物を処理および記憶する。
さらに、本発明は、画像をセグメント化して対象物の配置する1以上の実装モジュールを含むコンピュータ読み取り可能なプログラムを具える製品を提供する。さらに、本発明は、本発明に関連する方法を実行するようにコンピュータに命令できるプログラムコードが記録された記憶媒体を具えるコンピュータプログラムコードベースの製品を含む。コンピュータの記録媒体は、限定しないが以下の記憶媒体、CD−ROM、DVD、磁気テープ、光学ディスク、ハードドライブ、フロッピーディスク、強誘電体メモリ、フラッシュメモリ、強磁性体メモリ、光学記憶装置、電荷連結素子、磁気または光学カード、スマートカード、EEPROM、EPROM、RAM、ROM、DRAM、SRAM、SDRAM、または他の適切な静的または動的なメモリまたはデータ記憶装置を含む。
コンピュータプログラムコードベースの製品は、
a)画像の属性値範囲に基づいてピクセルをソートするステップと、
b)ラベルイメージ内に対象物を配置するために、前記属性値範囲の端点から始めて、前記ソートされたピクセルを一つずつラベルイメージに追加するステップと、
c)前記対象物の特徴が所定の受入基準と合致する場合に、前記対象物を出力画像に出力するステップと、
d)前記属性値範囲の別の端点を示すストップポイントに達するまで、ステップ(b)および(c)を繰り返し実行するステップとを有するソフトウェアモジュールが実装される。
結論
改良された画像セグメンテーションの方法の効果的な実施例であるシステムおよび方法が、前述の実施例に示されている。様々な好適な実施例が説明および図示されているが、本発明はこのような開示により限定されることを意味するのでなく、むしろ、添付の請求項に規定するように、本発明の意図および目的の範囲内の総ての変更例を含むことを意図するものであると理解すべきである。例えば本発明は、ソフトウェア/プログラム、コンピュータの環境、特定のコンピュータのハードウェアにより限定されるべきではない。また、本発明のアルゴリズムは、画像の種類(生物学、非生物学、2次元、または3次元等)、画像内の閾値の数、画像内に配置される対象物の種類、または対象物を配置するのに用いられる特徴および受入基準により限定されるべきではない。
図1は、ある細胞群の細胞を複層にした輝度の「輪郭図」を示している。 図2は、本発明の一実施例による画像セグメンテーションアルゴリズムのステップを示している。 図3a−3nは、本発明の一実施例によるラベルイメージにピクセルを追加する処理を集合的に示している。 図4は、本発明の一実施例による画像セグメンテーションアルゴリズムのステップを示している。 図5は、本発明の一実施例による5つの異なる閾値によるある画像内の対象物の成長を示している。 図6は、本発明の一実施例による異なる閾値により配置された対象物を示す出力画像であり、対象物の最良の状態が維持されている。

Claims (33)

  1. 画像内の各対象物を識別する方法において、当該方法が、
    (a)前記画像の属性値範囲に基づいてピクセルをソートするステップと、
    (b)ラベルイメージ内に対象物を配置するために、前記属性値範囲の端点から始めて、前記ソートされたピクセルを一つずつラベルイメージに追加するステップと、
    (c)前記対象物の特徴が所定の受入基準と合致する場合に、前記対象物を出力画像に出力するステップと、
    (d)前記属性値範囲の別の端点を示すストップポイントに達するまで、ステップbおよびcを繰り返し実行するステップとを含むことを特徴とする方法。
  2. 請求項1に記載の画像内の各対象物を識別する方法において、前記ピクセルは、属性値、輝度、色相、または階調度のうちのいずれかに基づいてソートされることを特徴とする方法。
  3. 請求項1に記載の画像内の各対象物を識別する方法において、前記対象物は、ピクセルを一つずつラベルイメージに追加することにより配置され、新しい対象物または更新された古い対象物が生成されることを特徴とする方法。
  4. 請求項3に記載の画像内の各対象物を識別する方法において、前記追加されたピクセルが前記ラベルイメージに既に配置された別のピクセルまたは対象物に隣接しない場合に、前記新しい対象物が生成されることを特徴とする方法。
  5. 請求項3に記載の画像内の各対象物を識別する方法において、前記追加されたピクセルが既に存在する前記古い対象物に隣接する場合、または前記追加されたピクセルが、前記画像に既に存在する2つの古い対象物を連結する場合に、前記更新された古い対象物が生成されることを特徴とする方法。
  6. 請求項1に記載の画像内の各対象物を識別する方法において、前記対象物はラベルが割り当てられ、当該ラベルは、追加されたピクセルごとに更新されることを特徴とする方法。
  7. 請求項6に記載の画像内の各対象物を識別する方法において、前記対象物のラベルは、前に追加されたピクセルのラベルに基づいて生成されることを特徴する方法。
  8. 請求項1に記載の画像内の各対象物を識別する方法において、前記対象物の特徴は、前にピクセルが追加された時に配置された対象物の特徴から算出されることを特徴とする方法。
  9. 請求項1に記載の画像内の各対象物を識別する方法において、前記対象物は、前記ソートされたピクセルが追加されたときに算出された前記対象物の特徴が、前に追加された総てのピクセルの算出された前記対象物の特徴よりも前記受入基準とよく合致する場合にのみ、前記出力画像に出力されることを特徴とする方法。
  10. 請求項1に記載の画像内の各対象物を識別する方法において、前記方法が、生物学または非生物学の応用例の2次元または3次元の画像で実行されることを特徴とする方法。
  11. 請求項10に記載の画像内の各対象物を識別する方法において、前記生物学の応用例の対象物は、細胞、細胞核、細胞質、細胞核もしくは細胞質の封入体、クラスタ細胞、またはX線、CATスキャン、もしくは磁気共鳴像などの画像装置により生成される画像内の対象物のうちのいずれかであることを特徴とする方法。
  12. 請求項10に記載の画像内の各対象物を識別する方法において、前記非生物学の応用例の対象物は、回路基板の構成部品、または人工衛星画像の人工もしくは自然の対象物のうちのいずれかであることを特徴とする方法。
  13. 請求項1に記載の画像内の各対象物を識別する方法において、前記特徴は、輪郭、範囲、慣性モーメント、離心率、楕円形の軸、楕円、楕円形の適合度、コントラスト、グレーの値、最適な平均密度、標準偏差、またはテクスチャのうちのいずれかであることを特徴とする方法。
  14. 請求項1に記載の画像内の各対象物を識別する方法において、前記受入基準は、大きさ、形状、テクスチャ、色、または密度のうちのいずれかであることを特徴とする方法。
  15. 請求項1に記載の画像内の各対象物を識別する方法において、当該方法は、複数の受入基準を用いて前記画像内の異なる種類の対象物を同時に識別することを特徴とする方法。
  16. 請求項1に記載の画像内の各対象物を識別する方法において、前記ストップポイントは、前記属性値範囲内の背景ピクセルを示すポイント、または前記配置された対象物に関連しないピクセルの値を示すポイントであることを特徴とする方法。
  17. 画像内の各対象物を識別するコンピュータ読み取り可能なプログラムコードが実装されたコンピュータ読み取り可能な媒体を具える製品において、当該媒体が、
    前記画像の属性値範囲に基づいてピクセルをソートするコンピュータ読み取り可能なプログラムコードと、
    ラベルイメージ内に対象物を配置するために、前記属性値範囲の端点から始めて、前記ソートされたピクセルを一つずつラベルイメージに追加するコンピュータ読み取り可能なプログラムコードと、
    前記対象物の特徴が所定の受入基準と合致する場合に、前記対象物を出力画像に出力するコンピュータ読み取り可能なプログラムコードと、
    前記属性値範囲の別の端点を示すストップポイントに達するまで、ステップbおよびcを繰り返し実行するコンピュータ読み取り可能なプログラムコードとを具えることを特徴とする製品。
  18. 請求項17に記載の画像内の各対象物を識別するコンピュータ読み取り可能なプログラムコードが実装されたコンピュータ読み取り可能な媒体を具える製品において、前記ストップポイントが、前記属性値範囲内の背景ピクセルを示すポイント、または前記配置された対象物に関連しないピクセルの値を示すポイントであることを特徴とする製品。
  19. 複数の閾値の下に画像内の各対象物を識別する方法において、当該方法が、
    a)前記複数の閾値に対応するピクセルの属性値範囲に基づいてピクセルをソートするステップと、
    b)新しい対象物を生成しまたは古い対象物を更新するために、前記属性値範囲の端点から始めて、ピクセルを一つずつラベルイメージに追加するステップと、
    c)前記新しく生成された対象物および前記更新された古い対象物の特徴を算出するステップと、
    d)前記新しく生成された対象物および前記更新された古い対象物の算出された特徴を、所定の基準と照合するステップと、
    e)前記特徴が受入基準を満たす場合に、前記新しく生成された対象物および前記更新された古い対象物を出力画面に出力するステップと、
    f)ストップポイントに達するまでステップb−eを繰り返し実行するステップとを含み、前記ストップポイントは、前記値の範囲の別の端点、前記属性値内の背景ピクセルの値を示すポイント、または前記新しい対象物および前記更新された古い対象物に関係ないピクセルの値を示すポイントのうちのいずれかから選択されることを特徴とする方法。
  20. 請求項19に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記ピクセルが、輝度、色相、または階調度のうちのいずれの属性値に基づいてソートされることを特徴とする方法。
  21. 請求項19に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記複数の閾値は、輝度、色相、または階調度といった属性値を用いて索引付けされたヒストグラムから決定されることを特徴とする方法。
  22. 請求項19に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記追加されたピクセルが、前記ラベルイメージに既に配置された別のピクセルまたは対象物に隣接しない場合に、前記新しい対象物が生成されることを特徴とする方法。
  23. 請求項19に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記追加されたピクセルが既に存在する前記古い対象物に隣接する場合、または前記追加されたピクセルが前記古い対象物のうちのいずれかを連結する場合に、前記更新された古い対象物が生成されることを特徴とする方法。
  24. 請求項19に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記方法が、生物学または非生物学の応用例の2次元または3次元の画像で実行されることを特徴とする方法。
  25. 請求項24に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記生物学の応用例の対象物は、細胞、細胞核、細胞質、細胞核もしくは細胞質の封入体、クラスタ細胞、またはX線、CATスキャン、もしくは磁気共鳴像などの画像装置により生成される画像内の対象物のうちのいずれかであることを特徴とする方法。
  26. 請求項24に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記非生物学の応用例の対象物は、回路基板の構成部品、または人工衛星画像の人工もしくは自然の対象物のうちのいずれかであることを特徴とする方法。
  27. 請求項19に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記特徴は、輪郭、範囲、慣性モーメント、離心率、楕円形の軸、楕円、楕円形の適合度、コントラスト、グレーの値、最適な平均密度、標準偏差、またはテクスチャのうちのいずれかであることを特徴とする方法。
  28. 請求項19に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記受入基準は、大きさ、形状、テクスチャ、色、または密度のいずれかであることを特徴とする方法。
  29. 請求項19に記載の複数の閾値の下に画像内の各対象物を識別する方法において、当該方法は、複数の受入基準を用いて前記画像内の異なる種類の対象物を同時に識別することを特徴とする方法。
  30. 請求項19に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記生成された新しい対象物および前記更新された古い対象物はラベルが割り当てられ、当該ラベルは追加されたピクセルごとに更新されることを特徴とする方法。
  31. 請求項30に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記ラベルは、前に追加されたピクセルのラベルに基づいて生成されることを特徴する方法。
  32. 請求項19に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記生成された新しい対象物および前記更新された古い対象物の特徴は、前にピクセルが追加された時に配置された対象物の特徴から算出されることを特徴とする方法。
  33. 請求項19に記載の複数の閾値の下に画像内の各対象物を識別する方法において、前記更新された古い対象物は、前記ソートされたピクセルが追加されたときに算出された前記更新された古い対象物の特徴が、前に追加された総てのピクセルの算出された前記更新された古い対象物の特徴よりも前記受入基準とよく合致する場合にのみ、前記出力画像に出力されることを特徴とする方法。
JP2007550545A 2005-01-10 2006-01-10 改良された画像セグメンテーション方法 Active JP4825222B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US64211005P 2005-01-10 2005-01-10
US60/642,110 2005-01-10
US11/328,354 US7689038B2 (en) 2005-01-10 2006-01-09 Method for improved image segmentation
US11/328,354 2006-01-09
PCT/US2006/000726 WO2006076312A2 (en) 2005-01-10 2006-01-10 Method for improved image segmentation

Publications (2)

Publication Number Publication Date
JP2008527546A true JP2008527546A (ja) 2008-07-24
JP4825222B2 JP4825222B2 (ja) 2011-11-30

Family

ID=36593741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007550545A Active JP4825222B2 (ja) 2005-01-10 2006-01-10 改良された画像セグメンテーション方法

Country Status (15)

Country Link
US (2) US7689038B2 (ja)
EP (1) EP1836680B1 (ja)
JP (1) JP4825222B2 (ja)
KR (1) KR101255865B1 (ja)
CN (1) CN101103373B (ja)
AT (1) ATE477556T1 (ja)
AU (1) AU2006205061B2 (ja)
BR (1) BRPI0606705B1 (ja)
CA (1) CA2591241C (ja)
DE (1) DE602006016066D1 (ja)
DK (1) DK1836680T3 (ja)
MX (1) MX2007008363A (ja)
PT (1) PT1836680E (ja)
TW (1) TWI307058B (ja)
WO (1) WO2006076312A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012522312A (ja) * 2009-03-30 2012-09-20 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション 生体物質を識別するシステム及び方法
JP2019522276A (ja) * 2016-06-03 2019-08-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 生物学的対象物の検出
US10451554B2 (en) 2015-02-23 2019-10-22 Konica Minolta, Inc. Image processing device, image processing method, and recording medium storing computer readable image processing program

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7480412B2 (en) * 2003-12-16 2009-01-20 Siemens Medical Solutions Usa, Inc. Toboggan-based shape characterization
US7689038B2 (en) * 2005-01-10 2010-03-30 Cytyc Corporation Method for improved image segmentation
US20070177799A1 (en) * 2006-02-01 2007-08-02 Helicos Biosciences Corporation Image analysis
US9020964B1 (en) * 2006-04-20 2015-04-28 Pinehill Technology, Llc Generation of fingerprints for multimedia content based on vectors and histograms
US7773807B2 (en) * 2006-08-29 2010-08-10 Siemens Medical Solutions Usa, Inc. Seed segmentation using l∞ minimization
US8280139B2 (en) * 2007-02-13 2012-10-02 Nec Corporation Cell feature amount calculating apparatus and cell feature amount calculating method
JP2009082463A (ja) * 2007-09-28 2009-04-23 Fujifilm Corp 画像分析装置、画像処理装置、画像分析プログラム、画像処理プログラム、画像分析方法、および画像処理方法
US8175390B2 (en) * 2008-03-28 2012-05-08 Tandent Vision Science, Inc. System and method for illumination invariant image segmentation
US9017610B2 (en) * 2008-04-25 2015-04-28 Roche Diagnostics Hematology, Inc. Method of determining a complete blood count and a white blood cell differential count
US9602777B2 (en) 2008-04-25 2017-03-21 Roche Diagnostics Hematology, Inc. Systems and methods for analyzing body fluids
TWI385595B (zh) * 2008-08-22 2013-02-11 Univ Ishou Image segmentation method using image region merging algorithm
US8260002B2 (en) * 2008-09-26 2012-09-04 Axis Ab Video analytics system, computer program product, and associated methodology for efficiently using SIMD operations
TWI405145B (zh) 2008-11-20 2013-08-11 Ind Tech Res Inst 以圖素之區域特徵為基礎的影像分割標記方法與系統,及其電腦可記錄媒體
TWI381321B (zh) * 2009-04-30 2013-01-01 Ind Tech Res Inst 重組多張影像與辨識方法以及影像擷取與辨識系統
US8335374B2 (en) 2009-08-12 2012-12-18 Genetix Corporation Image segmentation
US9047674B2 (en) * 2009-11-03 2015-06-02 Samsung Electronics Co., Ltd. Structured grids and graph traversal for image processing
TWI419061B (zh) * 2010-01-18 2013-12-11 Pixart Imaging Inc 多物件影像辨識方法
US8593457B2 (en) * 2010-05-27 2013-11-26 National Tsing Hua University Method of three-dimensional image data processing
CN103210338A (zh) * 2010-08-30 2013-07-17 三洋电机株式会社 观察装置、观察程序及观察系统
US9111343B2 (en) 2011-01-18 2015-08-18 Roche Diagnostics Hematology, Inc. Microscope slide coordinate system registration
CN102096816B (zh) * 2011-01-28 2012-12-26 武汉大学 基于最小生成树的多尺度多层次影像分割方法
CN102103744A (zh) * 2011-01-28 2011-06-22 武汉大学 基于最小生成树与统计学习理论的图像分割方法
ES2890413T3 (es) 2011-04-15 2022-01-19 Roche Diagnostics Hematology Inc Sistema y procedimiento para determinar el volumen celular medio de una muestra de sangre
WO2013016039A1 (en) * 2011-07-22 2013-01-31 Constitution Medical, Inc. Identifying and measuring reticulocytes
US9123120B2 (en) * 2012-08-24 2015-09-01 DR Vision Technologies LLC Progressive decision for cellular process selection
US9292763B2 (en) * 2013-07-25 2016-03-22 Analog Devices Global System, method, and medium for image object and contour feature extraction
TWI496112B (zh) * 2013-09-13 2015-08-11 Univ Nat Cheng Kung 細胞影像分割方法以及核質比評估方法
CN107079112B (zh) * 2014-10-28 2020-09-29 惠普发展公司,有限责任合伙企业 一种分割图像数据的方法、系统及计算机可读存储介质
EP3286337A4 (en) 2015-04-23 2018-12-12 Cedars-Sinai Medical Center Automated delineation of nuclei for three dimensional (3-d) high content screening
JP6696503B2 (ja) * 2015-05-22 2020-05-20 コニカミノルタ株式会社 画像処理装置、画像処理方法、および画像処理用のプログラム
US9754378B2 (en) * 2016-01-21 2017-09-05 Molecular Devices, Llc System and method for segmentation of three-dimensional microscope images
DE102016105102A1 (de) * 2016-03-18 2017-09-21 Leibniz-Institut für Photonische Technologien e. V. Verfahren zur Untersuchung verteilter Objekte
US10402623B2 (en) 2017-11-30 2019-09-03 Metal Industries Research & Development Centre Large scale cell image analysis method and system
US11244459B2 (en) * 2018-12-16 2022-02-08 Masahiko Sato Method for segmentation of grayscale images and segmented area tracking
KR102260169B1 (ko) * 2019-10-08 2021-06-02 주식회사 수아랩 데이터 생성 방법
CN112862829B (zh) * 2019-11-27 2024-03-12 武汉Tcl集团工业研究院有限公司 标签图片的分割方法、装置及存储介质
CN114445421B (zh) * 2021-12-31 2023-09-29 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) 一种鼻咽癌淋巴结区域的识别分割方法、装置及系统
CN117522760A (zh) * 2023-11-13 2024-02-06 书行科技(北京)有限公司 图像处理方法、装置、电子设备、介质及产品

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001011564A1 (en) * 1999-08-09 2001-02-15 Smithkline Beecham P.L.C. Image processing methods, programs and systems

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4484081A (en) * 1980-09-19 1984-11-20 Trw Inc. Defect analysis system
US6021213A (en) * 1996-06-13 2000-02-01 Eli Lilly And Company Automatic contextual segmentation for imaging bones for osteoporosis therapies
WO1999057683A1 (en) * 1998-05-04 1999-11-11 The Johns Hopkins University Method and apparatus for segmenting small structures in images
US7167583B1 (en) * 2000-06-28 2007-01-23 Landrex Technologies Co., Ltd. Image processing system for use with inspection systems
US7187389B2 (en) * 2001-04-12 2007-03-06 International Business Machines Corporation System and method for simultaneous display of multiple object categories
GB0115615D0 (en) * 2001-06-27 2001-08-15 Univ Coventry Image segmentation
US6985612B2 (en) * 2001-10-05 2006-01-10 Mevis - Centrum Fur Medizinische Diagnosesysteme Und Visualisierung Gmbh Computer system and a method for segmentation of a digital image
US7123766B2 (en) * 2002-02-11 2006-10-17 Cedara Software Corp. Method and system for recognizing and selecting a region of interest in an image
GB0226787D0 (en) * 2002-11-18 2002-12-24 Qinetiq Ltd Measurement of mitotic activity
US7689038B2 (en) * 2005-01-10 2010-03-30 Cytyc Corporation Method for improved image segmentation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001011564A1 (en) * 1999-08-09 2001-02-15 Smithkline Beecham P.L.C. Image processing methods, programs and systems

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6010032364, J.Matas, "Robust Wide Baseline Stereo from Maximally Stable Extremal Regions", ELECTRONIC PROCESSINGS OF THE 13TH BRITISH MACHINE VISION CONFERENCE BRITISH MACHINE VISION ASSOC MA, 2002, p.384−393, GB *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012522312A (ja) * 2009-03-30 2012-09-20 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション 生体物質を識別するシステム及び方法
US10451554B2 (en) 2015-02-23 2019-10-22 Konica Minolta, Inc. Image processing device, image processing method, and recording medium storing computer readable image processing program
JP2019522276A (ja) * 2016-06-03 2019-08-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 生物学的対象物の検出

Also Published As

Publication number Publication date
KR20070097053A (ko) 2007-10-02
AU2006205061B2 (en) 2010-08-12
PT1836680E (pt) 2010-11-16
US7881532B2 (en) 2011-02-01
CA2591241C (en) 2014-07-22
TW200703148A (en) 2007-01-16
US7689038B2 (en) 2010-03-30
TWI307058B (en) 2009-03-01
BRPI0606705B1 (pt) 2018-06-19
DE602006016066D1 (de) 2010-09-23
CA2591241A1 (en) 2006-07-20
CN101103373B (zh) 2010-06-02
KR101255865B1 (ko) 2013-04-17
WO2006076312A3 (en) 2006-09-21
DK1836680T3 (da) 2010-12-06
ATE477556T1 (de) 2010-08-15
AU2006205061A1 (en) 2006-07-20
US20100150443A1 (en) 2010-06-17
MX2007008363A (es) 2007-09-06
EP1836680A2 (en) 2007-09-26
WO2006076312A2 (en) 2006-07-20
CN101103373A (zh) 2008-01-09
EP1836680B1 (en) 2010-08-11
US20070036436A1 (en) 2007-02-15
JP4825222B2 (ja) 2011-11-30
BRPI0606705A2 (pt) 2009-07-07

Similar Documents

Publication Publication Date Title
JP4825222B2 (ja) 改良された画像セグメンテーション方法
US20190139227A1 (en) Methods and systems for image segmentation
Van Essen et al. An integrated software suite for surface-based analyses of cerebral cortex
CN111445478B (zh) 一种用于cta图像的颅内动脉瘤区域自动检测系统和检测方法
US7801361B2 (en) Analyzing pixel data using image, thematic and object layers of a computer-implemented network structure
US8600143B1 (en) Method and system for hierarchical tissue analysis and classification
Kumar et al. Automatic segmentation of liver and tumor for CAD of liver
JP4660546B2 (ja) デジタル化画像中の対象の特徴描写方法およびコンピュータ読取り可能なプログラム記憶装置
US8076937B2 (en) Fibre tracking on the basis of macroscopic information
CN102834846A (zh) 用于分割图像中的对象的方法
US20140112568A1 (en) Method and apparatus for automatic her2 scoring of tissue samples
US8200013B2 (en) Method and device for segmenting a digital cell image
Bashar et al. Automatic extraction of nuclei centroids of mouse embryonic cells from fluorescence microscopy images
CN112219221A (zh) 用于3d图像分割和分析的系统和方法
JPH11507565A (ja) 画像改善装置及び方法
Mayerich et al. Hardware accelerated segmentation of complex volumetric filament networks
ES2351052T3 (es) Método para segmentación mejorada de imágenes.
CN113421270B (zh) 基于单中心标定数据实现医学图像域自适应分割的方法、系统、装置、处理器及其存储介质
CN114463351B (zh) 一种脑部影像数据处理方法与系统
CN101261735A (zh) 在高维空间中检测对象的系统和方法
CN114202538A (zh) 一种脑部影像分析方法与系统
CN109919046A (zh) 一种基于关系特征的三维点云特征学习方法和装置
Li Locality sensitive modelling approach for object detection, tracking and segmentation in biomedical images
MOHD YAKOP IMPLEMENTATION OF IMAGE TEXTURE ANALYSIS USING GRAY LEVEL RUN LENGTH APPROACH

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100916

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110909

R150 Certificate of patent or registration of utility model

Ref document number: 4825222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250