JP4945045B2 - Multi-neural network image apparatus and method - Google Patents

Multi-neural network image apparatus and method Download PDF

Info

Publication number
JP4945045B2
JP4945045B2 JP2001579226A JP2001579226A JP4945045B2 JP 4945045 B2 JP4945045 B2 JP 4945045B2 JP 2001579226 A JP2001579226 A JP 2001579226A JP 2001579226 A JP2001579226 A JP 2001579226A JP 4945045 B2 JP4945045 B2 JP 4945045B2
Authority
JP
Japan
Prior art keywords
particle
image
particles
pixel
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001579226A
Other languages
Japanese (ja)
Other versions
JP2004505233A5 (en
JP2004505233A (en
Inventor
カスダン、ハーベイ・エル
アシュ、マイケル・アール
チュング、ミン
Original Assignee
アイアールアイエス インターナショナル, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイアールアイエス インターナショナル, インコーポレイテッド filed Critical アイアールアイエス インターナショナル, インコーポレイテッド
Priority claimed from US09/841,941 external-priority patent/US6947586B2/en
Priority claimed from PCT/US2001/013451 external-priority patent/WO2001082216A1/en
Publication of JP2004505233A publication Critical patent/JP2004505233A/en
Publication of JP2004505233A5 publication Critical patent/JP2004505233A5/ja
Application granted granted Critical
Publication of JP4945045B2 publication Critical patent/JP4945045B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • G01N15/1433Signal processing using image recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/01Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials specially adapted for biological cells, e.g. blood cells
    • G01N2015/016White blood cells
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N2015/1488Methods for deciding

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Dispersion Chemistry (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Processing (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

A multi-neural net imaging apparatus (2) and method for classification of image elements, such as biological particles. The multi-net structure utilizes subgroups of particle features to partition the decision space by an attribute or physical characteristic of the particle and/or by individual and group particle classification that includes an unknown category. Preprocessing (6) classifies particles as artifacts based on certain physical characteristics. Post processing (6) enables the use of contextual information either available from other sources or gleaned from the actual decision making process to further process the probability factors and enhance the decisions.

Description

【0001】
発明の技術分野
本発明は、複数のニューラルネット(神経網:neural net)を有する画像装置、そのニューラルネットを調整する方法、及び画像装置のようなものを操作する方法に関する。その装置は、生物学的粒子(biological particle)を検出して分類するために、より詳細には、人間の尿から生物学的粒子を検出して分類するために用いられ得る。
【0002】
発明の背景技術
生物学的粒子分析装置は、この技術分野では周知である。例えば、本願譲受人に譲渡された米国特許第4,338,024号を見よ。この特許は、生物学的粒子を検出し、その検出された生物学的粒子を分類するために、格納された固定プログラムを有するコンピュータを用いる従来技術の装置を記述する。
【0003】
生物学的粒子イメージを分類するために用いられる基準決定理論は周知であり、それは、連続的方法の分類法によって粒子を分類する傾向がある。より具体的には、複数の粒子タイプを含む尿サンプルのために、粒子イメージは、一つの粒子タイプに特有な1以上の粒子特徴を検索され、それらのイメージは抽出される。この処理は、一度に一つの粒子タイプを他の粒子のために繰り返される。この方法における問題は、各粒子タイプが粒子特徴の検索されたもののために広範囲の値を示すことができ、広範囲の値が他の粒子タイプのものに部分的に一致し得るということである。同じく、人為構造(人為的影響、アーティファクト:artifact)の問題もある。それは、臨床の重要性、例えば、滑石又は毛髪を有さず、あるいは、画像装置の感度又はイメージの持つ他の問題(例えば、不完全な取込みのために漠然とした粒子の境界)のために分類され得ない粒子イメージである。人為構造の粒子イメージは、粒子分析の全体的精度に不利な影響を与えないような方法で、分析から無視される必要がある。従って、人為構造を含むサンプル内の粒子を正確で確実に分類することは困難であり得る。
【0004】
さらに、大抵の生物学的粒子分類装置は、サンプル内の粒子を正確に分類するために手動操作を必要とする。粒子特徴が粒子タイプによって粒子イメージを分離するために用いられ得るが、熟練のユーザがその結果を確かめるために必要とされる。
【0005】
ニューラルネットコンピュータも周知である。ニューラルネットコンピュータの利点は、その経験から「学習する」能力であり、従って、理論上、ニューラルネットコンピュータは、訓練されるとき一層識別力を有することとなり得る。
【0006】
尿サンプルのようなサンプル内の生物学的粒子の正確で自動化された分類のための生物学的粒子分類方法及び装置のニーズがある。
【0007】
発明の概要
本発明では、マルチニューラルネットイメージ検出及び分類装置が開示される。マルチニューラルネットは、利用可能な情報をより効率的に用いる。その必要性は限定され、そこでは、それは、決定空間を効果的に分割する。それによって、決定の全体ですべての結果をまだカバーするが、この情報は、各段階で一層少ない決定をするために用いられることを可能にする。それに加えて、ニューラルネットは、回避クラス、例えば、人為構造に画像を引き出すために、複数の処理段階で確実性を測定する。ある意味では、ガントレット(gauntlet)の各段階でそれが「私は知らない(I don't know)」カテゴリーに置かれそうであるガントレットを受けるために、このマルチニューラルネットワークをイメージデータを強制しているとみなすことができる。これは、一つのネットを通して単純に受けるよりもずっと強力である。なぜならば、本質において、達成されるものは、一つのテンプレートがその情報のより効率的な使用のためになされ得るよりも良く定義されるテンプレートに、データの多数の適合だからである。
【0008】
本発明は、また、粒子特徴の大きいセット及び訓練方法に関し、それは、訓練セットを通して単に一つのパスのみでなく、多くのネットから選択し、特徴ベクトルサイズを減らすことを含む。最終的に、本発明は、学習情報が決定プロセスの一部として含まれ得る前処理及び後処理を提供する。後処理は、他のソースから利用可能か、実際の決定プロセスから収集される文脈上の情報が決定を更に向上するために用いられ得る。
【0009】
本発明は、複数の分類クラスの一つにあるイメージ内の要素を分類する方法であって、該要素は複数の特徴を有する。その方法は、前記要素の前記イメージから前記複数の特徴を抽出するステップと、前記要素の分類クラスを決定するステップと、複数の前に決定された分類クラス決定に基づいて、前記要素の決定された分類クラスを変更するステップとを含む。要素分類クラスの決定は、少なくとも以下の一つを含む:
前記要素の物理的特性を決定するために、抽出された特徴の第1のサブグループを選択して処理し、前記要素の分類クラスを決定するために決定された物理的特性に応じて、抽出された特徴の第2のサブグループを選択して処理するサブステップと、
前記要素の一群の分類クラスを決定するために、抽出された特徴の第3のサブグループを選択して処理し、前記要素の分類クラスを決定するために、決定された分類クラスグループに応じて、抽出された特徴の第4のサブグループを選択して処理するサブステップ。
【0010】
本発明の他の面では、複数の分類クラスの一つにあるイメージ内の要素を分類する画像装置であって、該要素は複数の特徴を有し、該装置は、前記要素の前記イメージから前記複数の特徴を抽出する手段と、前記要素の分類クラスを決定する手段と、複数の前に決定された分類クラス決定に基づいて、前記要素の決定された分類クラスを変更する手段とを含む。該決定手段は、少なくとも以下の一つを含む:
前記要素の物理的特性を決定するために、抽出された特徴の第1のサブグループを選択して処理する手段、及び、前記要素の分類クラスを決定するために、決定された物理的特性に応じて、抽出された特徴の第2のサブグループを選択して処理する手段と、
前記要素の一群の分類クラスを決定するために、抽出された特徴の第3のサブグループを選択して処理する手段、及び、前記要素の分類クラスを決定するために、決定された分類クラスグループに応じて、抽出された特徴の第4のサブグループを選択して処理する手段と、の少なくとも一つを含む、前記決定手段。
【0011】
本発明のまだもう一つの面では、複数の分類の一つにあるイメージ内の要素を分類する方法であって、該要素は複数の特徴を有し、その方法は、前記イメージから前記複数の特徴を抽出するステップと、第1の決定基準によって抽出された前記複数の特徴に基づいて前記要素の分類を決定するステップであって、該第1の決定基準は、未知の分類として前記要素の分類を含む、決定ステップと、前記要素が前記第1の決定基準によって未知の分類として分類される場合には、該第1の決定基準とは異なる第2の決定基準によって前記要素の分類を決定するステップと、前記要素が前記第1の決定基準によって複数の分類の一つとして分類される場合には、前記第1及び第2の決定基準とは異なる第3の決定基準によって前記要素の分類を決定するステップとを含む。
【0012】
本発明の更にもう一つの面では、複数の分類クラスの一つにあるイメージ内の要素を分類する画像装置であって、該要素は複数の特徴を有し、その装置は、前記要素の前記イメージから前記複数の特徴を抽出器と、前記要素の分類クラスを決定する第1のプロセッサと、複数の前に決定された分類クラス決定に基づいて、前記要素の決定された分類クラスを変更する第2のプロセッサとを含む。第1のプロセッサは、以下の少なくとも一つによって前記要素の分類クラスを決定する:
前記要素の物理的特性を決定するために、抽出された特徴の第1のサブグループを選択して処理するとともに、前記要素の分類クラスを決定するために、決定された物理的特性に応じて、抽出された特徴の第2のサブグループを選択して処理する、
前記要素の一群の分類クラスを決定するために、抽出された特徴の第3のサブグループを選択して処理するとともに、前記要素の分類クラスを決定するために、決定された分類クラスグループに応じて、抽出された特徴の第4のサブグループを選択して処理する。
【0013】
本発明の他の目的及び特徴は、明細書、特許請求の範囲及び添付図面の考察によって明白となろう。
【0014】
好ましい実施の形態の詳細な記述
本発明は、各個別のイメージを識別するとともに、粒子の各所定のクラスにおけるイメージ数を決定する目的のために、生物学的粒子の集合における個々の粒子イメージの分類について決定する方法及び装置を含む。
【0015】
基礎方法及び装置
その方法は、一般に、図1に概略的に示され、5つの基本ステップを含む:
1)個々のイメージを収集するステップ、
2)各個々のイメージから粒子特徴を抽出するステップ、
3)個々のイメージの分類法あるいは分類処理の実行方法を決定するために、ある前処理ルールを適用するステップ、
4)多数のニューラルネット意思決定構造を用いて、個々のイメージを分類するステップ、
5)集合の全分類法又はある下位(部分)集合(subset)若しくは個々のイメージの分類法に対する変更を決定するための、決定の集合又は決定の集合の部分集合を分析するステップ。
【0016】
本発明の方法は、訓練手続きによって作られる多数のネット間から最終的な意思決定に用いられるネットを選択するステップと同様に、決定するために用いられる個々のニューラルネットを訓練するステップを更に含む。
【0017】
本発明を実行するために用いられる3つの主要なハードウェア要素、すなわち、画像システム2、第1プロセッサ4及び第2プロセッサ6がある。これらのハードウェア要素は、概略的に図2に示される。
【0018】
画像システム2は、関心のある粒子を含むサンプルの視野のイメージを作るために用いられる。画像システム2は、好ましくは、米国特許第4,338,024号、第4,393,466号、第4,538,299号及び第4,612,614号に記述されるような周知のフロー顕微鏡である。これらの特許はすべて、参照によってここに組み込まれる。フロー顕微鏡は、フローセルを通して流れるときに、粒子を含む連続範囲のイメージを作り出す。
【0019】
第1プロセッサ4は、連続範囲のイメージを分析して、個々のパッチ(断片)内の粒子を分離する。(参照によってここに組み込まれる、米国特許第4,538,299号及び第5,625,709号に記述されるような)パッチ抽出装置は、画像システムによって作り出されるイメージを分析し、興味のある粒子を含む局部(パッチ)を画定するために用いられる。各粒子の境界が識別されて画定され、より大きい範囲から各粒子のピクチャデータを抽出するために用いられる。それによって、興味のある個々の粒子のイメージをそれぞれが含むデジタルピッチイメージを作り出す(その後に処理に要求されるデータの重要な圧縮をもたらす)。画像システム2及び第1プロセッサ4は、図1に示される第1のステップ(個々のイメージの収集)を実行するために結合する。
【0020】
第2プロセッサ6は、粒子イメージの分類法を決定するために、各粒子イメージを分析する。第2プロセッサ6は、以下に記述されるように、図1に示される後の4つのステップを実行する。
【0021】
境界強調−マスクイメージ
粒子特徴抽出を向上するために、粒子境界が更に洗練され、粒子の黒及び白のマスクイメージが作り出される。この処理は、粒子の境界の外側にあるすべてのデジタルイメージピクセル(背景ピクセル)を黒ピクセルに、及び粒子境界内部のピクセルを白ピクセルに効果的に変更する。結果として生じる黒い背景に対する粒子の白イメージは、粒子の形状と大きさを非常に明瞭に伝え、(ピクセルが白又は黒のいずれかであるとすれば)形状及び大きさのみに基づいて粒子特徴のために作用するのを容易にする。
【0022】
図3A及び3Bは、粒子イメージをマスクイメージに変換するための基本ステップを示す。まず、Shen-Castanエッジ検出器(ParkerとJames R.の1997年John Wiley &SonsによるISBN 0-471-14056-2の「画像処理及びコンピュータビジョンのアルゴリズム」の29〜32頁に記述されるように、そして、参照によってここに組み込まれる)が、図3Aに示されるように、興味のある粒子のエッジを画定するために用いられる。粒子イメージ10は、典型的に、興味のある粒子12及び他の粒子14のイメージを含む。その粒子イメージ10は滑らかにされ、帯域制限ラプラス演算子イメージが作り出され、階調イメージが続く。閾値ルーチンは、エッジを検出するために用いられ、それによって、強度が予め決められた閾値を越える位置は、エッジとして画定される。検出されたエッジは、エッジイメージ16を結果として生じるために互いに接続される。それは、種々の粒子の輪郭を描く検出された境界に対応するラインを含む。
【0023】
マスクイメージは、図3Bに示される方法でエッジイメージ16から作られる。エッジイメージ16は反転され、領域ラインが白に、背景が黒になる。それから、イメージは、すべての小さい点及び興味があるよりもあまりに小さい粒子をきれいにされる。境界ラインの小さいギャップは、いくつかの境界ラインを互いに結ぶために満たされる。境界ラインは、その幅を増やすために広げられる。内部エッジが粒子の実際の大きさを画定するので、この拡張は、境界ラインの外部エッジ上にある。結合されないピクセルは、粒子を囲む完全なラインを作るために架橋される。境界の内部は、粒子を表す小球体を作り出すために、それで満たされる。小球体は、それが正しい大きさを有するように、境界ラインを形成したピクセルを取り除くために浸食される。最終的に、最も大きい小球体が検出され、すべての残りの小球体は捨てられる。結果として生じるイメージは、粒子のマスクイメージであり、そこでは、黒い背景に対して白い小球体が、興味のある粒子の大きさ及び形状に正確に対応する。
【0024】
粒子特徴抽出
一旦興味のある粒子のイメージがパッチイメージ内に配置され、その領域が粒子の白いマスクイメージを作ることによって制限されると、パッチ及びマスクイメージは、粒子イメージから粒子特徴(特徴データ)を抽出するために更に処理される。一般に、粒子特徴は、粒子タイプの正確な分類を助ける多くの異なる方法において、粒子の大きさ、形状、きめ(texture)及び色を数値的に記述する。粒子特徴は、これらの数値記述の一つに関連する族(ファミリー)にグループ化され得、パッチイメージ、マスクイメージ、あるいはその両方から抽出され得る。
【0025】
粒子特徴の第1の族はすべて、粒子の形状に関連する。それは、球形の赤血球及び白血球、正方形又は長方形の結晶、及び細長い糞を識別するのを助ける。粒子特徴の第1族は:
1.粒子領域:粒子境界内に含まれるピクセル数。好ましくは、この粒子特徴は、粒子のマスクイメージから得られる。
2.全周長さ:ピクセルにおける粒子境界の長さ。好ましくは、これは、マスクの4近傍全周イメージを作り、ゼロでないピクセル数を数えることによって、粒子マスクイメージから得られる。
3.形状因子:粒子の球形表示。これは、粒子領域で割られる、全周長さの二乗として計算される。
4.全周率への領域:粒子のもう一つの球形表示。これは、全周長さで割られた粒子領域として計算される。
【0026】
粒子特徴の第2の族は、粒子の対称性に関し、より詳細には、あらゆる所定形状粒子のための対称線の数の決定に関する。粒子特徴のこの族は、糞(典型的に、長軸に沿って対称性を有する)と扁平上皮細胞(squamous epithelial cell、SQEPs:一般に対称線を有さない)とを識別するのに非常に有用である。粒子特徴のこの族は、粒子への異なる角度方向で適用される線分から得られる情報を利用する。図4に示されるように、線分20は、マスクイメージ19の重心22を通って描かれる。線分20に沿う各ポイントのために、それに垂直な線分24a及び24bは、粒子境界を横切るまで線分20から離れて延びるように描かれ、対向する垂直線分24a及び24bの長さの差は、計算され、蓄積される。この計算は、線分20に沿う各ポイントで繰り返され、すべての差は、合計され、線分20の対称値(Symmetry Value)として格納される。完全な円では、対称値はあらゆる線分20においてゼロである。対称値の計算は、線分20の各角度回転で繰り返され、それぞれが一つの線分20の特定の角度方向に対応する複数の対称値を結果として生じる。対称値は、粒子領域値によって標準化され、低いものから高いものへ順序付けられた対称値のリストに格納される。
【0027】
粒子特徴の第2の族は:
5.最小対象:回転のある値における粒子によって示された最大対称を表す、順序リストの最も小さい対称値。
6.20%対称:対称値の順序リストの20%を構成する対称値。
7.50%対称:対称値の順序リストの50%を構成する対称値。
8.80%対称:対称値の順序リストの80%を構成する対称値。
9.最大対称:回転のある値における粒子によって示される最小対象を表す、順序リストの最も高い対称値。
10.平均対称:対称値の平均値。
11.標準偏差対称:対称値の標準偏差。
【0028】
粒子特徴の第3の族は、粒子の骨格化に関する。それは、粒子の大きさと形状を特徴付ける1以上の線分を作る。これらの粒子特徴は、発芽酵母、菌糸酵母、及び白血球凝集塊のような、クラスタ内に多数の成分を有する分析物を識別するのに理想的である。これらの分析物は、多数の枝を持つ骨格を有し、それは、一つの枝骨格を有する分析物から区別するのを容易にする。骨格イメージの作成は、画像処理の技術では周知であり、ParkerとJames R.の1997年John Wiley &SonsによるISBN 0-471-14056-2の「画像処理及びコンピュータバージョンのためのアルゴリズム」の176〜210頁に開示される。骨格化は、それに垂直な方向で中心に向かって粒子境界の各部分を潰すことを含む。例えば、図5A〜5Dにそれぞれ示されるように、完全な円は一点に潰れ、三日月は曲線に、8の字は2本の直線分に、くぼみを持つセルは曲線に潰される。好ましい実施の形態は、2つの骨格化アルゴリズム、ZSHとBZSを利用する。ZSHは、階段移動を加えてHolt変換を用いるZhang-Suenシニングアルゴリズムである。BZSは、Holt変換を用いるZhang-Suenシニングアルゴリズムである。Parkerの図5.11(182頁)は、各アルゴリズムのCコードとともに、これらのアルゴリズムが適用されるときの結果の差を示す。
【0029】
粒子特徴の第3の族は:
12.ZSH骨格サイズ:骨格の大きさは、好ましくは、骨格を形成するピクセル数を数えることによって決定される。
13.ZSH標準化骨格サイズ:骨格サイズは粒子の大きさによって標準化され、粒子領域によって骨格サイズを分割することによって決定される。
14.BZS骨格サイズ:骨格の大きさは、好ましくは、骨格を形成するピクセル数を数えることによって決定される。完全な円の骨格サイズは1であり、三日月のそれは、曲線の長さであろう。
15.BZS標準化骨格サイズ:骨格サイズは粒子の大きさによって標準化され、粒子領域によって骨格サイズを分割することによって決定される。
【0030】
粒子特徴の第4の族は、粒子に適合する半径の長さを用いて粒子の形状を測定すること、及びこれらの値の変位値序列に関する。特に、重心は、好ましくは、マスクイメージを用いて、粒子内部に画定され、異なる角度における重心から出る複数の半径は、粒子境界に向かって外に伸びる。半径の長さは、半径値のリストに収集され、そのリストは、低い値から高い値に分類される。値の順序付けられたリストのある%変位値は、リストの基底からある%に対応するリストの位置を有する値を表す。例えば、リストの30%変位値は、リストの基底から30%上に配置された値であり、リストにはその上にその値の70%がある。それで、10値の順序リストにおいて、30%変位値は、リストのトップから7番目の値であり、50%変位値は、リストの真ん中の値である。
【0031】
粒子特徴の第4の族は:
16.25%半径値:半径値のリストの25%変位値に対応する値。
17.50%半径値:半径値のリストの50%変位値に対応する値。
18.75%半径値:半径値のリストの75%変位値に対応する値。
19.最小平均比率:最小半径値と平均変形値の比率。
20.最大平均比率:最大半径値と平均半径値の比率。
21.平均半径値:半径値の平均。
22.標準偏差半径値:半径値の標準偏差。
【0032】
粒子特徴の第5の族は、粒子イメージの強度を測定する。異なる分析物の光吸収特性は、著しく異なる。例えば、結晶は、一般的に屈折力を有し、その内部が背景よりも明るいように、実際に光を一点に集め得る。しかしながら、着色された白血球は、典型的に、背景よりも実質的に暗い。平均強度は、粒子の全光吸収として示されるが、強度の標準偏差は、粒子の吸収特性の均一性を測定する。強度を測定するために、粒子は、好ましくは、粒子のパッチイメージをマスクするためのマスクイメージを用いることによって分離される。従って、(マスク内部に)残されたピクセルのみが粒子領域内部に含まれるピクセルである。粒子特徴のこの族は、以下を含む:
23.平均ピクセル値:粒子境界内部のすべてのピクセルの平均ピクセル値。
24.ピクセル値の標準偏差:粒子境界内部のピクセルのピクセル値の標準偏差。
【0033】
粒子特徴の第6の族は、粒子の動径分布を測定するために、粒子のフーリエ変換を用いる。フーリエ変換は、粒子の大きさ、形状及びきめ(すなわち、細かい粒構造)に依存する。きめの追加に加えて、フーリエ変換振幅は、粒子の位置から独立し、粒子回転は、変換の回転として直接反映される。1回転におけるエネルギーのクラスタを見出すことは、粒子の線形状況(すなわち、粒子は線形部分を有する)の表示である。この発見は、赤血球に対する結晶のような粒子間を区別するのを助ける。粒子のパッチイメージのフーリエ変換は、好ましくは、128×128ピクセルのウィンドウを持つ周知の高速フーリエ変換(FFT)アルゴリズムを用いて計算される。次の粒子特徴は、それから計算される:
25.回転された128ピクセルラインのFFT平均強度:回転角の関数として128ピクセルラインに沿う平均ピクセル値の行列リスト。これは、変換中長さ128ピクセルの半径ラインを配置するとともに、N°の増加によって180°の弧を通して半径ラインを回転することによって計算される。N°の各増加のために、半径ラインに沿うピクセル値の平均が計算される。N°増加の平均ピクセル値は、対応する角度増加とともに平均強度として待ち行列に蓄積される。
26.FFT最大/最小128ピクセル角度差:待ち行列に蓄積される最高及び最低平均強度値に対応する角度値間の差。
27.FFT128ピクセル平均強度標準偏差:待ち行列に蓄積される平均強度値の標準偏差。
28.回転された128ピクセルラインの回転された64ピクセルラインのFFT平均強度:FFT平均強度と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
29.FFT最大/最小64ピクセル角度差:FFT最大/最小128ピクセル角度差と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
30.FFT64ピクセル平均強度標準偏差:FFT128ピクセル平均強度標準偏差と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
31.回転された32ピクセルラインのFFT平均強度:回転された128ピクセルラインのFFT平均強度と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
32.FFT最大/最小32ピクセル角度差:最大/最小128ピクセル角度差と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
33.FFT32ピクセル平均強度標準偏差:FFT128ピクセル平均強度標準偏差と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
【0034】
長さを変更する回転半径ラインに基づく標準偏差値にすべて関連した追加のFFT粒子特徴は、次のようになる:
34.FFT128ピクセル平均強度標準偏差種類:異なる回転のための128ピクセルラインに沿う平均ピクセル値の標準偏差の蓄積された待ち行列リスト。これは、変換中長さ128ピクセルの半径ラインを配置するとともに、N°の増加によって180°の弧を通して半径ラインを回転することによって計算される。N°の各増加のために、ライン上のピクセル値の標準偏差値は計算される。すべてのN°増加の標準偏差値は、低値から高値まで分類され、待ち行列に蓄積される。
35.FFT128ピクセル最小半径標準偏差:標準偏差値の分類された待ち行列リストから検索された最小半径標準偏差値。
36.FFT128ピクセル最大半径標準偏差:標準偏差値の分類された待ち行列リストから検索された最大半径標準偏差値。
37.FFT128ピクセル25%変位値半径標準偏差:待ち行列に蓄積された値の25%変位値に対応する待ち行列からの半径標準偏差値。
38.FFT128ピクセル50%変位値半径標準偏差:待ち行列に蓄積された値の50%変位値に対応する待ち行列からの半径標準偏差値。
39.FFT128ピクセル75%変位値半径標準偏差:待ち行列に蓄積された値の75%変位値に対応する待ち行列からの半径標準偏差値。
40.FFT128ピクセル最小と平均半径標準偏差比率:待ち行列に蓄積された最小と平均半径標準偏差値の比率。
41.FFT128ピクセル最大と平均半径標準偏差比率:待ち行列に蓄積された最大と平均半径標準偏差値の比率。
42.FFT128ピクセル平均半径標準偏差:待ち行列に蓄積された値の平均半径標準偏差値。
43.半径標準偏差のFFT128ピクセル標準偏差:待ち行列に蓄積された半径標準偏差のすべての標準偏差。
44.FFT64ピクセル平均強度標準偏差種類:FFT128ピクセル平均強度標準偏差種類と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
45.FFT64ピクセル最小半径標準偏差:FFT128ピクセル最小半径標準偏差と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
46.FFT64ピクセル最大半径標準偏差:FFT128ピクセル最大半径標準偏差と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
47.FFTピクセル25%変位値半径標準偏差:FFT128ピクセル25%変位値半径標準偏差と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
48.FFTピクセル50%変位値半径標準偏差:FFT128ピクセル50%変位値半径標準偏差と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
49.FFTピクセル75%変位値半径標準偏差:FFT128ピクセル75%変位値半径標準偏差と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
50.FFT64ピクセル最小と平均半径標準偏差の比率:FFT128ピクセル最小と平均半径標準偏差の比率と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
51.FFT64ピクセル最大と平均半径標準偏差の比率:FFT128ピクセル最大と平均半径標準偏差の比率と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
52.FFT64ピクセル平均半径標準偏差:FFT128ピクセル平均半径標準偏差と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
53.半径標準偏差のFFT64ピクセル標準偏差:半径標準偏差のFFT128ピクセル標準偏差と同じであるが、64ピクセル長半径ラインを用いる代わりとして。
54.FFT32ピクセル平均強度標準偏差種類:FFT128ピクセル平均強度標準偏差種類と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
55.FFT32ピクセル最小半径標準偏差:FFT128ピクセル最小半径標準偏差と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
56.FFT32ピクセル最大半径標準偏差:FFT128ピクセル最大半径標準偏差と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
57.FFT32ピクセル25%変位値半径標準偏差:FFT128ピクセル25%変位値半径標準偏差と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
58.FFT32ピクセル50%変位値半径標準偏差:FFT128ピクセル50%変位値半径標準偏差と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
59.FFT32ピクセル75%変位値半径標準偏差:FFT128ピクセル75%変位値半径標準偏差と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
60.FFT32ピクセル最小と平均半径標準偏差の比率:FFT128ピクセル最小と平均半径標準偏差の比率と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
61.FFT32ピクセル最大と平均半径標準偏差の比率:FFT128ピクセル最大と平均半径標準偏差の比率と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
62.FFT32ピクセル平均半径標準偏差:FFT128ピクセル平均半径標準偏差と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
63.半径標準偏差のFFT32ピクセル標準偏差:半径標準偏差のFFT128ピクセル標準偏差と同じであるが、32ピクセル長半径ラインを用いる代わりとして。
【0035】
一層多くのFFT粒子特徴が用いられ、それらはすべて長さを変化する回転された半径ラインに基づいて平均値に関連する:
64.FFT128ピクセル平均強度種類:異なる回転のための128ピクセルラインに沿う平均ピクセル値の分類された待ち行列リスト。これは、変換中長さ128ピクセルの半径ラインを配置するとともに、N°の増加によって180°の弧を通して半径ラインを回転することによって計算される。N°の各増加のために、そのライン上のピクセルの平均値が計算される。すべてのN°増加の平均ピクセル値は、低いものから高いものへ分類され、待ち行列に蓄積される。
65.FFT128ピクセル最小平均値:平均値の分類された待ち行列リストから検索された最小半径平均値。
66.FFT128ピクセル最大半径値:平均値の分類された待ち行列から検索された最大半径平均値。
67.FFT128ピクセル25%変位値半径平均値:待ち行列に蓄積された平均値の25%変位値に対応する待ち行列からの半径平均値。
68.FFT128ピクセル50%変位値半径平均値:待ち行列に蓄積された平均値の50%変位値に対応する待ち行列からの半径平均値。
69.FFT128ピクセル75%変位値半径平均値:待ち行列に蓄積された平均値の75%変位値に対応する待ち行列からの半径平均値。
70.FFT128ピクセル最小と平均半径平均値の比率:待ち行列に蓄積された半径平均値の最小と平均の比率。
71.FFT128ピクセル最大と平均半径平均値の比率:待ち行列に蓄積された半径平均値の最大と平均の比率。
72.FFT128ピクセル平均半径標準偏差:待ち行列に蓄積された平均値の平均半径標準偏差値。
73.平均値のFFT128ピクセル標準偏差:待ち行列に蓄積された半径平均値のすべての標準偏差。
【0036】
粒子特徴の第7の族は、イメージ強度のグレースケールとカラーヒストグラム変位値を用いる。それらは、粒子境界内部の強度変化についての追加の情報を提供する。特に、グレースケール、赤、緑及び青のヒストグラム変位値は、異なるスペクトル帯域における強度特性を提供する。さらに、粒子分析で用いられる着色は、いくつかの粒子が緑のようなあるカラーを吸収するのをもたらすが、その他は、ある波長において屈折特性を示す。従って、すべての粒子特徴を用いることは、人が緑を吸収する白血球や黄色の光を屈折する結晶のような着色された粒子を識別するのを可能にする。
【0037】
ヒストグラム、累積的ヒストグラム及び変位値計算は、米国特許5,343,538号に開示される。それは、参照によってここに組み込まれる。粒子イメージは、典型的に、イメージを3つのカラー成分に分解するCCDカメラを用いて取り込まれる。好ましい実施の形態は、粒子イメージの赤、緑及び青成分を別々に取り込むRGBカメラを用いる。次の粒子特徴は、イメージのグレースケール、赤、緑及び青の成分に基づいて計算される:
74.グレースケールピクセル強度:粒子境界内部のグレースケールピクセル強度の分類された待ち行列リスト。グレースケール値は、3つのカラー成分の合計である。(マスクイメージによってマスクされるような)粒子境界内部の各ピクセルのために、グレースケールピクセル値は、グレースケール待ち行列に加えられ、それは(例えば、低いものから高いものに)分類される。
75.最小グレースケールイメージ強度:待ち行列に蓄積された最小グレースケールピクセル値。
76.25%グレースケール強度:待ち行列に蓄積されたグレースケールピクセル値の25%変位値に対応する値。
77.50%グレースケール強度:待ち行列に蓄積されたグレースケールピクセル値の50%変位値に対応する値。
78.75%グレースケール強度:待ち行列に蓄積されたグレースケールピクセル値の75%変位値に対応する値。
79.最大グレースケールイメージ強度:待ち行列に蓄積された最大グレースケールピクセル値。
80.赤ピクセル強度:粒子境界内部の赤ピクセル強度の分類された待ち行列リスト。粒子イメージは、各ピクセル値の赤成分だけが残るように変換される。(マスクイメージによってマスクされるような)粒子境界内部の各ピクセルのために、赤ピクセル値は、赤行列に追加され、それは、それから、低いものから高いものに分類される。
81.最小赤イメージ強度:待ち行列に蓄積された最小赤ピクセル値。
82.25%赤強度:待ち行列に蓄積された赤ピクセル値の25%変位値に対応する値。
83.50%赤強度:待ち行列に蓄積された赤ピクセル値の50%変位値に対応する値。
84.75%赤強度:待ち行列に蓄積された赤ピクセル値の75%変位値に対応する値。
85.最大赤イメージ強度:待ち行列に蓄積された最大赤ピクセル値。
86.緑ピクセル強度:粒子境界内部の緑ピクセル強度の分類された待ち行列リスト。粒子イメージは、ピクセル値の緑成分だけが残るように変換される。(マスクイメージによってマスクされるような)粒子境界内部の各ピクセルのために、緑ピクセル値は、緑待ち行列に追加され、それは、それから、低いものから高いものに分類される。
87.最小緑イメージ強度:待ち行列に蓄積された最小緑ピクセル値。
88.25%緑強度:待ち行列に蓄積された緑ピクセル値の25%変位値に対応する値。
89.50%緑強度:待ち行列に蓄積された緑ピクセル値の50%変位値に対応する値。
90.75%緑強度:待ち行列に蓄積された緑ピクセル値の75%変位値に対応する値。
91.最大緑イメージ強度:待ち行列に蓄積された最大緑ピクセル値。
92.青ピクセル強度:粒子境界内部の青ピクセル強度の分類された待ち行列リスト。粒子イメージは、ピクセル値の青成分のみが残るように変換される。(マスクイメージによってマスクされるような)粒子境界内部の各ピクセルのために、青ピクセル値は青行列に追加され、それは、それから、低いものから高いものに分類される。
93.最小青イメージ強度:待ち行列に蓄積される最小青ピクセル値。
94.25%青強度:待ち行列に蓄積された青ピクセル値の25%変位値に対応する値。
95.50%青強度:待ち行列に蓄積された青ピクセル値の50%変位値に対応する値。
96.75%青強度:待ち行列に蓄積された青ピクセル値の75%変位値に対応する値。
97.最大青イメージ強度:待ち行列に蓄積された最大青ピクセル値。
【0038】
粒子特徴の第8の族は、FFT等級分類における変化を更に特徴付けるために、同心円と環を用いる。中心円は、中心円の外側で中心円と同軸の直径を連続的に増加する(ワッシャの形状の)7つの環とともに、FFTの中心上に画定される。第1の環は、中心円の外径に等しい内径と、第2の環の内径と等しい外径とを有し、以下同様である。次の粒子特徴は、FFT中の中心円と7つの環から計算される:
98.中心円平均値:中心円内部のFFTの大きさの平均値。
99.中心円標準偏差:中心円内部のFFTの大きさの標準偏差。
100.中心円に対する環平均値:第1の環内部のFFTの大きさの平均値の中心円のそれに対する比率。
101.中心円に対する環標準偏差:第1の環内部のFFTの大きさの標準偏差の中心円のそれに対する比率。
102.円に対する環平均値:第1の環内部のFFTの大きさの平均値のその環の外径によって画定される円のそれに対する比率。
103.円に対する環標準偏差:第1の環内部のFFTの大きさの標準偏差のその環の外径によって画定される円のそれに対する比率。
104.環の環に対する平均値:第1の環内部のFFTの大きさの平均値の次に小さい直径を有する環又は中心円(第1の環の場合には、それは中心円であろう)のそれに対する比率。
105.環の環に対する標準偏差:第1の環内部のFFTの大きさの標準偏差の次に小さい直径を有する環又は中心円(第1の環の場合には、それは中心円であろう)のそれに対する比率。
106〜111:第1の輪の代わりに第2の環が用いられる以外は、特徴100〜104と同じ。
112〜117:第1の輪の代わりに第3の環が用いられる以外は、特徴100〜104と同じ。
118〜123:第1の輪の代わりに第4の環が用いられる以外は、特徴100〜104と同じ。
123〜129:第1の輪の代わりに第5の環が用いられる以外は、特徴100〜104と同じ。
130〜135:第1の輪の代わりに第6の環が用いられる以外は、特徴100〜104と同じ。
136〜141:第1の輪の代わりに第7の環が用いられる以外は、特徴100〜104と同じ。
154〜197は、それらが粒子イメージのFFTのFFTに適用される以外は、98〜141と同じである。
【0039】
粒子特徴の最後の族は、FFT等級分類における変化を更に特徴付けるために、FFTウィンドウサイズ(例えば、128)の11%、22%、33%、44%、55%、及び66%に等しい一辺を持つ同心の正方形を用いる。それは、オリジナルの分析物イメージの大きさ、形状及びきめによって影響を受ける。FFTのきめを特徴付ける2つの周知のきめ分析アルゴリズムがある。第1は、ベクトル分散(Vector Dispersion)と称せられ、それは、法線を用いて領域を教示するために、平面に適合することを含み、参照により組み込まれるParkerの165〜168頁に記述される。第2は、表面曲率距離関数(Surface Curvature Metric)と称され、その領域に多項式を適合させることを含み、参照により組み込まれるParkerの168〜171頁に記述される。次の粒子特徴は、FFT中異なる大きさのウィンドウから計算される:
142〜147:それぞれ11%、22%、33%、44%、55%、及び66%FFTウィンドウへのベクトル分散アルゴリズムの適用。
148〜153:それぞれ11%、22%、33%、44%、55%、及び66%FFTウィンドウへの表面曲率距離関数アルゴリズムの適用。
【0040】
処理及び判断
一旦、前述の粒子特徴が計算されると、ある粒子の分類法又はサンプルの全体にある粒子のすべてが処理されるか否かを決定するために、処理ルールが適用される。好ましい実施の形態は、より大きい粒子を取り込むためにより大きい視野で低出力フィールド(LPF)スキャンを実行するための低出力対物レンズ(例えば、10×)と、より小さい粒子のより微少な詳細を取り込むためにより大きい感度を持つ高出力フィールド(HPF)スキャンを実行するためのを高出力対物レンズ(例えば、40×)とを用いて粒子イメージを取得する。
【0041】
本発明のシステムは、LPFスキャン及びHPFスキャンにおいて取り込まれた粒子を分類するために、別々のマルチニューラルネット決定構造を利用する。興味のあるほとんどの粒子がLPF又はHPFスキャンの一つであるが、両方にではなく現れるので、別の決定構造は、各構造が分類しなければならない興味のある粒子数を最小にする。
【0042】
ニューラルネット構造
図8は、LPF及びHPFスキャンにおけるすべてのニューラルネットのために用いられる基本のニューラルネット構造を示す。ネットは、それぞれネットで使用のために選択される上述の粒子特徴の一つに対応する入力X−Xを持つ入力層を含む。各入力は、隠された層における複数のニューロンZ−Zのそれぞれ一つに接続される。これらの隠された層ニューロンZ−Zのそれぞれは、重み付け方法で入力層から受けたすべての値を合計し、それによって、各ニューロンの実際の重さが個々に割当て可能である。各隠された層ニューロンZ−Zはまた、重み付けされた合計に非線形関数を適用する。各隠された層ニューロンZ−Zからの出力は、ニューロンの第2(出力)層Y−Yのそれぞれ一つに供給される。出力層ニューロンY−Yのそれぞれはまた、重み付け方法で隠された層から受けた入力を合計し、重み付けされた合計に非線形関数を適用する。出力層ニューロンは、ネットの出力を提供し、それゆえ、これらの出力ニューロン数は、ネットが作る決定クラス数に対応する。入力数は、ネットへの入力のために選択される粒子特徴数に等しい。
【0043】
後に記述されるように、各ネットは、正確な結果を作るために「訓練」される。なされる各決定のために、ネットの決定に適切な粒子特徴だけがネットへの入力のために選択される。訓練手続きは、満足する結果が全体としてネットから達成されるまで、ニューロンのための種々の重みを変更することを含む。好ましい実施の形態では、種々のネットは、製品バージョン5.30のニューラルワーク(NeuralWorks)を用いて訓練された。それは、Carnegie, Paのニューラルウェア(Neural Ware)によって製造され、特に、拡張デルタバーデルタプロパゲーションアルゴリズムである。好ましい実施の形態におけるすべてのネットのすべてのニューロンに用いられる非線形関数は、双曲線タンジェント関数であり、そこでは、入力範囲は、低スロープ領域を避けるために、−0.8〜+0.8に抑えられる。
【0044】
LPFスキャンプロセス
LPFスキャンプロセスは、図6Aに示され、低出力対物レンズを用いて次の粒子イメージ(分析物)を得ることによって始まる。それから、ニューラルネット分類法が実行される。それは、図6Bに示されるように、分析物イメージにニューラルネットのカスケード構造を適用するプロセスを含む。各ニューラルネットは、上述の計算された198粒子特徴の選択されたサブグループをとって、粒子がネットの特徴を満たす0〜1までの範囲の分類確率因子を計算する。ネットのカスケード構造は、下流に向かって各ニューラルネット結果の精度を向上するのに役立つ。なぜならば、粒子がある特性を持つか持たないためにそれが予め選別された操作をすると分類されるとすれば、各ネットは、本質的に、より正確に設計され得るからである。システム効率のために、198のすべての粒子特徴は、好ましくは、各粒子イメージのために計算され、それから、図6Bのニューラルネット分類プロセスが適用される。
【0045】
粒子イメージに適用される第1のニューラルネットは、アモル分類ネット(AMOR Classifier Net)であり、それは、粒子が不定形であるか否かを決定する。好ましい実施の形態のために、このネットは、上述の198の粒子特徴の選択されたサブセットのための42の入力と、隠された層の20のニューロンと、出力層の2のニューロンとを含む。図9A〜9Cの表における「LPF AMOR2」と称せられる列は、このネットで使用のために選択された上述の42の粒子特徴の数を示す。このネットの第1及び第2の出力は、それぞれ粒子が不定形であるか否かの確率に対応する。確率がより高いどちらかが、ネットの決定を構成する。ネットが粒子は不定形であると決定するならば、粒子の分析は終了する。
【0046】
粒子が不定形でないと決定されるならば、SQEP/CAST/OTHER分類ネットが適用される。それは、粒子が扁平上皮細胞(SQEP)、糞細胞(CAST)、もう一つのタイプの細胞のいずれであるかを決定する。好ましい実施の形態のために、このネットは、上述の198の粒子特徴の選択されたサブセットのための48の入力と、隠された層の20のニューロンと、出力層の3のニューロンとを含む。図9A〜9Cの表における「LPF CAST/SQEP/OTHER3」と称せられる列は、このネットで使用のために選択された上述の48の粒子特徴の数を示す。このネットの第1、第2及び第3の出力は、それぞれ粒子が糞、SQEP、又はもう一つの粒子タイプである確率に対応する。最も高い確率のどれかはネットの決定を構成する。
【0047】
粒子が糞細胞と決定されるならば、糞分類ネット(CAST Classifier Net)が適用される。それは、粒子が白血球クランプ(WBCC)、非結晶糞細胞(HYAL)、又は病的な糞細胞のような分類されない糞(UNCC)のいずれであるかを決定する。好ましい実施の形態のために、このネットは、上述の198の粒子特徴の選択されたサブセットのための36の入力と、隠された層の10のニューロンと、出力層の3のニューロンとを含む。図9A〜9Cの表における「LPF CAST3」と称せられる列は、このネットで使用のために選択された上述の36の粒子特徴の数を示す。このネットの第1、第2及び第3の出力は、粒子がWBCC、HYAL又はUNCCである確率に対応する。確率が最も高いどれかはネットの決定を構成する。
【0048】
粒子が扁平上皮細胞であると決定されるならば、その決定はただ残される。
【0049】
粒子がもう一つのタイプの細胞であると決定されるならば、OTHER Classifier Netが適用される。それは、粒子が肝臓上皮細胞又はトランジション上皮細胞のような非扁平上皮細胞(NSE)、分類されない結晶(UNCX)、酵母(YEAST)、あるいは粘液(MUCS)のいずれであるかを決定する。好ましい実施の形態のために、このネットは、上述の198粒子特徴の選択されたサブセットのための46の入力と、隠された層の20のニューロンと、出力層の4のニューロンとを含む。図9A〜9Cの表における「LPF OTHER4」と称せられる列は、このネットで使用のために選択された上述の46の粒子特徴の数を示す。このネットの第1、第2、第3及び第4の出力は、粒子がNSE、UNCX、YEAST、又はMUCSである確率に対応する。確率が最も高いどれかはネットの決定を構成する。
【0050】
図6Aに戻って、一旦、ニューラルネット分類が粒子タイプを決定すると、粒子が人為構造として分類されるべきか否かを決定するために、回避ルールによる技術(ART by Abstention Rule)が適用される。なぜならば、粒子分類を保証するのに十分高い分類確率因子を与えるネットがないからである。好ましい実施の形態によって適用される回避ルールによる技術は、以下のようになる:ネット構造による最終的な分類がHYALであり、CAST確率がSQEP/CAST/Otherネットにおいて0.98より小さかったならば、粒子は人為構造として再分類される。同様に、ネット構造による最終的な分類がUNCCであり、CAST確率がSQEP/CAST/Otherネットにおいて0.95より小さかったならば、粒子は人為構造として再分類される。
【0051】
図6Aに示される次のステップは、回避ルールによる技術に耐える粒子に適用する。粒子がUNCC、HYALあるいはSQEPとしてネット構造によって分類されたならば、その分類は無条件に受け入れられる。粒子がもう一つのタイプの粒子として分類されたならば、粒子が人為構造として分類されるべきか否かを決定するために、粒子取り込みテストが適用される。部分的取り込みテストは、粒子境界が1以上の粒子イメージパッチ境界に当たるか否かを決定し、従って、粒子イメージの一部のみがパッチイメージによって取り込まれた。好ましい実施の形態の部分的取り込みテストは、基本的に、それらが背景ピクセルを表すことを保証するために、パッチの境界を形成するピクセルを見る。これは、パッチ境界上の累積的強度ヒストグラムを収集し、これらの強度の下限と上限を計算することによってなされる。好ましい実施の形態の下限は、ヒストグラムの底から3番目の値かヒストグラムの底から2%の値のいずれか大きい方である。上限は、ヒストグラムの上部から3番目の値かヒストグラムの上部から2%の値のいずれか大きい方である。パッチイメージは、(例えば、0〜255までの範囲を持つピクセル強度の)下限が185より小さいならば、部分的取り込みと思われる。同じく、パッチは、上限が250以下であり、下限が200より小さいならば(これは、粒子イメージの円光がパッチイメージ境界を教示する場合を処理することである)、部分的取り込みと思われる。部分的取り込みテストに耐えるすべての粒子は、それらの分類を維持し、LPFスキャンプロセスが完了する。
【0052】
好ましい実施の形態では、同じく、部分的取り込みテストは、ニューラルネットのいくつかによって用いられる粒子特徴の一つとして用いられる。粒子境界が1以上の粒子イメージパッチ境界を当てるならば、特徴値は1であり、そうでないならば、0である。この粒子特徴は、図9A〜9Cにおいて「0」を割り当てられる。
【0053】
HPFスキャンプロセス
HPFスキャンプロセスは、図7Aに示され、高出力対物レンズを用いて次の粒子イメージ(分析物)を得ることによって始まる。2つの前処理人為構造分類ステップが、粒子をニューラルネット分類に委ねる前に実行される。第1の前処理ステップは、粒子のそれぞれが完全に適合し得る最も小さいボックスに対応した状態で、5つのサイズボックス(HPF1〜HPF5)を画定することによって始まる。好ましい実施の形態では、最も小さいボックスHPF5は、12×12ピクセルであり、最も大きいボックスHPF1は、50×50ピクセルである。HPF5ボックスに対応したすべての粒子は、人為構造として分類され、さらなる考察から取り除かれる。なぜならば、それらの粒子は、システムの決定を与える正確な分類にはあまりにも小さいからである。
【0054】
第2の前処理ステップは、HPF3又はHPF4に対応するすべての残りの粒子を見出す。それは、50平方ピクセルより小さいセル面積を有し、長くも薄くもなく、人為構造としてそれらを分類する。この第2の前処理ステップは、大きさとアスペクト比基準を結合する。それは、丸い傾向があるより小さい粒子を除去する。一旦、HPF3又はHPF4ボックスであって、50平方ピクセルより少ないセル面積に対応する粒子が分離されると、そのような粒子のそれぞれは、次の2つの基準のいずれかを満足するならば、人為構造として分類される。第1に、粒子面積によって分離される粒子外周の正方形が20より小さいならば、粒子は、長くも薄くもなく、人為構造に分類される。第2に、XとYモーメントの分散行列の固有値の比率(ストレッチ値とも呼ばれる)が20より小さいならば、粒子は、長くも薄くもなく、人為構造に分類される。
【0055】
上述の2つの前処理ステップを耐えた粒子イメージは、図7Bに示されるニューラルネットのカスケード構造を備える。各ニューラルネットは、上述の計算された198の粒子特徴の選択されたサブグループをとり、粒子がネットの基準を満たす0〜1までの範囲の分類確率因子を計算する。ネットのカスケード構造と同様に、これは、下流に向かって各ニューラルネット結果の精度を向上するのに役立ち、好ましくは、198の粒子特徴のすべては、HPFスキャンが始まる前に各粒子イメージのために計算される。
【0056】
粒子イメージに適用される第1のニューラルネットは、AMOR分類ネットであり、それは、粒子が不定形であるか否かを決定する。好ましい実施の形態のために、このネットは、上述の198の粒子特徴の選択されたサブセットのための50の入力と、隠された層の10のニューロンと、出力層の2のニューロンとを含む。図9A〜9Cの表における「LPF AMOR2」と称せられる列は、このネットで使用のために選択された上述の50の粒子特徴の数を示す。このネットの第1及び第2の出力は、それぞれ粒子が不定形であるか否かの確率に対応する。確率がより高いどちらかが、ネットの決定を構成する。ネットが粒子は不定形であると決定するならば、粒子の分析は終了する。
【0057】
粒子が不定形でないと決定されるならば、Round/Not Round分類ネットが適用される。それは、粒子形状が円形の予め決められた量を示すか否かを決定する。好ましい実施の形態のために、このネットは、上述の198の粒子特徴の選択されたサブセットのための39の入力と、隠された層の20のニューロンと、出力層の2のニューロンとを含む。図9A〜9Cの表における「HPF ROUND/NOT ROUND2」と称せられる列は、このネットで使用のために選択された上述の39の粒子特徴の数を示す。このネットの第1及び第2の出力は、粒子が「丸い」又はそうでない確率に対応する。最も高い確率のどちらかはネットの決定を構成する。
【0058】
粒子が「丸い」と決定されるならば、丸い細胞分類ネット(Round Cells Classifier Net)が適用される。それは、粒子が赤血球(RBC)、白血球(WBC)、肝臓上皮細胞又はトランジション上皮細胞のような非扁平上皮細胞(NSE)、あるいは酵母(YEAST)のいずれであるかを決定する。好ましい実施の形態のために、このネットは、上述の198の粒子特徴の選択されたサブセットのための18の入力と、隠された層の3のニューロンと、出力層の3のニューロンとを含む。図9A〜9Cの表における「HPF Round4」と称せられる列は、このネットで使用のために選択された上述の18の粒子特徴の数を示す。このネットの第1、第2、第3及び第4の出力は、粒子がRBC、WBC、NSE又はYEASTである確率に対応する。確率が最も高いどれかはネットの決定を構成する。
【0059】
粒子が「丸く」ないと決定されるならば、Not Round分類ネットが適用される。それは、丸い細胞分類ネット(Round Cells Classifier Net)が適用される。それは、粒子が赤血球(RBC)、白血球(WBC)、肝臓上皮細胞又はトランジション上皮細胞のような非扁平上皮細胞(NSE)、分類していない結晶(UNCX)、酵母(YEAST)、精子(SPRM)あるいはバクテリア(BACT)のいずれであるかを決定する。好ましい実施の形態のために、このネットは、上述の198の粒子特徴の選択されたサブセットのための100の入力と、隠された層の20のニューロンと、出力層の7のニューロンとを含む。図9A〜9Cの表における「HPF NOT Round7」と称せられる列は、このネットで使用のために選択された上述の100の粒子特徴の数を示す。このネットの7の出力は、粒子がRBC、WBC、NSE、UNCX、YEAST、SPRM又はBACTである確率に対応する。最も高い確率のどれかはネットの決定を構成する。
【0060】
図7Aに戻って、一旦、ニューラルネット分類が粒子タイプを決定したら、粒子が人為構造として分類されるべきか否かを決定するために、回避ルールによる技術が適用される。なぜならば、粒子分類を保証するのに十分高い分類確率因子を与えるネットがないからである。好ましい実施の形態によって適用される回避ルールによる技術は、ある基準が満たされるならば、人為構造として4つの粒子タイプを再分類する。第1に、ネット構造による最終的な分類が酵母であり、YEAST確率がNot Round Cells分類ネットにおいて0.9より小さいならば、粒子は人為構造として再分類される。第2に、ネット構造による最終的な分類がNSEであり、NSE確率がRound Cells分類ネットにおいて0.9より小さいか、あるいはround確率がRound/Not Round分類ネットにおいて0.9より小さいならば、粒子は人為構造として再分類される。第3に、ネット構造による最終的な分類がnot roundNSEであり、NSE確率がNot Round Cells分類ネットにおいて0.9より小さいならば、粒子は人為構造として再分類される。第4に、ネット構造による最終的な分類がUNCXであり、UNCX確率がRound Cells分類ネットにおいて0.9より小さいか、あるいはround確率がRound/Not Round分類ネットにおいて0.9より小さいならば、粒子は人為構造として再分類される。
【0061】
図7Aに示される次のステップは、部分的取込みテストであり、それは、回避ルールによる技術に耐えるすべての粒子に適用される。部分的取込みテストは、粒子境界が人為構造として分類されるべきか否かを決定する。なぜならば、粒子境界は、1以上の粒子イメージパッチ境界に当たるからであり、従って、粒子イメージの一部のみがパッチイメージによって取り込まれたからである。LPFスキャンと同様に、好ましい実施の形態の部分的取り込みテストは、基本的に、それらが背景ピクセルを表すことを保証するために、パッチの境界を形成するピクセルを見る。これは、パッチ境界上の累積的強度ヒストグラムを収集し、これらの強度の下限と上限を計算することによってなされる。好ましい実施の形態の下限は、ヒストグラムの底から3番目の値かヒストグラムの底から2%の値のいずれか大きい方である。上限は、ヒストグラムの上部から3番目の値かヒストグラムの上部から2%の値のいずれか大きい方である。パッチイメージは、(例えば、0〜255までの範囲を持つピクセル強度の)下限が185より小さいならば、部分的取り込みと思われる。同じく、パッチは、粒子イメージの円光がパッチイメージ境界を教示する場合を処理するために、上限が250以下であり、下限が200より小さいならば、部分的取り込みと思われる。
【0062】
部分的取り込みテストに耐えるすべての粒子は、それらの分類を維持する。部分的取込みと思われるすべての粒子は、部分的取込みルールによる技術を更に受け、それは、次の6つの基準のいずれかが満たされるならば、人為構造としてそのような粒子を再分類する。
1.それがHPF1サイズボックスに対応したならば。
2.それがRBC、WBC、BYST又はUNCXのいずれかとして分類されなかったならば。
3.それがRBCとして分類されたならば、HPF2サイズボックスに対応され、あるいは5.0以上のストレッチ値を有したならば。
4.それがWBCとして分類され、5.0以上のストレッチ値を有したならば。
5.それがUNCXとして分類され、10.0以上のストレッチ値を有したならば。
6.それがBYSTとして分類され、20.0以上のストレッチ値を有したならば。
これらの6つの基準のいずれも粒子イメージによって満たされないならば、ニューラルネット分類は、たとえ終始が部分的取込みとみなされたとしても有効であることを許容され、HPFスキャン処理は、完了する。これらの6つのルールは、部分的取込みがニューラルネット決定処理をゆがめないが、部分的取込みが間違った決定に至るような粒子を除去する場合には、部分的分類決定を続けることを選択された。
【0063】
どの特徴が上述の各ニューラルネットのために用いられるべきであるかを最良に決定するために、あらゆる所定のニューラルネットに入力される特徴値は、小さい量より一つずつ変更され、ニューラルネット出力のこうかは、記録される。ニューラルネットの出力に対する最大効果を有する特徴が用いられるべきである。
【0064】
後処理決定
一旦、すべての粒子イメージが部分的タイプによって分類されると、後決定処理が、分類結果の精度を更に増すために実行される。この処理は、結果の一式を考慮して、全体として、信頼できると考慮されない分類結果を取り除く。
【0065】
ユーザ設定可能な集中閾値は、全結果のための雑音レベル閾値を確立する後決定処理の一タイプである。これらの閾値はユーザによって設定され得る。ニューラルネット分類イメージ集中が閾値より小さいならば、カテゴリー内のすべての粒子は、人為構造として再分類される。例えば、HPFスキャンが全サンプルのただ2,3のRBCのみを見出すならば、これらは間違った結果であり、これらの粒子は、人為構造として再分類される。
【0066】
過度な不定形の検出は、あまりにも多くの粒子が不定形として分類されるならば、疑わしい結果を捨てるもう一つの後決定プロセスである。好ましい実施の形態では、不定形でないHPFパッチが10以上あり、それらの60%以上がニューラルネットによって不定形であると分類されるならば、全標本の結果は、信頼できないとして捨てられる。
【0067】
好ましい実施の形態は、また、多くのLPF間違いの明確なフィルタを含み、それは、矛盾しあるいは疑わしい結果を捨てる。HPF粒子と異なり、LPF人為構造は、すべての形状と大きさがある。多くの場合、システムの決定で、真の臨床的に重要な分析物からLPF人為構造を識別することが不可能である。LPF人為構造のための間違った実在を減らすために、多くのフィルタがネットによってなされる集計決定を見るために用いられ、ただ意味を為さないそれらの結果を捨てる。例えば、HPF WBCカウントが9より小さいならば、白血球のクランプが、白血球が十分な数見美出されないならばおそらく存在しないので、すべてのLPF WBCCは人為構造として再分類されるべきである。さらに、これらの粒子がそのように少ない数存在しそうにないので、あるタイプのちょうど2,3の粒子の検出は、無視されるべきである。好ましい実施の形態では、システムは、3以上のLPF UNCX検出粒子、あるいは2以上のLPF NSE検出粒子、又は3以上のLPF MUC検出粒子、あるいは2以上のHPF SPRM検出粒子、又は3以上のLPF YEAST検出粒子を見出さなければならない。これらの閾値が満たされないならば、それぞれ粒子は、人為的構造として再分類される。さらに、あらゆるLPF YEAST検出粒子を受けるために、少なくとも2のHPF BYST検出粒子がなければならない。
【0068】
ニューラルネット訓練及び選択
各ニューラルネットは、予め分類されたイメージの訓練セットを用いて訓練される。訓練セットに加えて、予め分類されたイメージの第2のより小さいセットは、テストセットとして予約される。好ましい実施の形態では、NeuralWorksによって出版される商用プログラム「NeuralWare」は、訓練を実行するために用いられる。テストセットの平均誤差が最小にされるとき、訓練が終わる。
【0069】
このプロセスは、多数のスタートするシードとネット構造(すなわち、隠された層と各層における要素の数)のために繰り返される。最終的な選択は、全平均誤差率だけでなく、特定のクラス間の誤差における制約を満足することに基づく。例えば、扁平上皮細胞を病的糞と識別することは望ましくない。なぜならば、扁平上皮細胞は、通常、女性の尿標本に生じるが、病的糞は、異常な状況を示すからである。それゆえ、好ましい実施の形態は、SQEPとしてUNCCのより多くの誤分類を犠牲にして、0.03より小さいUNCC誤差率にSQEPを持つネットを助ける。この状況は、UNCC検出の感度を幾分減らすが、女性の標本における間違った実在を最小にする。それは、女性の尿サンプルの高い割合が異常であると呼ばれるので、十分高い発生頻度で、システムを無能にする。従って、前後差率を最小にするだけでなく、「最適な」ネットの選択における特定の誤差率のコストを考慮する方法を利用し、ネット訓練へのこの選択基準を構築することが望ましい。
【0070】
前述から分かるように、本発明の方法及び装置は、以下の面において先行技術と異なる。先行技術では、各処理段階において、残りの未分類粒子が人為構造又は未知を考慮される状態で、粒子の分類がなされる。粒子の分類を人為構造又は未知のものとして最小にするために、エッチ段階における分類のための値の範囲は大きい。
【0071】
それと対照的に、本発明のエッチ段階における分類のための値の範囲は狭く、そう分類される確実性のより大きい確率を有する粒子のみをもたらし、その残りは、前処理段階に関するさらなる処理のための分類において分類される。本発明のマルチネット構造は、粒子の属性又は物理的特性(例えば、その円形)によって、及び/又は未知のカテゴリーを含む個別の及びグループの粒子分類によって決定空間を分割するために、粒子特徴のサブグループを利用する。これは、決定空間を分割した。それは、各決定における確率因子を作り、利用可能な情報を一層効果的に用いる。その必要性は、限定的であり、この情報が全体決定の同数であるが、各段階におけるより少ない可能な結果を持って作るために用いられるのを効率的に可能にする。前処理及び後処理は、学習情報が決定プロセスの一部として包含されることを可能にする。後処理は、他のソースから利用可能であるか、実際の決定プロセスから収集されたかのいずれかの文脈上の情報の使用が確率因子を更に処理し、決定を向上するのを可能にする。ニューラルネット確実性の使用は、多数の処理力段階において、回避クラス、すなわち人為構造へのイメージを測定する。ある意味で、ガントレットの各段階において「私は知らない」カテゴリーに非常に置かれそうであるガントレットを走らせるために、イメージデータを強制していることとしてこのマルチニューラルアプローチを見ることができる。これは、一つのネットを通して単に走るのよりもずっと強力である。なぜならば、本質的に、達成されるものは、一つのテンプレートができるよりもずっと良く定義されるテンプレートへのデータの多数の適合であり、それは、情報の効率的使用を可能にする。これについて考えるもう一つの方法は、異なるサブ空間におけるデータが分析されることであり、そのサブ空間又はそれが特徴から落ちるその他の特性で、ある意味ではそれが完全にあるいは十分うまく適合するよう要求される。本発明の訓練方法は、訓練セットを通して単に一つのパスでなく、多くのネットから選択し、特徴ベクトルサイズを減らすことを含む。それぞれが物理的特性の特定のセットについて集中して、特徴自体の高い数は、システムの精度を増す。
【0072】
本発明は、上述のここで示された実施の形態に制限されず、添付の特許請求の範囲内におけるあらゆるすべての変更を含むことを理解されたい。それゆえ、本発明が生物学的サンプルのイメージの分類に関して記述されるが、同じく、イメージを分類するために抽出されて用いられ得る特徴を有するあらゆるイメージのためのイメージ分析を含むことを理解されたい。例えば、本発明は、顔認識のために用いられ得る。特徴は、顔イメージが識別され、予め決められた分類に分類され得るように、目、鼻、口など、あるいは顔形状や大きさのようなより一般的特徴の形状、大きさ、位置及び寸法を識別し、分類するために抽出され得る。
【図面の簡単な説明】
【図1】 本発明の方法を示すフロー図である。
【図2】 本発明の装置の概略図である。
【図3】 図3A及び3Bは、本発明の境界強調を示すフロー図である。
【図4】 本発明の対称特徴抽出を示す図である。
【図5】 図5A〜5Dは、種々の形状の骨格化を示す図である。
【図6】 図6Aは、本発明のLPFスキャン処理を示すフロー図である。
図6Bは、本発明のLPFスキャン処理で用いられるニューラルネット分類のフロー図である。
【図7】 図7Aは、本発明のHPFスキャン処理を示すフロー図である。
図7Bは、本発明のHPFスキャン処理で用いられるニューラルネット分類のフロー図である。
【図8】 本発明で用いられるニューラルネットの概略図である。
【図9】 図9A〜9Cは、本発明のLPF及びHPFスキャン処理における種々のニューラルネットで用いられる粒子特徴を示す表である。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image device having a plurality of neural nets, a method for adjusting the neural network, and a method for operating such an image device. The device can be used to detect and classify biological particles, and more particularly to detect and classify biological particles from human urine.
[0002]
BACKGROUND OF THE INVENTION
Biological particle analyzers are well known in the art. See, for example, US Pat. No. 4,338,024, assigned to the assignee of the present application. This patent describes a prior art device that uses a computer with a fixed program stored to detect biological particles and classify the detected biological particles.
[0003]
The criteria decision theory used to classify biological particle images is well known and it tends to classify particles by a continuous method of classification. More specifically, for a urine sample containing multiple particle types, the particle image is searched for one or more particle features specific to a particle type and the images are extracted. This process is repeated one particle type at a time for other particles. The problem with this method is that each particle type can exhibit a wide range of values for the retrieved particle feature, and the wide range of values can partially match those of other particle types. There is also a problem of artificial structure (artifacts, artifacts). It does not have clinical significance, eg talc or hair, or is classified for imaging device sensitivity or other problems with the image (eg vague particle boundaries due to incomplete uptake) It is a particle image that cannot be done. Artificial particle images need to be ignored from the analysis in a way that does not adversely affect the overall accuracy of the particle analysis. Thus, it can be difficult to accurately and reliably classify particles in a sample that contains artifacts.
[0004]
In addition, most biological particle classification devices require manual manipulation to accurately classify particles within a sample. Although particle features can be used to separate particle images by particle type, an experienced user is required to verify the results.
[0005]
Neural network computers are also well known. The advantage of a neural network computer is the ability to “learn” from its experience, so theoretically, a neural network computer can have more discriminatory power when trained.
[0006]
There is a need for a biological particle classification method and apparatus for accurate and automated classification of biological particles within a sample, such as a urine sample.
[0007]
Summary of the Invention
In the present invention, a multi-neural network image detection and classification device is disclosed. Multi-neural networks use available information more efficiently. Its need is limited, where it effectively divides the decision space. Thereby, the entire decision still covers all results, but this information allows to be used to make fewer decisions at each stage. In addition, neural networks measure certainty in multiple processing steps to extract images into avoidance classes, eg, artificial structures. In a sense, at each stage of the gauntlet, this multi-neural network is forced to image data to receive a gauntlet that is likely to be placed in the “I don't know” category. Can be considered. This is much more powerful than simply receiving it through a single net. Because, in essence, what is achieved is that multiple adaptations of data to a well-defined template can be made for a more efficient use of that information.
[0008]
The present invention also relates to a large set of particle features and a training method, which involves selecting from many nets and reducing the feature vector size, not just a single pass through the training set. Finally, the present invention provides pre-processing and post-processing where learning information can be included as part of the decision process. Post processing is available from other sources or contextual information collected from the actual decision process can be used to further improve the decision.
[0009]
The present invention is a method for classifying an element in an image that is in one of a plurality of classification classes, the element having a plurality of features. The method includes extracting the plurality of features from the image of the element, determining a classification class for the element, and determining the element based on a plurality of previously determined classification class determinations. Changing the classification class. Element classification class determination includes at least one of the following:
Select and process a first subgroup of extracted features to determine the physical characteristics of the element and extract according to the physical characteristics determined to determine the classification class of the element Selecting and processing a second subgroup of the rendered features;
Depending on the determined classification class group to select and process a third subgroup of the extracted features to determine a group of classification classes of the element and to determine the classification class of the element Sub-step of selecting and processing a fourth sub-group of extracted features.
[0010]
In another aspect of the invention, an imaging device for classifying an element in an image that is in one of a plurality of classification classes, the element having a plurality of features, the device from the image of the element. Means for extracting the plurality of features; means for determining a classification class of the element; and means for changing the determined classification class of the element based on a plurality of previously determined classification class determinations. . The determining means includes at least one of the following:
Means for selecting and processing a first subgroup of extracted features to determine a physical property of the element, and a determined physical property to determine a classification class of the element In response, means for selecting and processing a second subgroup of extracted features;
Means for selecting and processing a third subgroup of extracted features to determine a group of classification classes of the element; and a classification class group determined to determine a classification class of the element And determining means for selecting and processing a fourth subgroup of extracted features.
[0011]
In yet another aspect of the invention, a method for classifying an element in an image that is in one of a plurality of classifications, the element having a plurality of features, the method comprising: Extracting a feature; and determining a classification of the element based on the plurality of features extracted by a first determination criterion, wherein the first determination criterion is an unknown classification of the element A determination step including classification, and when the element is classified as an unknown classification by the first determination criterion, the classification of the element is determined by a second determination criterion different from the first determination criterion And when the element is classified as one of a plurality of classifications according to the first determination criterion, the element is classified according to a third determination criterion different from the first and second determination criterion. Decide That and a step.
[0012]
In yet another aspect of the invention, an imaging device for classifying an element in an image that is in one of a plurality of classification classes, the element having a plurality of features, the apparatus comprising: Extracting the plurality of features from an image; a first processor for determining a classification class for the element; and changing a determined classification class for the element based on a plurality of previously determined classification class determinations. A second processor. The first processor determines the classification class of the element by at least one of the following:
In order to determine the physical characteristics of the element, a first subgroup of extracted features is selected and processed, and according to the determined physical characteristics to determine the classification class of the element Select and process a second subgroup of extracted features;
Select and process a third subgroup of extracted features to determine a group of classification classes of the element, and depending on the determined classification class group to determine the classification class of the element A fourth subgroup of extracted features is selected and processed.
[0013]
Other objects and features of the present invention will become apparent upon consideration of the specification, claims and appended drawings.
[0014]
Detailed Description of the Preferred Embodiment
The present invention provides a method and apparatus for determining the classification of individual particle images in a set of biological particles for the purpose of identifying each individual image and determining the number of images in each given class of particles. Including.
[0015]
Basic method and apparatus
The method is generally shown schematically in FIG. 1 and includes five basic steps:
1) collecting individual images;
2) extracting particle features from each individual image;
3) applying certain pre-processing rules to determine how to classify individual images or how to perform the classification process;
4) Classifying individual images using multiple neural network decision structures;
5) Analyzing a set of decisions or a subset of a set of decisions to determine a change to the total taxonomy of a set or a sub-set or individual image taxonomy.
[0016]
The method of the present invention further includes the step of training the individual neural nets used to make the decision as well as the step of selecting the net used for the final decision making from among the multiple nets created by the training procedure. .
[0017]
There are three main hardware elements used to carry out the present invention: the imaging system 2, the first processor 4 and the second processor 6. These hardware elements are shown schematically in FIG.
[0018]
The imaging system 2 is used to create an image of the field of view of the sample containing the particles of interest. The imaging system 2 preferably has a known flow as described in U.S. Pat. Nos. 4,338,024, 4,393,466, 4,538,299, and 4,612,614. It is a microscope. All of these patents are incorporated herein by reference. A flow microscope produces a continuous range image containing particles as it flows through the flow cell.
[0019]
The first processor 4 analyzes the continuous range of images and separates the particles within individual patches (fragments). A patch extractor (as described in US Pat. Nos. 4,538,299 and 5,625,709, incorporated herein by reference) analyzes the image produced by the imaging system and is of interest Used to define local (patch) containing particles. Each particle boundary is identified and defined and used to extract picture data for each particle from a larger range. Thereby creating a digital pitch image, each containing an image of the individual particles of interest (following significant compression of the data required for processing). The imaging system 2 and the first processor 4 combine to perform the first step (collection of individual images) shown in FIG.
[0020]
The second processor 6 analyzes each particle image to determine a classification method for the particle images. The second processor 6 performs the subsequent four steps shown in FIG. 1 as described below.
[0021]
Boundary enhancement-mask image
To improve particle feature extraction, the particle boundaries are further refined to create a black and white mask image of the particles. This process effectively changes all digital image pixels (background pixels) outside the grain boundary to black pixels and pixels inside the grain boundary to white pixels. The resulting white image of the particles against a black background conveys the shape and size of the particles very clearly, and particle characteristics based only on the shape and size (if the pixel is either white or black) Makes it easy to act for.
[0022]
3A and 3B show the basic steps for converting a particle image into a mask image. First, the Shen-Castan edge detector (as described on pages 29-32 of "Image Processing and Computer Vision Algorithms" of ISBN 0-471-14056-2 by Parker and James R. 1997 John Wiley & Sons. , And incorporated herein by reference) is used to define the edge of the particle of interest, as shown in FIG. 3A. The particle image 10 typically includes images of particles 12 and other particles 14 of interest. The particle image 10 is smoothed, a band-limited Laplace operator image is created, followed by a tone image. A threshold routine is used to detect an edge, whereby a location where the intensity exceeds a predetermined threshold is defined as an edge. The detected edges are connected to each other to result in an edge image 16. It contains lines corresponding to the detected boundaries that outline the various particles.
[0023]
A mask image is created from the edge image 16 in the manner shown in FIG. 3B. The edge image 16 is inverted so that the area line is white and the background is black. The image is then cleaned of all small spots and particles that are too small than you are interested in. A small gap in the boundary line is filled to connect several boundary lines together. The boundary line is widened to increase its width. This extension is on the outer edge of the boundary line because the inner edge defines the actual size of the particle. Pixels that are not joined are cross-linked to create a complete line surrounding the particle. The interior of the boundary is filled with it to create a small sphere that represents the particle. The small sphere is eroded to remove the pixels that formed the boundary line so that it has the correct size. Eventually, the largest microsphere is detected and all remaining microspheres are discarded. The resulting image is a particle mask image, in which white spheres against a black background correspond exactly to the size and shape of the particles of interest.
[0024]
Particle feature extraction
Once the image of the particle of interest is placed in the patch image and the region is limited by creating a white mask image of the particle, the patch and mask image extract the particle features (feature data) from the particle image. Further processing for. In general, particle characteristics numerically describe particle size, shape, texture and color in many different ways that help to accurately classify particle types. Particle features can be grouped into families associated with one of these numerical descriptions and extracted from patch images, mask images, or both.
[0025]
The first family of particle features are all related to the shape of the particles. It helps to identify spherical red and white blood cells, square or rectangular crystals, and elongated feces. The first family of particle features is:
1. Particle region: The number of pixels contained within a particle boundary. Preferably, the particle feature is obtained from a mask image of the particle.
2. Perimeter length: The length of the particle boundary in pixels. Preferably, this is obtained from the particle mask image by making a four-neighbor full circumference image of the mask and counting the number of non-zero pixels.
3. Form factor: spherical representation of particles. This is calculated as the square of the total perimeter divided by the particle region.
4). Area to full circumference: another spherical representation of particles. This is calculated as the particle area divided by the total perimeter.
[0026]
The second family of particle features relates to particle symmetry, and more particularly to the determination of the number of symmetry lines for any given shaped particle. This family of particle features is very distinguishable between feces (typically symmetrical along the long axis) and squamous epithelial cells (SQEPs). Useful. This family of particle features utilizes information obtained from line segments applied at different angular directions to the particle. As shown in FIG. 4, the line segment 20 is drawn through the center of gravity 22 of the mask image 19. For each point along line 20, line segments 24a and 24b perpendicular to it are drawn to extend away from line 20 until they cross the particle boundary, and are of the length of opposing vertical lines 24a and 24b. Differences are calculated and accumulated. This calculation is repeated at each point along the line 20 and all differences are summed and stored as the Symmetry Value of the line 20. In a perfect circle, the symmetry value is zero on every line segment 20. The calculation of the symmetry value is repeated for each angular rotation of the line segment 20, resulting in a plurality of symmetry values, each corresponding to a particular angular direction of one line segment 20. Symmetry values are normalized by the particle region values and stored in a list of symmetry values ordered from low to high.
[0027]
The second family of particle features is:
5). Minimum object: The smallest symmetry value in the ordered list that represents the maximum symmetry exhibited by the particle at some value of rotation.
6. 20% symmetry: Symmetric values that make up 20% of the ordered list of symmetry values.
7.50% symmetry: Symmetric values that make up 50% of the ordered list of symmetry values.
8. 80% symmetry: Symmetric values that make up 80% of the ordered list of symmetry values.
9. Maximum symmetry: The highest symmetry value in the ordered list that represents the smallest object represented by the particle at some value of rotation.
10. Average symmetry: The average value of symmetry values.
11. Standard deviation symmetry: Standard deviation of the symmetric value.
[0028]
The third family of particle features relates to particle skeletalization. It creates one or more line segments that characterize the size and shape of the particles. These particle characteristics are ideal for identifying analytes that have multiple components within a cluster, such as budding yeast, mycelium yeast, and leukocyte clumps. These analytes have a skeleton with multiple branches, which makes it easy to distinguish from an analyte with a single branch skeleton. The creation of skeletal images is well known in the art of image processing and is described in Parker and James R., 1997 John Wiley & Sons, ISBN 0-471-14056-2 “Algorithms for Image Processing and Computer Versions”, 176- It is disclosed on page 210. Skeletalization involves crushing each part of the particle boundary towards the center in a direction perpendicular to it. For example, as shown in FIGS. 5A to 5D, a complete circle is collapsed to one point, a crescent is collapsed to a curve, a figure 8 is collapsed to two straight lines, and a cell with a depression is collapsed to a curve. The preferred embodiment utilizes two skeletal algorithms, ZSH and BZS. ZSH is a Zhang-Suen thinning algorithm that uses Holt transform with stair movement. BZS is a Zhang-Suen thinning algorithm using Holt transform. Parker's Figure 5.11 (page 182) shows the difference in results when these algorithms are applied, along with the C code for each algorithm.
[0029]
The third family of particle features is:
12 ZSH skeleton size: The size of the skeleton is preferably determined by counting the number of pixels forming the skeleton.
13. ZSH standardized skeletal size: The skeletal size is normalized by the size of the particle and is determined by dividing the skeletal size by the particle region.
14 BZS skeleton size: The size of the skeleton is preferably determined by counting the number of pixels forming the skeleton. The perfect circle skeleton size is 1, and that of the crescent would be the length of the curve.
15. BZS standardized skeleton size: The skeleton size is normalized by the size of the particle and is determined by dividing the skeleton size by the particle region.
[0030]
The fourth family of particle features relates to measuring the shape of the particle using a radius length that fits the particle, and the displacement value sequence of these values. In particular, the centroid is preferably defined inside the particle using a mask image, and multiple radii emanating from the centroid at different angles extend outward toward the particle boundary. The radius lengths are collected in a list of radius values, and the list is categorized from low to high values. A% displacement value in an ordered list of values represents a value having a list position corresponding to a% from the list base. For example, a list's 30% displacement value is a value placed 30% above the list's base, and the list has 70% of its value above it. Thus, in the 10-value ordered list, the 30% displacement value is the seventh value from the top of the list, and the 50% displacement value is the middle value of the list.
[0031]
The fourth family of particle features is:
16. 25% radius value: A value corresponding to a 25% displacement value in the list of radius values.
17. 50% radius value: A value corresponding to a 50% displacement value in the list of radius values.
18. 75% radius value: A value corresponding to a 75% displacement value in the list of radius values.
19. Minimum average ratio: The ratio between the minimum radius value and the average deformation value.
20. Maximum average ratio: The ratio of the maximum radius value to the average radius value.
21. Average radius value: Average of radius values.
22. Standard deviation radius value: The standard deviation of the radius value.
[0032]
The fifth family of particle features measures the intensity of the particle image. The light absorption properties of different analytes are significantly different. For example, a crystal generally has a refractive power and can actually collect light in one spot so that its interior is brighter than the background. However, colored white blood cells are typically substantially darker than the background. The average intensity is shown as the total light absorption of the particles, but the standard deviation of the intensity measures the uniformity of the absorption characteristics of the particles. In order to measure the intensity, the particles are preferably separated by using a mask image to mask the patch image of the particles. Thus, only the remaining pixels (within the mask) are pixels contained within the particle region. This family of particle features includes:
23. Average pixel value: The average pixel value of all pixels inside the particle boundary.
24. Pixel value standard deviation: The standard deviation of the pixel values of the pixels inside the particle boundary.
[0033]
The sixth family of particle features uses the particle's Fourier transform to measure the particle's radial distribution. The Fourier transform depends on the size, shape and texture (ie fine grain structure) of the particles. In addition to adding texture, the Fourier transform amplitude is independent of the position of the particle, and particle rotation is directly reflected as the rotation of the transform. Finding a cluster of energy in one revolution is an indication of the linear state of the particle (ie, the particle has a linear portion). This discovery helps distinguish between particles like crystals for red blood cells. The Fourier transform of the particle patch image is preferably calculated using the well known Fast Fourier Transform (FFT) algorithm with a 128 × 128 pixel window. The following particle features are then calculated:
25. FFT average intensity of rotated 128 pixel lines: a matrix list of average pixel values along the 128 pixel lines as a function of rotation angle. This is calculated by placing a radius line of length 128 pixels during the transformation and rotating the radius line through a 180 ° arc by increasing N °. For each increase of N °, the average of the pixel values along the radius line is calculated. The average pixel value of N ° increase is accumulated in the queue as the average intensity with the corresponding angle increase.
26. FFT max / min 128 pixel angle difference: The difference between the angle values corresponding to the highest and lowest average intensity values accumulated in the queue.
27. FFT 128 pixel average intensity standard deviation: the standard deviation of the average intensity value accumulated in the queue.
28. FFT average intensity of rotated 64 pixel lines of rotated 128 pixel lines: Same as FFT average intensity, but instead of using 64 pixel long radius lines.
29. FFT max / min 64 pixel angle difference: Same as FFT max / min 128 pixel angle difference, but instead of using 64 pixel long radius lines.
30. FFT 64 pixel average intensity standard deviation: Same as FFT 128 pixel average intensity standard deviation, but instead of using 64 pixel long radius lines.
31. FFT average intensity of rotated 32 pixel lines: Same as FFT average intensity of rotated 128 pixel lines, but instead of using 32 pixel long radius lines.
32. FFT max / min 32 pixel angular difference: Same as max / min 128 pixel angular difference, but instead of using 32 pixel long radius lines.
33. FFT 32 pixel average intensity standard deviation: Same as FFT 128 pixel average intensity standard deviation, but instead of using 32 pixel long radius lines.
[0034]
Additional FFT particle features that are all related to standard deviation values based on turning radius lines that change length are as follows:
34. FFT 128 pixel average intensity standard deviation type: An accumulated queue list of standard deviations of average pixel values along 128 pixel lines for different rotations. This is calculated by placing a radius line of length 128 pixels during the transformation and rotating the radius line through a 180 ° arc by increasing N °. For each increment of N °, the standard deviation value of the pixel values on the line is calculated. All N ° increase standard deviation values are classified from low to high and accumulated in a queue.
35. FFT 128 pixel minimum radius standard deviation: The minimum radius standard deviation value retrieved from the sorted queue list of standard deviation values.
36. FFT 128 pixel maximum radius standard deviation: the maximum radius standard deviation value retrieved from the sorted queue list of standard deviation values.
37. FFT128 pixel 25% displacement value radius standard deviation: Radius standard deviation value from the queue corresponding to the 25% displacement value of the value accumulated in the queue.
38. FFT 128 pixels 50% displacement value radius standard deviation: Radius standard deviation value from the queue corresponding to the 50% displacement value of the value accumulated in the queue.
39. FFT 128 pixels 75% displacement value radius standard deviation: Radius standard deviation value from the queue corresponding to the 75% displacement value of the value accumulated in the queue.
40. FFT 128 pixel minimum to average radius standard deviation ratio: Ratio of minimum and average radius standard deviation values accumulated in the queue.
41. FFT 128 pixel maximum to average radius standard deviation ratio: Ratio of the maximum and average radius standard deviation values accumulated in the queue.
42. FFT 128 pixel mean radius standard deviation: The mean radius standard deviation value of the values stored in the queue.
43. Radius standard deviation FFT 128 pixel standard deviation: All standard deviations of the radial standard deviation accumulated in the queue.
44. FFT 64 pixel average intensity standard deviation type: Same as FFT 128 pixel average intensity standard deviation type, but instead of using 64 pixel long radius lines.
45. FFT 64 pixel minimum radius standard deviation: Same as FFT 128 pixel minimum radius standard deviation, but instead of using 64 pixel long radius lines.
46. FFT 64 pixel maximum radius standard deviation: Same as FFT 128 pixel maximum radius standard deviation, but instead of using 64 pixel long radius line.
47. FFT pixel 25% displacement value radius standard deviation: Same as FFT 128 pixel 25% displacement value radius standard deviation, but instead of using 64 pixel long radius line.
48. FFT pixel 50% displacement value radius standard deviation: Same as FFT 128 pixel 50% displacement value radius standard deviation, but instead of using 64 pixel long radius line.
49. FFT pixel 75% displacement value radius standard deviation: Same as FFT 128 pixel 75% displacement value radius standard deviation, but instead of using a 64 pixel long radius line.
50. FFT 64 pixel minimum to average radius standard deviation ratio: Same as FFT 128 pixel minimum to average radius standard deviation ratio, but instead of using 64 pixel long radius lines.
51. FFT 64 pixel maximum to average radius standard deviation ratio: Same as FFT 128 pixel maximum to average radius standard deviation ratio, but instead of using 64 pixel long radius lines.
52. FFT 64 pixel average radius standard deviation: Same as FFT 128 pixel average radius standard deviation, but instead of using 64 pixel long radius lines.
53. Radius standard deviation FFT 64 pixel standard deviation: Same as the radial standard deviation FFT 128 pixel standard deviation, but instead of using a 64 pixel long radius line.
54. FFT 32 pixel average intensity standard deviation type: Same as FFT 128 pixel average intensity standard deviation type, but instead of using 32 pixel long radius lines.
55. FFT 32 pixel minimum radius standard deviation: Same as FFT 128 pixel minimum radius standard deviation, but instead of using 32 pixel long radius lines.
56. FFT 32 pixel maximum radius standard deviation: Same as FFT 128 pixel maximum radius standard deviation, but instead of using 32 pixel long radius line.
57. FFT 32 pixel 25% displacement value radius standard deviation: Same as FFT 128 pixel 25% displacement value radius standard deviation, but instead of using 32 pixel long radius line.
58. FFT 32 pixel 50% displacement value radius standard deviation: Same as FFT 128 pixel 50% displacement value radius standard deviation, but instead of using 32 pixel long radius line.
59. FFT 32 pixel 75% displacement value radius standard deviation: Same as FFT 128 pixel 75% displacement value radius standard deviation, but instead of using 32 pixel long radius line.
60. FFT 32 pixel minimum to average radius standard deviation ratio: Same as FFT 128 pixel minimum to average radius standard deviation ratio, but instead of using 32 pixel long radius lines.
61. FFT 32 pixel maximum to average radius standard deviation ratio: Same as FFT 128 pixel maximum to average radius standard deviation ratio, but instead of using a 32 pixel long radius line.
62. FFT 32 pixel average radius standard deviation: Same as FFT 128 pixel average radius standard deviation, but instead of using 32 pixel long radius lines.
63. Radius standard deviation FFT 32 pixel standard deviation: Same as the radial standard deviation FFT 128 pixel standard deviation, but instead of using a 32 pixel long radius line.
[0035]
More FFT particle features are used, all of which relate to the mean value based on the rotated radius line varying in length:
64. FFT 128 pixel average intensity type: A sorted queue list of average pixel values along 128 pixel lines for different rotations. This is calculated by placing a radius line of length 128 pixels during the transformation and rotating the radius line through a 180 ° arc by increasing N °. For each increase in N °, the average value of the pixels on that line is calculated. The average pixel values for all N ° increments are sorted from low to high and accumulated in the queue.
65. FFT 128 pixel minimum average: Minimum radius average retrieved from the sorted queue list of averages.
66. FFT 128 pixel maximum radius value: Maximum radius average value retrieved from the average categorized queue.
67. FFT 128 pixel 25% displacement radius average: the radius average from the queue corresponding to the 25% displacement of the average accumulated in the queue.
68. FFT 128 pixel 50% displacement value radius mean value: the radius mean value from the queue corresponding to the 50% displacement value of the mean value accumulated in the queue.
69. FFT 128 pixel 75% displacement radius average: the radius average from the queue corresponding to the 75% displacement of the average accumulated in the queue.
70. FFT 128 pixel minimum to average radius average ratio: the ratio of the minimum and average radius average accumulated in the queue.
71. Ratio of FFT128 pixel maximum to average radius average: Ratio of maximum to average radius average stored in the queue.
72. FFT 128 pixel mean radius standard deviation: The mean radius standard deviation value of the mean value accumulated in the queue.
73. Average FFT 128 pixel standard deviation: All standard deviations of the average radius value accumulated in the queue.
[0036]
The seventh family of particle features uses gray scales of image intensity and color histogram displacement values. They provide additional information about intensity changes within the particle boundary. In particular, gray scale, red, green and blue histogram displacement values provide intensity characteristics in different spectral bands. Furthermore, the color used in particle analysis results in some particles absorbing certain colors, such as green, while others exhibit refractive properties at certain wavelengths. Thus, using all particle features allows one to identify colored particles such as white blood cells that absorb green and crystals that refract yellow light.
[0037]
Histograms, cumulative histograms and displacement calculation are disclosed in US Pat. No. 5,343,538. It is incorporated herein by reference. The particle image is typically captured using a CCD camera that separates the image into three color components. The preferred embodiment uses an RGB camera that captures the red, green and blue components of the particle image separately. The following particle features are calculated based on the grayscale, red, green and blue components of the image:
74. Grayscale pixel intensity: A sorted queue list of grayscale pixel intensities inside the particle boundary. The gray scale value is the sum of the three color components. For each pixel inside the particle boundary (as masked by the mask image), a grayscale pixel value is added to the grayscale queue, which is classified (eg, from low to high).
75. Minimum grayscale image intensity: The minimum grayscale pixel value accumulated in the queue.
76.25% grayscale intensity: A value corresponding to a 25% displacement value of a grayscale pixel value accumulated in the queue.
77. 50% grayscale intensity: A value corresponding to a 50% displacement value of a grayscale pixel value accumulated in a queue.
78.75% grayscale intensity: A value corresponding to a 75% displacement value of a grayscale pixel value accumulated in a queue.
79. Maximum grayscale image intensity: The maximum grayscale pixel value accumulated in the queue.
80. Red Pixel Intensity: A sorted queue list of red pixel intensities inside the particle boundary. The particle image is transformed so that only the red component of each pixel value remains. For each pixel inside the particle boundary (as masked by the mask image), a red pixel value is added to the red matrix, which is then classified from low to high.
81. Minimum red image intensity: The minimum red pixel value accumulated in the queue.
82.25% red intensity: A value corresponding to the 25% displacement value of the red pixel value accumulated in the queue.
83.50% red intensity: A value corresponding to the 50% displacement value of the red pixel value accumulated in the queue.
84.75% red intensity: A value corresponding to the 75% displacement value of the red pixel value accumulated in the queue.
85. Maximum red image intensity: The maximum red pixel value accumulated in the queue.
86. Green Pixel Intensity: A sorted queue list of green pixel intensities inside the particle boundary. The particle image is transformed so that only the green component of the pixel value remains. For each pixel inside the particle boundary (as masked by the mask image), a green pixel value is added to the green queue, which is then classified from low to high.
87. Minimum green image intensity: The minimum green pixel value accumulated in the queue.
88.25% green intensity: A value corresponding to a 25% displacement value of the green pixel value accumulated in the queue.
89. 50% green intensity: A value corresponding to a 50% displacement value of the green pixel value accumulated in the queue.
90.75% green intensity: A value corresponding to a 75% displacement value of the green pixel value accumulated in the queue.
91. Maximum green image intensity: The maximum green pixel value accumulated in the queue.
92. Blue pixel intensity: A sorted queue list of blue pixel intensity inside the particle boundary. The particle image is transformed so that only the blue component of the pixel value remains. For each pixel inside the particle boundary (as masked by the mask image), a blue pixel value is added to the blue matrix, which is then classified from low to high.
93. Minimum blue image intensity: The minimum blue pixel value accumulated in the queue.
94.25% blue intensity: A value corresponding to a 25% displacement value of the blue pixel value accumulated in the queue.
95.50% blue intensity: A value corresponding to the 50% displacement value of the blue pixel value accumulated in the queue.
96.75% blue intensity: A value corresponding to the 75% displacement value of the blue pixel value accumulated in the queue.
97. Maximum blue image intensity: The maximum blue pixel value accumulated in the queue.
[0038]
The eighth family of particle features uses concentric circles and rings to further characterize changes in FFT grading. A central circle is defined on the center of the FFT, with seven rings (in the form of washers) that continuously increase in diameter coaxial with the central circle outside the central circle. The first ring has an inner diameter equal to the outer diameter of the central circle, an outer diameter equal to the inner diameter of the second ring, and so on. The following particle features are calculated from the center circle and 7 rings in the FFT:
98. Center circle average value: Average value of FFT size inside the center circle.
99. Center circle standard deviation: Standard deviation of the FFT size inside the center circle.
100. Ring average value for the center circle: the ratio of the average value of the FFT size inside the first ring to that of the center circle.
101. Ring standard deviation with respect to the center circle: Ratio of the standard deviation of the FFT size inside the first ring to that of the center circle.
102. Ring average value for a circle: the ratio of the average FFT magnitude inside the first ring to that of a circle defined by the outer diameter of that ring.
103. Ring standard deviation for a circle: The ratio of the standard deviation of the FFT magnitude inside the first ring to that of a circle defined by the outer diameter of that ring.
104. Average of rings relative to the ring: that of the ring or center circle having the next smallest diameter after the average FFT size inside the first ring (in the case of the first ring it would be the center circle) To ratio.
105. Standard deviation of the ring relative to the ring: that of the ring or center circle with the next smallest diameter of the FFT size standard deviation inside the first ring (in the case of the first ring it would be the center circle) To ratio.
106-111: Same as features 100-104 except that the second ring is used instead of the first ring.
112-117: Same as features 100-104 except that a third ring is used instead of the first ring.
118-123: Same as features 100-104 except that a fourth ring is used instead of the first ring.
123-129: Same as features 100-104 except that a fifth ring is used instead of the first ring.
130-135: Same as features 100-104 except that a sixth ring is used instead of the first ring.
136-141: Same as features 100-104, except that a seventh ring is used instead of the first ring.
154 to 197 are the same as 98 to 141 except that they are applied to the FFT of the particle image FFT.
[0039]
The last family of particle features has sides equal to 11%, 22%, 33%, 44%, 55%, and 66% of the FFT window size (eg, 128) to further characterize changes in the FFT grading. Use concentric squares. It is affected by the size, shape and texture of the original analyte image. There are two well known texture analysis algorithms that characterize the texture of an FFT. The first is referred to as Vector Dispersion, which is described in Parker pages 165-168, which includes fitting to a plane to teach the region using normals and is incorporated by reference. . The second, referred to as the Surface Curvature Metric, includes fitting a polynomial to that region and is described in Parker pages 168-171, incorporated by reference. The following particle features are calculated from windows of different sizes during the FFT:
142-147: Application of vector distribution algorithm to 11%, 22%, 33%, 44%, 55%, and 66% FFT windows, respectively.
148-153: Application of surface curvature distance function algorithm to 11%, 22%, 33%, 44%, 55%, and 66% FFT windows, respectively.
[0040]
Processing and judgment
Once the aforementioned particle characteristics are calculated, processing rules are applied to determine whether a particle classification or all of the particles in the entire sample are processed. Preferred embodiments capture a low power objective (eg, 10 ×) for performing a low power field (LPF) scan with a larger field of view to capture larger particles, and capture finer details of smaller particles In order to perform a high power field (HPF) scan with greater sensitivity, a particle image is acquired using a high power objective (eg, 40 ×).
[0041]
The system of the present invention utilizes separate multi-neural network decision structures to classify particles captured in LPF and HPF scans. Since most particles of interest are one of the LPF or HPF scans but appear in both, another decision structure minimizes the number of particles of interest that each structure must classify.
[0042]
Neural network structure
FIG. 8 shows the basic neural network structure used for all neural nets in LPF and HPF scans. Each net is an input X corresponding to one of the aforementioned particle features selected for use in the net.1-XdContains an input layer with Each input is a plurality of neurons Z in a hidden layer1-ZjAre connected to each one. These hidden layer neurons Z1-ZjEach sums all values received from the input layer in a weighting manner, so that the actual weight of each neuron can be assigned individually. Each hidden layer neuron Z1-ZjAlso applies a nonlinear function to the weighted sum. Each hidden layer neuron Z1-ZjOutput from the second (output) layer Y of the neuron1-YkAre supplied to each one. Output layer neuron Y1-YkEach also sums the inputs received from the hidden layers in a weighting method and applies a non-linear function to the weighted sum. The output layer neurons provide the output of the net, so the number of these output neurons corresponds to the number of decision classes that the net makes. The number of inputs is equal to the number of particle features selected for input to the net.
[0043]
As will be described later, each net is “trained” to produce accurate results. For each decision made, only the particle features that are appropriate for the determination of the net are selected for input to the net. The training procedure involves changing various weights for the neurons until a satisfactory result is achieved from the net as a whole. In the preferred embodiment, the various nets were trained using Product Version 5.30 NeuralWorks. It is manufactured by Carnegie, Pa's Neural Ware, in particular the extended delta bar delta propagation algorithm. The non-linear function used for all neurons of all nets in the preferred embodiment is a hyperbolic tangent function, where the input range is limited to -0.8 to +0.8 to avoid low slope regions. It is done.
[0044]
LPF scan process
The LPF scanning process is shown in FIG. 6A and begins by obtaining the next particle image (analyte) using a low power objective. Then, a neural net classification method is executed. It includes the process of applying a neural network cascade structure to the analyte image, as shown in FIG. 6B. Each neural network takes a selected subgroup of the calculated 198 particle features described above and calculates a classification probability factor ranging from 0 to 1 where the particles meet the net features. The cascade structure of the net helps to improve the accuracy of each neural net result downstream. This is because, if a particle is classified as having a pre-screened operation because it has or does not have a certain property, each net can essentially be designed more accurately. For system efficiency, all 198 particle features are preferably calculated for each particle image, and then the neural net classification process of FIG. 6B is applied.
[0045]
The first neural net applied to the particle image is an AMOR Classifier Net, which determines whether the particle is amorphous. For the preferred embodiment, this net includes 42 inputs for a selected subset of the 198 particle features described above, 20 neurons in the hidden layer, and 2 neurons in the output layer. . The column referred to as “LPF AMOR2” in the tables of FIGS. 9A-9C shows the number of the above 42 particle features selected for use in this net. The first and second outputs of this net each correspond to the probability of whether the particle is amorphous. The one with the higher probability constitutes the net decision. If the net determines that the particle is amorphous, the particle analysis ends.
[0046]
If it is determined that the particle is not amorphous, the SQEP / CAST / OTHER classification net is applied. It determines whether the particle is a squamous cell (SQEP), a stool cell (CAST), or another type of cell. For the preferred embodiment, this net includes 48 inputs for a selected subset of the 198 particle features described above, 20 neurons in the hidden layer, and 3 neurons in the output layer. . The column labeled “LPF CAST / SQEP / OTHER3” in the tables of FIGS. 9A-9C shows the number of the above 48 particle features selected for use in this net. The first, second, and third outputs of this net correspond to the probability that the particle is feces, SQEP, or another particle type, respectively. Any of the highest probabilities constitutes a net decision.
[0047]
If the particle is determined to be a fecal cell, a CAST Classifier Net is applied. It determines whether the particles are leukocyte clamps (WBCC), amorphous fecal cells (HYAL), or unclassified feces such as pathological fecal cells (UNCC). For the preferred embodiment, this net includes 36 inputs for a selected subset of the 198 particle features described above, 10 neurons in the hidden layer, and 3 neurons in the output layer. . The column labeled “LPF CAST3” in the tables of FIGS. 9A-9C shows the number of the above 36 particle features selected for use in this net. The first, second and third outputs of this net correspond to the probability that the particle is WBCC, HYAL or UNCC. Whichever has the highest probability constitutes a net decision.
[0048]
If it is determined that the particle is a squamous cell, that determination is left alone.
[0049]
If it is determined that the particle is another type of cell, the OTHER Classifier Net is applied. It determines whether the particles are non-squamous cells (NSE), such as liver epithelial cells or transitional epithelial cells, unclassified crystals (UNCX), yeast (YEAST), or mucus (MUCS). For the preferred embodiment, this net includes 46 inputs for a selected subset of the 198 particle features described above, 20 neurons in the hidden layer, and 4 neurons in the output layer. The column referred to as “LPF OTHER4” in the tables of FIGS. 9A-9C shows the number of the above 46 particle features selected for use in this net. The first, second, third and fourth outputs of this net correspond to the probability that the particle is NSE, UNCX, YEAST or MUCS. Whichever has the highest probability constitutes a net decision.
[0050]
Returning to FIG. 6A, once the neural net classification determines the particle type, an avoidance rule technique (ART by Abstention Rule) is applied to determine whether the particle should be classified as an artificial structure. . This is because there is no net that gives a classification probability factor high enough to guarantee particle classification. The avoidance rule technique applied by the preferred embodiment is as follows: if the final classification by net structure is HYAL and the CAST probability is less than 0.98 in the SQEP / CAST / Other net The particles are reclassified as artificial structures. Similarly, if the final classification by net structure is UNCC and the CAST probability is less than 0.95 in the SQEP / CAST / Other net, the particle is reclassified as an artificial structure.
[0051]
The next step shown in FIG. 6A applies to particles that withstand the technique by avoidance rules. If the particles are classified by the net structure as UNCC, HYAL or SQEP, the classification is accepted unconditionally. If the particle is classified as another type of particle, a particle uptake test is applied to determine whether the particle should be classified as an artificial structure. The partial capture test determined whether the particle boundary hits one or more particle image patch boundaries, so only a portion of the particle image was captured by the patch image. The partial capture test of the preferred embodiment basically looks at the pixels that form the boundary of the patch to ensure that they represent background pixels. This is done by collecting cumulative intensity histograms on the patch boundaries and calculating the lower and upper limits of these intensities. The lower limit of the preferred embodiment is the greater of the third value from the bottom of the histogram or the 2% value from the bottom of the histogram, whichever is greater. The upper limit is the larger of the third value from the top of the histogram or the value of 2% from the top of the histogram. A patch image is considered partially captured if the lower limit (eg, pixel intensity having a range from 0 to 255) is less than 185. Similarly, if a patch has an upper limit of 250 or less and a lower limit of less than 200 (this is to handle the case where the circular light in the particle image teaches the patch image boundary), it appears to be a partial capture. . All particles that will survive the partial uptake test maintain their classification and the LPF scanning process is complete.
[0052]
In the preferred embodiment, the partial uptake test is also used as one of the particle features used by some of the neural nets. The feature value is 1 if the particle boundary hits one or more particle image patch boundaries, and 0 otherwise. This particle feature is assigned “0” in FIGS.
[0053]
HPF scanning process
The HPF scanning process is shown in FIG. 7A and begins by obtaining the next particle image (analyte) using a high power objective. Two pre-processing artifact classification steps are performed before submitting the particles to neural net classification. The first pretreatment step begins by defining five size boxes (HPF1-HPF5), corresponding to the smallest box in which each of the particles can fit perfectly. In the preferred embodiment, the smallest box HPF5 is 12 × 12 pixels and the largest box HPF1 is 50 × 50 pixels. All particles corresponding to the HPF5 box are classified as artificial structures and removed from further consideration. This is because these particles are too small for an accurate classification that gives a determination of the system.
[0054]
The second preprocessing step finds all remaining particles corresponding to HPF3 or HPF4. It has a cell area of less than 50 square pixels, is neither long nor thin, and classifies them as artificial structures. This second preprocessing step combines the size and aspect ratio criteria. It removes smaller particles that tend to be round. Once a particle corresponding to a cell area of less than 50 square pixels is isolated in an HPF3 or HPF4 box, each such particle will be artificial if it meets one of the following two criteria: Classified as a structure. First, if the square around the particle separated by the particle area is less than 20, the particle is neither long nor thin and is classified as an artificial structure. Second, if the ratio of the eigenvalues of the variance matrix of X and Y moments (also called the stretch value) is less than 20, the particles are not long or thin and are classified as artificial structures.
[0055]
The particle image that has survived the two pre-processing steps described above comprises the neural network cascade structure shown in FIG. 7B. Each neural network takes a selected subgroup of the above calculated 198 particle features and calculates a classification probability factor ranging from 0 to 1 where the particles meet the criteria of the net. As with the net cascade structure, this helps to improve the accuracy of each neural net result downstream, and preferably all of the 198 particle features are for each particle image before the HPF scan begins. Is calculated.
[0056]
The first neural net applied to the particle image is an AMOR classification net, which determines whether the particle is amorphous. For the preferred embodiment, this net includes 50 inputs for a selected subset of the 198 particle features described above, 10 neurons in the hidden layer, and 2 neurons in the output layer. . The column referred to as “LPF AMOR2” in the tables of FIGS. 9A-9C shows the number of the above 50 particle features selected for use in this net. The first and second outputs of this net each correspond to the probability of whether the particle is amorphous. The one with the higher probability constitutes the net decision. If the net determines that the particle is amorphous, the particle analysis ends.
[0057]
If it is determined that the particle is not amorphous, a Round / Not Round classification net is applied. It determines whether the particle shape exhibits a predetermined amount of a circle. For the preferred embodiment, this net includes 39 inputs for a selected subset of the 198 particle features described above, 20 neurons in the hidden layer, and 2 neurons in the output layer. . The column referred to as “HPF ROUND / NOT ROUND2” in the tables of FIGS. 9A-9C shows the number of the above 39 particle features selected for use in this net. The first and second outputs of this net correspond to the probability that the particle is “round” or not. Either of the highest probabilities constitutes a net decision.
[0058]
If the particle is determined to be “round”, a Round Cells Classifier Net is applied. It determines whether the particles are red blood cells (RBC), white blood cells (WBC), non-squamous cells (NSE) such as liver epithelial cells or transitional epithelial cells, or yeast (YEAST). For the preferred embodiment, this net includes 18 inputs for a selected subset of the 198 particle features described above, 3 neurons in the hidden layer, and 3 neurons in the output layer. . The column referred to as “HPF Round 4” in the tables of FIGS. 9A-9C shows the number of the above 18 particle features selected for use in this net. The first, second, third and fourth outputs of this net correspond to the probability that the particle is RBC, WBC, NSE or YEAST. Whichever has the highest probability constitutes a net decision.
[0059]
If it is determined that the particle is not “round”, a Not Round classification net is applied. It applies the Round Cells Classifier Net. It consists of non-squamous cells (NSE) such as red blood cells (RBC), white blood cells (WBC), liver epithelial cells or transitional epithelial cells, unclassified crystals (UNCX), yeast (YEAST), sperm (SPRM) Or it is determined whether it is bacteria (BACT). For the preferred embodiment, this net includes 100 inputs for a selected subset of the 198 particle features described above, 20 neurons in the hidden layer, and 7 neurons in the output layer. . The column referred to as “HPF NOT Round7” in the tables of FIGS. 9A-9C shows the number of the above 100 particle features selected for use in this net. The output of 7 in this net corresponds to the probability that the particle is RBC, WBC, NSE, UNCX, YEAST, SPRM or BACT. Any of the highest probabilities constitutes a net decision.
[0060]
Returning to FIG. 7A, once the neural net classification determines the particle type, an avoidance rule technique is applied to determine whether the particle should be classified as an artificial structure. This is because there is no net that gives a classification probability factor high enough to guarantee particle classification. The avoidance rule technique applied by the preferred embodiment reclassifies the four particle types as artificial structures if certain criteria are met. First, if the final classification by net structure is yeast and the YEST probability is less than 0.9 in the Not Round Cells classification net, the particle is reclassified as an artificial structure. Second, if the final classification by the net structure is NSE and the NSE probability is less than 0.9 in the Round Cells classification net or the round probability is less than 0.9 in the Round / Not Round classification net, The particles are reclassified as artificial structures. Third, if the final classification by the net structure is not round NSE and the NSE probability is less than 0.9 in the Not Round Cells classification net, the particle is reclassified as an artificial structure. Fourth, if the final classification by net structure is UNCX and UNCX probability is less than 0.9 in Round Cells classification net or round probability is less than 0.9 in Round / Not Round classification net, The particles are reclassified as artificial structures.
[0061]
The next step shown in FIG. 7A is a partial uptake test, which applies to all particles that withstand the technique with avoidance rules. The partial uptake test determines whether a particle boundary should be classified as an artificial structure. This is because the particle boundary hits one or more particle image patch boundaries, and therefore only a portion of the particle image is captured by the patch image. Similar to the LPF scan, the partial capture test of the preferred embodiment basically looks at the pixels that form the boundary of the patch to ensure that they represent the background pixels. This is done by collecting cumulative intensity histograms on the patch boundaries and calculating the lower and upper limits of these intensities. The lower limit of the preferred embodiment is the greater of the third value from the bottom of the histogram or the 2% value from the bottom of the histogram, whichever is greater. The upper limit is the larger of the third value from the top of the histogram or the value of 2% from the top of the histogram. A patch image is considered partially captured if the lower limit (eg, pixel intensity having a range from 0 to 255) is less than 185. Similarly, a patch is considered partial capture if the upper limit is less than 250 and the lower limit is less than 200 to handle the case where the circular light of the particle image teaches the patch image boundary.
[0062]
All particles that withstand partial uptake tests maintain their classification. All particles that appear to be partial uptake are further subject to the technique of partial uptake rules, which reclassifies such particles as artificial structures if any of the following six criteria are met.
1. If it corresponds to the HPF1 size box.
2. If it was not classified as either RBC, WBC, BYST or UNCX.
3. If it was classified as an RBC, it would correspond to an HPF2 size box, or if it had a stretch value greater than 5.0.
4). If it was classified as WBC and had a stretch value of 5.0 or greater.
5). If it is classified as UNCX and has a stretch value greater than 10.0.
6). If it was classified as BYST and had a stretch value of 20.0 or greater.
If none of these six criteria is met by the particle image, neural net classification is allowed to be valid even if the beginning is considered partial acquisition, and the HPF scan process is complete. These six rules were chosen to continue partial classification decisions when partial capture does not distort the neural net decision process, but to remove particles where partial capture leads to wrong decisions. .
[0063]
In order to best determine which features should be used for each of the above mentioned neural nets, the feature values input to any given neural network are changed one by one from a smaller amount and the neural network output This is recorded. The feature with the greatest effect on the output of the neural network should be used.
[0064]
Post-processing decision
Once all particle images are classified by partial type, a post-determination process is performed to further increase the accuracy of the classification results. This process takes into account the set of results and removes the classification results that are not considered reliable as a whole.
[0065]
A user-configurable concentration threshold is a type of post-determination process that establishes a noise level threshold for all results. These thresholds can be set by the user. If the neural net classification image concentration is less than the threshold, all particles in the category are reclassified as artifacts. For example, if an HPF scan finds only a few RBCs of all samples, these are incorrect results and these particles are reclassified as artifacts.
[0066]
Excessive amorphous detection is another post-decision process that throws away suspicious results if too many particles are classified as amorphous. In the preferred embodiment, if there are 10 or more non- irregular HPF patches and more than 60% of them are classified as irregular by the neural network, the results of all samples are discarded as unreliable.
[0067]
The preferred embodiment also includes a clear filter of many LPF errors, which discards inconsistent or suspicious results. Unlike HPF particles, LPF artifacts have all shapes and sizes. In many cases, it is not possible to discriminate LPF artifacts from true clinically important analytes with system decisions. In order to reduce false realities for LPF artifacts, many filters are used to look at the aggregate decisions made by the net, throwing away those results that just don't make sense. For example, if the HPF WBC count is less than 9, then all LPF WBCCs should be reclassified as artifacts because leukocyte clamps are probably not present unless enough white blood cells are found. Furthermore, the detection of just a few particles of a certain type should be ignored because it is unlikely that there will be such a small number of these particles. In preferred embodiments, the system comprises 3 or more LPF UNCX detection particles, or 2 or more LPF NSE detection particles, or 3 or more LPF MUC detection particles, or 2 or more HPF SPRM detection particles, or 3 or more LPF YEAST. The detection particles must be found. If these thresholds are not met, each particle is reclassified as an artificial structure. In addition, there must be at least two HPF BYST detection particles in order to receive any LPF YEAST detection particles.
[0068]
Neural network training and selection
Each neural network is trained using a pre-classified image training set. In addition to the training set, a second smaller set of pre-classified images is reserved as a test set. In the preferred embodiment, the commercial program “NeuralWare” published by NeuralWorks is used to perform training. The training ends when the average error of the test set is minimized.
[0069]
This process is repeated for multiple starting seeds and net structures (ie, hidden layers and number of elements in each layer). The final choice is based on satisfying constraints on errors between specific classes as well as the overall average error rate. For example, it is undesirable to distinguish squamous cells from pathological feces. This is because squamous epithelial cells usually occur in female urine specimens, whereas pathological feces present an abnormal situation. Therefore, the preferred embodiment helps nets with SQEP at UNCC error rates less than 0.03 at the expense of more misclassification of UNCC as SQEP. This situation somewhat reduces the sensitivity of UNCC detection, but minimizes false realities in female specimens. It disables the system with a sufficiently high frequency of occurrence, since a high percentage of female urine samples are called abnormal. Therefore, it is desirable to construct this selection criterion for net training using a method that takes into account the cost of a particular error rate in selecting the “optimal” net, as well as minimizing the front-back difference rate.
[0070]
As can be seen from the foregoing, the method and apparatus of the present invention differs from the prior art in the following aspects. In the prior art, at each processing stage, the particles are classified with the remaining unclassified particles taking into account artifacts or unknowns. In order to minimize particle classification as an artifact or unknown, the range of values for classification in the etch stage is large.
[0071]
In contrast, the range of values for classification in the etch stage of the present invention is narrow, resulting in only particles with a greater probability of being so classified, the remainder for further processing with respect to the pretreatment stage. Classification in The multi-net structure of the present invention can be used to divide a decision space by particle attributes or physical properties (eg, its circular shape) and / or by dividing individual and group particle classifications including unknown categories. Use subgroups. This divided the decision space. It creates a probability factor in each decision and uses the available information more effectively. The need is limited, allowing this information to be used to produce the same number of overall decisions but with fewer possible outcomes at each stage. Pre-processing and post-processing allow learning information to be included as part of the decision process. Post-processing allows the use of contextual information, either available from other sources or collected from the actual decision process, to further process the probability factor and improve the decision. The use of neural network certainty measures the image to avoid classes, ie, artificial structures, at a number of processing power stages. In a sense, this multi-neural approach can be seen as forcing image data to run a gauntlet that is likely to be placed in the “I don't know” category at each stage of the gauntlet. This is much more powerful than simply running through a single net. Because, in essence, what is achieved is multiple adaptations of data to a template that is much better defined than a single template can, which allows for efficient use of information. Another way of thinking about this is that data in different subspaces is analyzed, requiring that subspace or other characteristics that it falls from the feature, in a way that fits perfectly or well enough. Is done. The training method of the present invention involves selecting from many nets and reducing the feature vector size rather than just one pass through the training set. A high number of features themselves increases the accuracy of the system, each focusing on a specific set of physical properties.
[0072]
It is to be understood that the invention is not limited to the embodiments shown herein above, but includes any and all modifications within the scope of the appended claims. Therefore, although the invention will be described with respect to the classification of images of biological samples, it will also be understood to include image analysis for any image that has features that can be extracted and used to classify the images. I want. For example, the present invention can be used for face recognition. Features are the shape, size, position and dimensions of eyes, nose, mouth, etc., or more general features such as face shape and size, so that facial images can be identified and classified into pre-determined categories Can be extracted to identify and classify.
[Brief description of the drawings]
FIG. 1 is a flow diagram illustrating a method of the present invention.
FIG. 2 is a schematic view of the apparatus of the present invention.
FIGS. 3A and 3B are flow diagrams illustrating boundary enhancement of the present invention.
FIG. 4 is a diagram illustrating symmetrical feature extraction of the present invention.
5A-5D are diagrams showing skeletonization of various shapes.
FIG. 6A is a flowchart showing LPF scan processing of the present invention.
FIG. 6B is a flowchart of neural network classification used in the LPF scan processing of the present invention.
FIG. 7A is a flowchart showing HPF scan processing of the present invention.
FIG. 7B is a flowchart of neural network classification used in the HPF scan processing of the present invention.
FIG. 8 is a schematic diagram of a neural network used in the present invention.
FIGS. 9A-9C are tables showing particle features used in various neural networks in the LPF and HPF scan processing of the present invention. FIGS.

Claims (10)

個々の人間の尿サンプルに含まれる生物学的粒子を検出し、該生物学的粒子を前記粒子のイメージの形状、対称性、骨格化、大きさ、光吸収特性、および、きめの複数の特徴に基づき、非扁平上皮細胞、分類されない結晶、粘膜、精子、酵母、発芽酵母、白血球凝集塊、および、白血球のクラスを含む複数の異なった最終的な分類クラスに分類する画像装置であって:
粒子のイメージから複数の特徴を抽出する手段と;
粒子のクラスへの割り当ての第1の量的決定をするため、前記抽出された特徴の第1サブグループを選択して処理する手段と;
前記粒子が属する最終的な分類クラスを決定するため、前記抽出された特徴の第2サブグループを選択して処理する手段であって、該第2サブグループは前記第1サブグループに依存して選択される、手段と;
それぞれの最終的な分類クラスの粒子の数を数える手段と;
最終的な分類が非扁平上皮細胞、分類されない結晶、粘膜、精子、酵母のいずれかである場合には選択された最終的な分類クラスに対する所定の分類クラスカウントの閾値と数えられたそれぞれの数との比較に基づき、また、最終的な分類クラスが白血球凝集塊である場合には白血球である別の最終的な分類クラスに対する所定の分類クラスカウントの閾値と該別の最終的な分類クラスで数えられた数との比較に基づき、選択された最終的な分類クラスで数えられた粒子の最終的な分類を許容または拒絶する手段とを備える;
画像装置。
Detecting biological particles contained in individual human urine samples, the biological particles being characterized by the shape, symmetry, skeletonization, size, light absorption characteristics, and texture of the particles An imaging device that classifies into a plurality of different final classification classes, including non-squamous epithelial cells, unclassified crystals, mucous membranes, sperm, yeast, budding yeast, leukocyte aggregates, and leukocyte classes:
Means for extracting a plurality of features from a particle image;
Means for selecting and processing the first subgroup of extracted features to make a first quantitative determination of assignment of particles to classes;
Means for selecting and processing a second subgroup of the extracted features to determine a final classification class to which the particles belong, the second subgroup depending on the first subgroup Selected, means;
A means of counting the number of particles in each final classification class;
If the final classification is non-squamous cells, unclassified crystals, mucous membranes, sperm, or yeast, the predetermined classification class count threshold for the selected final classification class and the respective number counted And if the final classification class is a leukocyte aggregate, the threshold of the predetermined classification class count for another final classification class that is a white blood cell and the other final classification class Means for accepting or rejecting the final classification of the particles counted in the selected final classification class based on the comparison with the counted number;
Imaging device.
前記第1サブグループを選択して処理する手段は、前記粒子が属する分類クラスの複数のグループのうちのいずれかの1つに決定するようになされ、
前記第2サブグループを選択して処理する手段は、前記決定された分類クラスのグループに基づいて第2サブグループを選択するようになされることを特徴とする;
請求項1の画像装置。
The means for selecting and processing the first subgroup is adapted to determine any one of a plurality of groups of classification classes to which the particles belong;
Means for selecting and processing the second subgroup is adapted to select a second subgroup based on the group of the determined classification class;
The image apparatus according to claim 1.
前記第1サブグループを選択して処理する手段と前記第2サブグループを選択して処理する手段とは、それぞれの決定が確率因子を割り当てることを含むようになされ、該粒子を分類するのに用いられた確率因子の1つまたは複数が所定の閾値を超えない場合には、決定された分類クラスを人為構造分類に変更する手段を含むことを特徴とする;
請求項1または2の画像装置。
The means for selecting and processing the first subgroup and the means for selecting and processing the second subgroup are such that each decision includes assigning a probability factor to classify the particles. Including means for changing the determined classification class to an artificial classification if one or more of the used probability factors does not exceed a predetermined threshold;
The image apparatus according to claim 1 or 2.
前記粒子の所定の物理的特性に基づいて前記粒子が人為構造であるかを決定する人為構造手段を有することを特徴とする;
請求項1、2または3の画像装置。
Having artificial structure means for determining whether the particle is an artificial structure based on predetermined physical properties of the particle;
The image device according to claim 1, 2 or 3.
前記人為構造手段は、粒子のイメージの境界が前記粒子のイメージを含むイメージパッチの境界と交差するかを決定する手段と、前記粒子のイメージの境界とイメージパッチの境界が交差すると決定された場合に決定された分類クラスを人為構造分類に変更する手段とを含むことを特徴とする;
請求項4の画像装置。
The artificial structure means determines if a particle image boundary intersects a boundary of an image patch containing the particle image; and if the particle image boundary and the image patch boundary are determined to intersect Means for changing the determined classification class into an artificial structure classification;
The image device according to claim 4.
前記第1サブグループを選択して処理する手段と前記第2サブグループを選択して処理する手段とは、複数のニューラルネットを備える;
請求項1ないし5のいずれか1項の画像装置。
Means for selecting and processing the first subgroup and means for selecting and processing the second subgroup comprise a plurality of neural networks;
The image device according to claim 1.
粒子のテストセットとともに既知粒子の訓練セットを用いて、抽出された特徴のサブグループを選択して処理することによって、前記ニューラルネットを訓練する手段を有することを特徴とし、
前記ニューラルネットを訓練する手段は、粒子のテストセットの分類クラスの決定の正解率が予め決められた値に達するまでニューラルネットを繰返し訓練する;
請求項6の画像装置。
Comprising means for training the neural network by selecting and processing sub-groups of extracted features using a training set of known particles together with a test set of particles,
The means for training the neural network iteratively trains the neural network until the correct rate of determination of the classification class of the test set of particles reaches a predetermined value;
The image device according to claim 6.
前記抽出する手段は、
粒子のイメージの重心を横切る第1の線分を画定する手段と;
前記第1の線分に沿うポイントについて、反対方向に前記第1の線分から直交して離れるように延在する第2の線分と第3の線分を画定する手段と;
前記粒子のイメージの抽出された対称性の特徴を計算するために、前記第2の線分と前記第3の線分の長さの差を利用する手段とを含むことを特徴とする;
請求項1ないし7のいずれか1項の画像装置。
The means for extracting is
Means for defining a first line segment across the centroid of the image of the particle;
Means for defining a second line segment and a third line segment that extend perpendicularly away from the first line segment in opposite directions at a point along the first line segment;
Means for using the difference between the lengths of the second line segment and the third line segment to calculate the extracted symmetry feature of the image of the particles;
The image device according to claim 1.
前記抽出する手段は、1つまたは複数の線分を形成するために、前記粒子のイメージの境界を直交方向に潰す手段を備える;
請求項1ないし8のいずれか1項の画像装置。
The means for extracting comprises means for squashing the boundaries of the image of the particles in an orthogonal direction to form one or more line segments;
The image device according to claim 1.
前記複数の抽出された特徴の少なくとも一つは粒子の前記イメージの空間的分布の測定であり、前記複数の抽出された特徴の少なくとも他の一つは粒子の前記イメージの空間的周波数領域の測定であることを特徴とする;
請求項1ないし9のいずれか1項の画像装置。
At least one of the plurality of extracted features is a measurement of a spatial distribution of the image of particles, and at least another of the plurality of extracted features is a measurement of a spatial frequency domain of the image of particles. Is characterized by:
The image device according to claim 1.
JP2001579226A 2000-04-24 2001-04-24 Multi-neural network image apparatus and method Expired - Lifetime JP4945045B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US19923700P 2000-04-24 2000-04-24
US09/841,941 US6947586B2 (en) 2000-04-24 2001-04-24 Multi-neural net imaging apparatus and method
PCT/US2001/013451 WO2001082216A1 (en) 2000-04-24 2001-04-24 Multi-neural net imaging apparatus and method

Publications (3)

Publication Number Publication Date
JP2004505233A JP2004505233A (en) 2004-02-19
JP2004505233A5 JP2004505233A5 (en) 2008-06-05
JP4945045B2 true JP4945045B2 (en) 2012-06-06

Family

ID=46149960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001579226A Expired - Lifetime JP4945045B2 (en) 2000-04-24 2001-04-24 Multi-neural network image apparatus and method

Country Status (6)

Country Link
JP (1) JP4945045B2 (en)
AT (1) ATE434799T1 (en)
AU (1) AU2001257299A1 (en)
CA (1) CA2377602C (en)
DK (1) DK1301894T3 (en)
ES (1) ES2328450T3 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0218909D0 (en) * 2002-08-15 2002-09-25 Qinetiq Ltd Histological assessment
JP5321145B2 (en) 2009-03-04 2013-10-23 日本電気株式会社 Image diagnosis support apparatus, image diagnosis support method, image diagnosis support program, and storage medium thereof
ES2388169B1 (en) * 2010-02-25 2013-08-19 Universidad De León ARTIFICIAL VISION PROCEDURE FOR THE DETECTION OF DISTAL CYTOPLASMATIC DROPS IN ESPERMATOZOIDS.
JP6092132B2 (en) * 2014-01-29 2017-03-08 シスメックス株式会社 Blood cell analyzer
WO2018039216A1 (en) 2016-08-22 2018-03-01 Iris International, Inc. System and method of classification of biological particles
JP2021526864A (en) * 2018-06-13 2021-10-11 パターン バイオサイエンス インコーポレイテッド Compositions and Methods for Cell Phenotyping Assessment of Samples Using Localized Capacity Arrays
EP3859304A4 (en) * 2018-09-27 2022-06-15 HORIBA, Ltd. Method for generating data for particle analysis, program for generating data for particle analysis, and device for generating data for particle analysis

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03131756A (en) * 1989-10-18 1991-06-05 Hitachi Ltd Automatic classifying device for blood cell
JPH07286954A (en) * 1994-04-19 1995-10-31 Hitachi Ltd Cell automatic classification device
JP3050046B2 (en) * 1994-07-18 2000-06-05 株式会社日立製作所 Automatic particle classification system
JPH0991430A (en) * 1995-09-27 1997-04-04 Hitachi Ltd Pattern recognition device
JPH10302067A (en) * 1997-04-23 1998-11-13 Hitachi Ltd Pattern recognition device
JPH11132984A (en) * 1997-10-24 1999-05-21 Fuji Electric Co Ltd Method for manufacturing detection element for gas sensor
JPH11132932A (en) * 1997-10-29 1999-05-21 Hitachi Ltd System for classifying particle image on organism and method for reclassifying particle

Also Published As

Publication number Publication date
ES2328450T3 (en) 2009-11-13
CA2377602A1 (en) 2001-11-01
DK1301894T3 (en) 2009-08-24
AU2001257299A1 (en) 2001-11-07
CA2377602C (en) 2012-04-10
ATE434799T1 (en) 2009-07-15
JP2004505233A (en) 2004-02-19

Similar Documents

Publication Publication Date Title
US6947586B2 (en) Multi-neural net imaging apparatus and method
US7236623B2 (en) Analyte recognition for urinalysis diagnostic system
CN109952614B (en) Biological particle classification system and method
Amin et al. Recognition of acute lymphoblastic leukemia cells in microscopic images using k-means clustering and support vector machine classifier
JPS6171337A (en) Device and method for detecting and sorting particle using flow sight metry method
JP2011527055A (en) Mitotic image detection device and counting system, and method for detecting and counting mitotic images
US8068132B2 (en) Method for identifying Guignardia citricarpa
WO2013037119A1 (en) Device and method for erythrocyte morphology analysis
Rad et al. Classification of rice varieties using optimal color and texture features and BP neural networks
Rahman et al. Automatic detection of white blood cells from microscopic images for malignancy classification of acute lymphoblastic leukemia
GB2093586A (en) Apparatus for classification of cells
Bhuiyan et al. Automatic acute lymphoblastic leukemia detection and comparative analysis from images
CN113435460A (en) Method for identifying brilliant particle limestone image
Ferdosi et al. White blood cell detection and segmentation from fluorescent images with an improved algorithm using k-means clustering and morphological operators
JP4945045B2 (en) Multi-neural network image apparatus and method
JP7326316B2 (en) Method for detecting cells with at least one abnormality in a cytological sample
Athira et al. Automatic detection of diabetic retinopathy using R-CNN
EP1301894B1 (en) Multi-neural net imaging apparatus and method
Ruberto et al. A leucocytes count system from blood smear images.
US20220058371A1 (en) Classification of cell nuclei
Chaugule et al. Seed technological development—a survey
Prabu et al. PSO for acute lymphoblastic leukemia classification in blood microscopic images
Wu et al. Quantification of Tobacco Leaf Appearance Quality Index Based on Computer Vision
GB2486398A (en) Method of classifying cell nuclei using binary boosted classifiers
Tello-Mijares Abnormal cervical cell nuclei identification using Spatial-Context-Saliency regions and two-level cascade classifiers

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110627

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120305

R150 Certificate of patent or registration of utility model

Ref document number: 4945045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term