JP2004535569A - Computer techniques for image pattern recognition of organic matter. - Google Patents

Computer techniques for image pattern recognition of organic matter. Download PDF

Info

Publication number
JP2004535569A
JP2004535569A JP2003500820A JP2003500820A JP2004535569A JP 2004535569 A JP2004535569 A JP 2004535569A JP 2003500820 A JP2003500820 A JP 2003500820A JP 2003500820 A JP2003500820 A JP 2003500820A JP 2004535569 A JP2004535569 A JP 2004535569A
Authority
JP
Japan
Prior art keywords
tissue
type
image
calculated
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003500820A
Other languages
Japanese (ja)
Inventor
グレンナ、 シー バーマー、
クリストファー、 エイ チャーチャ、
Original Assignee
ライフスパン バイオサイエンシズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ライフスパン バイオサイエンシズ インコーポレイテッド filed Critical ライフスパン バイオサイエンシズ インコーポレイテッド
Publication of JP2004535569A publication Critical patent/JP2004535569A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts

Abstract

【課題】パターンにかかる特徴が検出される組織検体のために、組織学者及び/又は病理学者によって行われる種々の機能を、自動化された方法で実行する専門装置を提供すること。
【解決手段】有機体物質に固有の反復パターンために最適化された画像認識のための専門装置及びソフトウェア方法。係る方法は、各画素のために8の有効なビットの精度を有する強度値を有する二次元格子状画素を横切るパラメータを計算する(1次元走査とは異なる。)ことによって達成される。パラメータは、各パラメータのための神経ネットワークであって各神経ネットワークが、認識されるべき組織、構造又は細胞核を表す画像で訓練され、また、認識されるべき物質を含まないと表されることの可能性を有する画像で訓練された複数の神経ネットワークに供給される。次いで、各神経ネットワークは、未知の物質と、神経ネットワークが訓練された既知の物質との類似性の測定値を出力する。複数の神経ネットワークの出力は、関係づけ決定行列によって集められる。神経サブネットワークは、入力データにおける各確認されたモードのデータ低下のために用いられる。
【選択図】図5
A specialized apparatus for performing various functions performed by a histologist and / or pathologist in an automated manner for a tissue specimen in which features associated with a pattern are detected.
A specialized apparatus and software method for image recognition optimized for repetitive patterns specific to organic matter. Such a method is achieved by calculating a parameter across a two-dimensional grid of pixels having an intensity value with a precision of eight valid bits for each pixel (as opposed to a one-dimensional scan). The parameters are the neural networks for each parameter, wherein each neural network is trained with images representing the tissue, structure or cell nucleus to be recognized and is described as containing no material to be recognized. Provided to multiple neural networks trained with potential images. Each neural network then outputs a measure of the similarity between the unknown substance and the known substance from which the neural network was trained. The outputs of the plurality of neural networks are collected by an association decision matrix. The neural sub-network is used for data reduction of each identified mode in the input data.
[Selection diagram] FIG.

Description

【技術分野】
【0001】
関連出願の相互参照
本願は、2001年4月9日に仮出願した米国特許仮出願第60/282,677号及び2001年8月7日に仮出願した米国特許仮出願第60/310,774号を基礎として優先権を主張するものである。これら及び本願明細書に記載の他のすべての参考文献を、該参考文献が本願明細書のいずれの箇所に記載されているか否かにかかわらず、それらのすべての教示及び開示のために、そのまま本願に参考文献として組み入れる。
【背景技術】
【0002】
人の脳は極めて優れた画像処理装置として機能する。広範な訓練及び経験の結果、人体組織学者は、何百という種類の組織タイプすなわち組織型の弁別可能の特徴を顕微鏡を通して又は画像や映像(以下「画像」という。)から認識し、各型の組織の要素又は成分である構造、基礎構造、細胞型及び細胞核の弁別可能の特徴を確認することを習得する。組織についてのこれらの固有パターン又は特性パターンの観察を繰り返すことによって、人の脳は、観察から得られた知識を普遍化し、新たな検体又は画像において、組織型、組織構造、組織基礎構造、細胞型及び細胞核型を正確に分類する。
【0003】
さらに、人体病理学者は、正常の組織の外観と、検体内の特定の細胞、構造又は基礎構造の外観又は組織の全体的な外観を変える1以上の病気又は疾患の影響を受けた組織の外観とを識別することを習得する。広範な訓練及び経験によって、人体病理学者は、各組織型に関連づけられた多くの種類の病気又は疾患を識別し、分類することを習得する。
【0004】
また、特定の組織成分が可視の分子を含むか又は顕微鏡を通してもしくは画像から弁別可能の色を表す化学的手法を用いて特色づけられた分子を含むとき、人は、この特定の組織成分の存在に気づき、その成分が現れる細胞型又は他の組織成分を確認することができる。
【発明の開示】
【課題を解決するための手段】
【0005】
本発明に係るコンピュータ手法は、パターンにかかる特徴が検出される組織検体のために典型的には前記したような組織学者及び/又は病理学者によって行われる種々の機能を、自動化された方法(以下「自動化方法」という。)で実行する専門装置を含む。前記専門装置は、前記組織検体の画像を分析する装置及び方法であって、(1)前記試料の型を分類し、(2)指定された組織構造、組織基礎構造又は細胞核型がどこに存在するかを決定し、(3)前記画像中の前記組織構造、組織基礎構造又は細胞核を視認可能の標識化又は画素座標で確認し、(4)前記画像中の特定の位置における前記構造型、基礎構造型、細胞型及び組織成分の細胞核を分類する装置及び方法を含む。さらに、この自動化された装置(以下「自動化装置」という。)及び方法は、細胞核又は特定の細胞型の外観の変化、組織構造又は組織基礎構造の外観の変化、又は組織の全体的な外観の変化に基づいて前記組織成分を正常又は異常(例えば、病気又は疾患)であると分類することができる。また、前記装置及び方法は、弁別可能の分子を含む被探求成分(被探求要素)が前記検体に現れる位置を分類し、被探求成分を含む細胞型の分類及び前記成分が前記細胞核に存在する位置の分類ばかりでなく、前記組織型、組織構造及び組織基礎構造をも分類することができる。
【0006】
組織学者及び/又は病理学者の俸給に関連する費用を低減するという利点に加え、本発明に係る装置及び方法は、1時間当たりに極めて多くの前記分析を実行するように調整可能である。これにより、前記装置及び方法は、例えば、薬又は他の結合された化合物が存在する有機体、特定の遺伝子配列産物が存在する有機体、又は特定の組織成分が局在化された有機体の組織成分を確認することが実行可能である。本発明に係る装置及び方法は、1組の組織検体を有する有機体の何万もの化合物又は遺伝子配列を選別するように調整可能である。このような情報を組織学者及び/又は病理学者の助けによって集めることはできるが、それにかかる費用は高く、費用を問わない場合であっても、そのような分析に要する時間は許容時間内で計画を遂行することの妨げになろう。
【0007】
本発明に係る装置及び方法は、画像パターン認識の能力又は機能を用いて、有機体の組織の一部として互いに関連して固定された多くの細胞の特徴を示す画像についての情報を知る。それは、組織に固定された細胞又は細胞内の原組織から分離された細胞のために、細胞核の表面の外観における二次元的に横切るパターンを認識することもできる。本発明に係る装置及び方法は、植物及び動物を含む任意の種類の有機体からの細胞のために用いられる。この装置及び方法の1つの価値は、自動化された人体組織分析にある。係る装置及び方法は、検体内の組織型、組織構造、組織基礎構造、細胞型及び細胞核の特性を確認し、分類するための手法を、画像取込装置及びコンピュータによって自動化する機能を提供する。画像取込装置は、2又は3の空間的範囲で試料を走査することを含む任意の装置又は手法を含み、組織試料の特徴を示す高解像度の画像を取り込む任意の装置とすることができる。
【0008】
自動化された生体組織学
【0009】
組織学者によって用いられる手法は、互いに固定された関係にある多くの細胞を含む組織試料を凝視すること、及び、組織内に発生するパターンを確認することを含む。種々の組織型は、多くの細胞、細胞群及び/又は多くの細胞型を含む弁別可能のパターンを生じる。種々の組織構造及び組織基礎構造もまた、多くの細胞及び/又は多くの細胞型を含む弁別可能のパターンを生じる。組織内の組織型、組織構造、組織基礎構造を確認するために、細胞間パターンが、組織学者によって用いられるように前記専用装置によって用いられる。自動化装置及び方法によるこれらの特性の認識は、試料内の個々の細胞核、細胞又は細胞型の確認を必要としないが、確認は前記方法の同時利用の支援を受けることが可能である。
【0010】
前記自動化装置及び方法は、多くの細胞を横切る細胞型の互いの関係から、細胞型と他の細胞型との関係から、又は細胞型の核の外観から、検体内の個々の細胞型を確認することができる。組織型、組織構造及び組織基礎構造を確認するために用いられる方法と同様の方法によって、本発明に係る装置は、試料内の個々の細胞型を確認するために細胞核の画像の少なくとも2つの空間的範囲を横切るパターンを分析する。
【0011】
複数の細胞パターンの分析を繰り返すことによってコンピュータ装置及び方法が組織成分を認識することができるように、組織内で生じる多くの細胞に係る特徴は、画像から検出可能でなければならない。細胞核型を認識するために、前記装置は、細胞核の画像を横切るパターンを調べる。組織型、調査の対象である細胞型、及び画像を形成する方法によって、試料の染色を望んでもよいし、望まなくてもよい。いくつかの組織成分は、染色なしで十分に検出可能である。
【0012】
光学レンズを通して受けた可視光は、画像を形成するための1つの方法である。しかし、他の周波数の電磁放射線を用いる方法、X線束のような高合焦ビームで走査する方法、又は電子顕微鏡を用いる方法を含む、十分に高い解像度を有する十分に大きな画像を取り込む他の任意の手法又は方法を用いることもできる。
【0013】
一例において、組織試料は、従来の方法によって、薄く切られ、顕微鏡用スライドに取り付けられる。これに代えて、組織内の複数の細胞の画像を、検体から組織を除去することなく形成するようにしてもよい。例えば、皮膚組織を除去することなく人の皮膚の細胞構造を表すことができる顕微鏡がある。また、消化管又は胃腸管の壁、肺、血管及び内視鏡に接近可能の他の内部領域の細胞構造を表すことができる内視鏡型顕微鏡がある。同様に、浸入的な探針(以下「プローブ」という。)は、人体組織内に挿入して生体内画像を形成するために用いることができる。画像分析法と同じ方法を、これらの方法を用いて収集された画像について適用することができる。他の生体内画像形成方法については、該方法によって複数の細胞の画像の特徴を識別するか又は細胞核の表面のパターンを十分な解像度で識別することができる場合には、その方法を用いることもできる。そのような方法には、CTスキャンを用いる方法、MRIを用いる方法、超音波を用いる方法又はPETスキャンを用いる方法が含まれる。
【0014】
組織から画像が形成されると、各画像のための1組のデータは、典型的には、コンピュータ装置に記憶される。一例において、少なくとも、1画素当たり全24ビットの情報を得るために、1画像当たり約100万の画素と各画素の3色の各色のための256種類の強度レベルとが各画像のために記憶される。この量のデータから組織型、組織構造及び細胞核型を確認すべくコンピュータを用いるために、各画素のために全範囲の256の強度値を用いて、少なくとも2つの空間的範囲を横切る前記データ内のパターンを探すことによって前記データの量を低減するために前記データからパラメータが計算される。パラメータが計算されれば、画像のパラメータを表すために必要な量のデータは、原画像の内容に比べて極めて小さい。したがって、パラメータ計算手法により、被対象情報は維持され、画像内に含まれる残りの情報は捨てられる。
【0015】
多くのパラメータが各画像から計算される。この手法を用いて、各組織型、組織構造、組織基礎構造及び細胞核型のために識別付与又は印付け(signature)をすることができ、この情報は、専門装置による使用のための知識の基礎に組み込むことができ、好ましくは、1組の神経ネットワークを用いことである。この専門装置を用いて、未知の画像からの各パラメータ内に含まれたデータは、組織型、組織構造、組織基礎構造、細胞型又は細胞核特性が既知である他の画像から予め計算された、対応するパラメータと比較される。前記専門装置は、未知の画像と、前記専門装置に予め供給された既知の画像との間の類似性を計算する。類似の確率が各比較のための計算される。
【0016】
自動化された組織病理学
【0017】
正常の組織は、細胞の遺伝子プログラムによる特有の形態学的特徴、機能及び/又は他の細胞との配置関係を表す、特定の細胞型を含む。正常の組織は、互いに正確な空間的関係を有し、特定の数又は割合の特定の細胞型を含む。これらの特徴は、種々の個体間で類似の正常の組織内の顕著に狭い範囲内にある傾向を有する。特定の器官にその固有機能(例えば、上皮細胞又は実質細胞)に係る能力を与える細胞型に加えて、正常の細胞は、また、血液細胞を含む血管、神経細胞及びシュバン細胞を含む神経、脳の中枢神経系又は神経膠細胞の外側の線維芽細胞(間質細胞)のような組織細胞、いくつかの炎症細胞、及び、器官(例えば、平滑筋)の運動又は収縮のための能力を与える細胞のような器官を横切る、共通の機能を実行する細胞を有する。これらの特定の機能を含む細胞の組合せは、特定の器官又は組織その他のために種々の個体間で再生されるパターンを含み、本願明細書で記載された方法によって特定の組織のために「正常」と認識することができる。
【0018】
異常の状態において、この方法によって検出可能の組織における変化は、1以上のいくつかの形で生じる。すなわち、(1)組織構造の外観の変化、(2)細胞の核特性の形態学的な変化、(3)特定の細胞の割合の変化、(4)器官の正常の成分でない細胞の外観の変化、(5)標準的に存在すべき細胞の喪失に関する変化、又は(6)異常物質の蓄積による変化である。損傷の原因が遺伝子、環境、化学、毒性、炎症性、自己免疫性、発達、伝染性、繁殖性、腫瘍性、偶発性又は栄養性によるか否かにかかわらず、特性の変化が器官内の正常の特徴の境界の外側に生じ、これを本発明に係る方法によって認識し、分類することができる。
【0019】
正常及び異常の組織型の画像を収集することによって、各正常の組織型及び既知の各異常の組織型のための識別付与又は印付けがされる。前記専門装置は、新たな組織試料が正常であるか否か又は既知の異常の組織型にあてはまるか否かを決定するために病理学者に取って代わることができる。計算されたパラメータは、いかなる各構造が異常性を示すか又はいかなる細胞が異常の細胞核を表すかを決定し、異常性の大きさについての程度を計算するために用いることもできる。
【0020】
自動化された組織成分探知器
【0021】
組織学者及び/又は病理学者を自動化装置に取って代える能力又は機能がこれらの装置及び方法の重要な面であるが、他の有用な面は、画像から確認することができる人体組織を含む組織内の構造又は他の成分の位置を決定する機能である。本発明のこの面についての価値を有する応用の1つは、特定の遺伝子に関係する細胞成分を発見することである。
【0022】
科学者は、人のゲノム及び生体のゲノムを順序づけてきた。しかし、遺伝子の核酸配列又は蛋白質配列の知識を得ても、遺伝子が生体に表れる又は現れる(以下「表れる」という。)か否かは必ずしもわからない。遺伝子は、組織を横切る極めて多くのパターンの表れ又は現れ(以下「表れ」という。)を示すことができる。いくつかの遺伝子は広範囲に表れるが、他の遺伝子は極めて離散的な限局性パターンの表れを示すであろう。伝令リボ核酸(mRNA)及び/又は蛋白質のような遺伝子産物は、1以上の組織内の1以上の細胞型又は1以上の組織構造もしくは組織基礎構造に表れよう。いくつかの遺伝子は、正常の組織には表れず、発達の間に表れるか又は病気の結果として表れよう。遺伝子が表れる細胞型、組織構造、組織基礎構造及び組織型を見つけ、遺伝子産物を生じることは、極めて価値がある。現在、遺伝子がいつどこで人体組織又は他の生体組織に表れるかについてはほとんど知られていない。人体を横切る単一の遺伝子の表れの局在を地図化することは、組織学者及び/又は病理学者にとって時間を費やす作業である。人体を横切る極めて多くの遺伝子の表れのパターンを地図化することは、途方もない作業である。本発明に係る専門装置及び方法はこの作業を自動化する。
【0023】
遺伝子産物を局在化することに加えて、本発明に係る装置は、代謝副産物を含む確認可能の特有の構造又は確認可能の分子によって任意の限局性成分を見つけるために用いることができる。前記装置は、画像に配置することができる弁別可能の構造又は確認可能の分子を有する蛋白質、脂肪酸、炭水化物及び脂質のような細胞の外部に関連づけられた細胞及び/又は物質によって生成された物質を見つけるために用いることができる。被探求成分は、細胞内に固定されている必要はないが、その代わり、細胞内の特定の領域に限られていることが望ましい。発見される他の限局性組織成分の例として、限局性となる神経性もつれ、神経性の斑(プラーク)、任意の薬、補助剤、バクテリア、ウィルス、又はプリオンが含まれる。
【0024】
遺伝子産物又は発見の対象である他の成分を確認し、その位置を判別することによって、本発明に係る自動化装置は、発見の対象である成分が発生する細胞核型、細胞型、組織構造、組織基礎構造及び組織型を見つけ、確認するために用いることができる。発見の対象である成分は、検体に存在する薬又は化合物とすることができる。この場合において、薬又は化合物は、画像内の他の成分のための標識物(マーカー)として用いられてもよい。したがって、前記装置は、細胞内に固定された成分、細胞内に固定されていないが細胞の一部に局在化された成分、及び細胞の外側に発生する成分を見つけるために用いることができる。
【0025】
従来技術の一手法において、研究者は、まず、特定の組織内の特定の細胞型の成分に付く既知の標識物を組織に与えることによって、確認可能の分子構造を有する組織及び/又は細胞成分の位置を探す。次いで、研究者は、探し求める分子構造に印を付す第2の標識物を与える。2つの標識物が共に発現すれば、探し求める分子構造が表れる細胞を確認することができる。コンピュータ装置が、画像内に第1の標識物の位置を検出することによって以外は細胞の位置又は細胞型を確認することができないとしても、2つの標識物が共に画像内に発現するか否かの決定をコンピュータ装置で行うことが出来る。
【0026】
この従来技術は、他の細胞型に印を付すことなく既知の細胞型に印を付すことができる既知の標識物が既に存在するときは一般に用いられており、したがって、この従来技術には深刻な制限がある。このような特定のかつ選択的な標識物は、人体に見いだされる1500を越える数の細胞型の極めて小さい部分のために知られているのみである。
【0027】
本発明に係る装置及び方法は、既知の細胞型に印を付す標識物を用いることなく組織分析のために用いることができる。本発明に係る装置においては、発見の対象である成分に付く単一の標識物を、生体からの1以上の組織に適用することができる。本発明に係る装置及び方法は、自動化様式で、組織型、組織構造及び/又は組織基礎構造、細胞型、及び/又はいくつかの場合において、発見の対象である特定の成分が発現する細胞下領域を確認する。
【0028】
この装置は、複数の組織を横切る遺伝子の表れを研究するために特に役立つ。この場合において、研究者は、伝令リボ核酸又は対象である遺伝子のための他の遺伝子産物に選択的に付く標識物を用い、この標識物を、生体内の多くの箇所からの多くの組織試料に与える。したがって、本発明に係る装置及び方法は、望ましい各組織試料の画像を分析し、画像内の標識物の各位置を確認し、次いで、標識物が発現する組織型、組織構造、組織基礎構造細胞型及び/又は細胞下構造を確認するために用いることができる。
【0029】
対象である成分が発現する位置を見つけることに加え、定量的な方法を、いかなる量の成分が所定の位置に存在するかを決定するために用いることができる。そのような定量的な方法は、従来技術で知られている。例えば、組織検体に付く標識物の分子の数は、組織に存在する成分の分子の数に関係づけられる。標識物の分子の数は、標識物から形成された画像内の画素の信号の強度によってほぼ決定することができる。
【0030】
本発明の特定の面は、以下に記載の米国仮特許出願の明細書でも論じられており、それらのすべてをそのまま参照文献として本願明細書に組み入れる。米国特許出願第60/265,438号明細書、名称「PPF特性の組織/細胞パターンの特徴(PPF Characteristic Tissue/Cell Pattern Features)」、2001年1月30日出願。米国特許出願第60/265,448号明細書、名称「TTFWT特性の組織/細胞の特徴(TTFWT Characteristic Tissue/Cell Features)」、2001年1月30日出願。米国特許出願第60/265,449号明細書、名称「IDG特性の組織/細胞の変換の特徴(IDG Characteristic Tissue/Cell Transform Features)」、2001年1月30日出願。米国特許出願第60/265,450号明細書、名称「PPT特性の組織/細胞の点投影変換の特徴(IDG Characteristic Tissue/Cell Point Projection Transform Features)」、2001年1月30日出願。米国特許出願第60/265,451号明細書、名称「SVA、特性信号分散特徴(SVA, Characteristic Signal Variance Features)」、2001年1月30日出願。米国特許出願第60/265,452号明細書、名称「RDPH特性の組織/細胞の特徴(RDPH Characteristic Tissue/Cell Features)」、2001年1月30日出願。
【発明を実施するための最良の形態】
【0031】
取り付け
【0032】
組織試料は、固定された細胞の組織、又は、血球、炎症細胞もしくは原発性異型肺炎塗抹標本細胞のような細胞組織から分離された細胞とすることができる。組織試料は、観察するための露出面を表すために従来の方法によって顕微鏡用スライドに取り付けることができる。組織は、組織及び組織抗原を保存し、また、死後の腐敗を回避するために、新鮮であるか又は保存薬又は防腐薬(以下「保存薬」という。)に浸すことができる。例えば、新鮮状態で冷凍されるか又は保存薬に浸され、パラフィン、プラスチック、エポキシ樹脂又はセロイジンのような物質中で冷凍されるか又は埋め込まれた組織は、クリオスタット(低温保持装置)もしくは滑走式のミクロトーム又はビブラトームの薄片に切り分けられて顕微鏡用スライドに取り付けることができる。
【0033】
染色
【0034】
発見対象の組織型、発見対象の細胞型、及び画像を形成するために望ましい方法に依存して、試料の染色が必要又は不必要である。いくつかの細胞成分は、染色なしで十分に検出可能である。染色なしで画像を形成するために用いられる方法は、微分干渉コントラスト法、ノマルスキー微分干渉コントラスト法、絞りコントラスト法(暗視野)、位相コントラスト法及び偏光コントラスト法のような対比技術を含む。付加的に、ラマン分光法のような反射光に依存しない技術及び落射蛍光のような光励起及び発光に依存する技術を含む他の方法を用いてもよい。
【0035】
一例において、ヘマトキシリンのような一般的な組織学的な核染色法が用いられる。各組織検体及び細胞内の多くの成分を染色するエオシンを用いることができる。ヘマトキシリンは、好塩基性物質(例えば、塩基への親和力を有する物質)を青から紫の色に染める青から紫の色の染料である。したがって、細胞核の周りの領域、例えば、高濃縮の核酸を含む領域が青色で出現する。逆に、エオシンは好酸性物質を染色する赤からピンクの色の染料である。したがって、蛋白質は赤又はピンクの色に染色する。グリコーゲンは、ヘマトキシリン又はエオシンによっては染色されないので、試料内で中空のでこぼこの空間として観察される。
【0036】
細胞核(フォイルゲン反応)、肥満細胞(ギムザ、トルイジン青)、炭水化物(周期的な酸シッフ、アルシアンブル)、結合組織(トリクローム)、脂質(スダンブラック、オイルレッドO)、微生物(グラム、抗酸性)、ニッスル物質(クレシルバイオレット)及びミエリン(ルクソール・ファスト・ブルー)を視覚化するために用いられる染料のような特別の染料を用いてもよい。これらの染料の画素配置は、これらの弁別可能の色のみに基づいて発見することができる。
【0037】
標識物を付加すること
【0038】
本発明のいくつかの実施例において、標識物は試料に付加される。染料物質は標識物の付着を低減するので、標識物は、典型的には、試料が染色される前に付加される。選択的に、いくつかの実施例では、標識物は、染色後に付加されてもよい。
【0039】
標識物は、画像内で検出可能の位置又は場所を表すために組織の特定の型の位置に付着するように設計された分子である。被探求成分の位置での組織成分を決定するための本発明に係る方法により、前記位置で画像において検出可能のいくつかの分子の存在が検出される。蛍光を発する薬、又は、染色によってもしくは染色なしでパターン認識によって確認されることが可能の弁別可能の形式(又は形態もしくは形状)を示す構造のような場合には、時には、そのような薬又は構造の箇所で被探求成分が直接に検出される。他の場合においては、被探求成分は、被探求成分に付着して検出を容易にする標識物を付加することによって確認することができる。いくつかの標識物は直接に検出することはできず、標識物が試料に適用される前に標識物に放射性分子を付加するような方法によって、標識札(タグ)を標識物に付加することができる。ジゴキシゲニン又はビオチンのような分子、もしくはワサビペルオキシダーゼ又はアルカリフォスファターゼのような酵素は、標識札の間接的な検出を容易にするために通常、標識物に統合される標識札である。
【0040】
従来技術では、極めて特殊であると考えられる標識物は、既知の細胞の既知の細胞成分に付着する標識物である。本発明においては、成分が表れる組織型、組織構造、組織基礎構造及び/又は細胞核を有する未知の組織試料内の成分を探求することが目的である。これは、成分を見いだすための標識物を設計すること、多くの種類の組織、構造、基礎構造及び細胞型を含む組織検体に前記標識物を適用すること、及び、前記検体のいかなる部分が標識物すなわち被探求成分を含むかを決定することによって実現される。
【0041】
標識物は、抗体、薬、リガンド、被探求成分に付着もしくは結合する放射性もしくは蛍光性の化合物、弁別可能の色を有する化合物、又は他の方法で検出可能の化合物とすることができる。抗体標識物及び他の標識物は、抗体、薬、リガンド又は組織検体内の化合物に結合し、これらを確認するために用いてもよい。抗体又は被探求成分に付着する他の一次的結合の標識物は、他の抗体(例えば、二次的な抗体)又は二次的な抗体もしくは標識物の検出が可能の他の標識物を被探求成分に付着することによって間接的に検出するようにしてもよい。
【0042】
核酸プローブは標識物として用いることもできる。プローブは、核酸型結合(塩基対合)又は立体化学的相互作用によって伝令リボ核酸(mRNA)のような遺伝子産物に付着又はかけ合わさる核酸である。前記プローブは、放射性を備える、蛍光性を備える、弁別可能の色を有する、又はジゴキシゲニン又はビオチンのような標識付け用の分子を含むものとすることができる。プローブは、順に検出可能の二次的な標識物を用いて直接検出可能又は間接的に検出可能である。
【0043】
弁別可能の色もしくは蛍光又は他の視認可能のしるしを有する標識物又は標識札は、顕微鏡を通して又は画像から直接観察することができる。他の型の標識物又は標識札は、検出可能の放射線又は画像に変換することができるしるしを提供することができる。例えば、放射性分子は、放射性発光を受けることによって蛍光又は光を発する他の物質を付加する又は放射性エネルギを受けることによって写真乳剤又はフィルムのように色を変化させる物質を付加するような技術によって検出することが可能である。
【0044】
画像収集
【0045】
図1を参照するに、試料の準備後、方法における次のステップは、コンピュータアルゴリズムによって処理可能の画像1を得ることである。保管された画像データは数値配列に変換され、これにより、パラメータの計算及び数値変換が可能になる。色分解、グレイスケール統計量の計算、しきい値処理及び2値化演算、並びに畳み込みフィルタを含む、原データのいくつかの基礎的操作を用いることもできる。これらの方法は、画像からパラメータを計算するために通常に用いられている。
【0046】
いかに画像1を得るかについての一例において、スライドは、ルドゥル(Ludl)社及びプライア(Prior)社によって市場に売られるようなモータ駆動のXYステージ及び該ステージに取り付けられるDVC1310CのようなRGB(赤、緑、青)デジタルカメラを有するツァイス(Zeiss)社のアキシオプラン2(Axioplan 2)のような光学顕微鏡下に配置される。この典型的なカメラは、1300×1300の画素を取り込む。このカメラは、エピックス(Epix)社のピクセリンクス(pixeLYNX)基板のような画像取込基板(イメージキャプチャーボード)を介してコンピュータに接続されている。得られた画像は、コンピュータのハードディスク駆動装置に記憶される。カメラは、ディーヴィーシー(DVC)社から供給されるシーヴュー(CView)ソフトウェアのようなソフトウェアによって制御され、コンピュータは、カラー画像の観察のためにRGBモニタ装置に接続されている。
【0047】
顕微鏡は、多くの細胞のための細胞特徴を一度に識別又は弁別することができる倍率に設定される。典型的な人体組織のために、10倍又は20倍の倍率が好ましいが、他の倍率とすることもできる。視野絞り及びコンデンサの高さ及び絞りを調整し、開口を設定し、照明レベルを調整し、画像に焦点を合わし、画像を取り込む。これらのステップは、好ましくは、顕微鏡を駆動する総合ソフトウェア、モータ駆動のステージ及びカメラによって自動化されている。
【0048】
画像1は、画像1の色信号(典型的には、赤、緑、青)を24ビットのファイル形式(1色当たり8ビット)で記憶するTIFF形式又は他の適当な形式で記憶される。
【0049】
組織の認識及び組織構造の認識のためには、典型的には、1画素当たり約1ミクロンの組織という解像度で十分である。これは、10倍の対物レンズを有する顕微鏡を備えた複数の10ミクロン画素を有するカメラを用いることと同等である。10倍での典型的な視野は、630ミクロン×480ミクロンである。組織内の20ミクロンの直径を有する標準細胞について考えれば、これにより、約32の細胞×約24の細胞が観察される。組織の認識のためには、画像は、少なくとも約120ミクロンの範囲の最小寸法を有する組織を表さねばならない。組織の構造の認識のためには、いくつかの極めて小さい構造は、少なくとも約60ミクロンの最小寸法で組織を表す画像から認識することができる。細胞核の認識のためには、画像は、約20ミクロンの典型的な細胞核と同じ程度に大きければよく、画素寸法は、約0.17ミクロンと同じ程度に小さければよい。前記したようなツァイス社のアキシオプラン2の顕微鏡に10倍の対物レンズを用いてDVC1310Cのカメラで画像を取り込むために、各画像は、0.87mm×0.69mmを表し、各画素は、0.66ミクロン×0.66ミクロンを表す。細胞核の認識のために、対物レンズは20倍に変更することができ、解像度は、1画素当たり0.11ミクロンの組織とすることができる。
【0050】
画像処理装置
【0051】
図1に示すように、画像処理装置及び方法に係る一実施例においては、3つの主要なコンポーネントが含まれる。すなわち、(1)背景信号からの組織/細胞試料構造に関係する対象物データの抽出機能を有する対象物分割モジュール51と、(2)データ内の2つの(又は3つの)空間的範囲を横切る特有の構造パターン特徴を計算し、この空間的範囲を横切るデータ内の画素強度変化を計算するパラメータ計算(又は「特徴抽出」)モジュール52と、(3)関連付け決定行列構造(associative voting matrix architecture)を用いて、典型的には複数の神経ネットワークを用いて、認識確率(信頼性の程度)の査定をする、構造パターン認識モジュール53とが含まれる。各コンポーネントを順に説明する。代替の実施例では、コンポーネント(1)及びコンポーネント(2)の機能を1つのモジュールに結合してもよいし、又は、コンポーネント(3)のために他の任意の専門装置構造を用いてもよい。本発明においては、一般的な目的のコンピュータ又は一般的な目的のコンピュータのネットワークで作動するような、ソフトウェアにおける実施、コンピュータによって読込可能の媒体における実施又はネットワーク信号における実施をすることができる。従来から知られているように、神経ネットワークコンポーネントは、1以上の一般的な目的のコンピュータとは異なる専用回路で実行される。
【0052】
信号分割
【0053】
一実施例においては、色分けされた(染色された)信号と形式内容に基づく特徴分析のために用いられる背景構造とを抽出し、増強するための信号分割手順の方法が用いられる。この方法は、対象物の色画像を3つのRGBの複数スペクトル帯域に分離し、共分散行列を計算する。この行列は、「色の密集がされた」(構造的関連を有する)信号強度の関数として、変化レベルを減少させることによって整えられた1組の無関係な平面を表す固有ベクトルを決定するために対角化される。さらに、分割手順のステップは、各パラメータ抽出法によって変わる。
【0054】
パラメータ抽出
【0055】
本発明に係るパラメータ抽出法のいくつかの面においては、画素強度値の極めて小さい変化における2又は3の空間的範囲を横切る有意義なパターン情報を発見することが必要である。この理由により、画素データは、強度について良好な階調(グラデーション)を有して取り込まれ、また、処理がされなければならない。一実施例において、精度のために256のとりうる値(8の有効ビット)の段階又は等級が用いられる。128の値(7の有効ビット)でも作動するが、十分でない。一方、64の値(6の有効ビット)では重要な階調を生じ、32の値(5の有効ビット)では、本発明のこの面についての方法を用いたとき有意義なパラメータの抽出のための限界を超える。
【0056】
画素強度データ値は、ベクトル演算を用いることによって、データを横切る1つの範囲の走査の場合とは異なる、2又は3の範囲で作動するパラメータ抽出アルゴリズムにおいて用いられる。2つの範囲を横切ってパターンデータを得るためには、ノイズとの混乱を避けるために各範囲の少なくとも6の画素が必要である。したがって、パラメータの各要素は、最小範囲又は最小寸法の6画素を有する少なくとも二次元格子状画素から抽出される。そのような最小の対象物は、八角形状の24画素である。
【0057】
本発明に係る実施例においては、分割された各信号/対象物の範囲内で特有の構造パターンを計算するパラメータ抽出モジュールが組み入れられる。組織/細胞の構造パターンは弁別可能かつ型特有である。そのようなパターンは優れた型認識弁別機能を生じる。組織の認識及び組織の構造の認識のために、一実施例において、6の異なるパラメータは、画像(時には分割された画像)のいくつか又は全部を含む窓を横切って計算される。いくつかの実施例において、細胞核型の認識のために、パラメータは、対象の各領域/対象物のために独立して計算することができ、以下に説明するIDGと呼ばれる統合型拡散勾配変換(integrated diffusion gradient transform)であるただ1つのパラメータ計算アルゴリズムが用いられる。
【0058】
組織及び構造の認識のための一実施例において、すべての画素がアルゴリズムに用いられるように用いられる対象物分割はない。細胞核型の認識のために、細胞核を表す画素は、計算集中ステップが有用な情報を有しないデータで停止することがないように、残りのデータから分割される。図2に示すように、細胞核の認識のために、分割手順は、対象物認識が適用される局所的領域として定められた画像化構造2から9を分離する。これらの対象物領域は、細胞核を含む高い確率を有する画像化構造である。それらは、細胞核物質の識別的特性を計算するために対象物領域の二次元の空間的かつ強度分配の内容を調べるパラメータ計算に基づいて内容を形成するように従属される。
【0059】
細胞核の認識のために、最初の画像1は、色RGB画像として得られ、次いで、3の色平面の主要な成分の分析を行い、コントラスト及び詳細のために増強されたR、G及びBの色平面の混合画像を抽出することによって、各画素のための256のとりうる強度値を有する8ビットのグレースケールデータアレイに変換される。次いで、染色された濃さを有する細胞核が目的とする対象物に分割され、残りのデータが廃棄されるように、混合8ビット画像は、画像化対象領域と全平均背景内容物との間のコントラストを増強するように設計された単一の不連続性増強手順に従属される。わずかの画素を横切る大きな強度飛躍があるとき、中間強度の画素が低強度に低減され、これにより、1以上の細胞核を表す画素の各群れ又は塊の周りに鋭い端部が形成される。
【0060】
対象物2から9の分割は、全部の増強画像を横切る点から点へ、画素から画素へのように個々の細胞核の大きさとほぼ同じ大きさの局所化されたN×Nの箱型偏光フィルタを適用することによって達成される。偏光フィルタの統計学的限界を超える有効強度振幅を有し、個々の細胞核の寸法より大きいか又は個々の細胞核の寸法に等しい寸法を有するグループ化された対象物を形成することを伴って群れ化又は塊化がされたこれらの画素は、個々に確認され、地図化され、目的とする対象物領域として定められる。図3に示すように、細胞核の群れが、いずれの画素が特徴抽出手順に従属されるかを定める地図化処理(マッピング)である特異の対象物領域7として観察される。この観察は、分割された対象物領域の地図化処理によって示された同一の点で、主要な成分が増強された8ビット画像について行われる実際の測定により得られる。
【0061】
各細胞核対象物領域のために、中心線10が、実質的に対象物領域を該領域の長手方向の中線に沿って分割するように定められている。個々の細胞核の寸法とほぼ同じ寸法を有する一連の6領域の試料分析窓11から16は、前記中線上に前記窓の中心が重なるようにされ、また、前記中線に沿って揃えられて配置され、個々の弁別可能の強度パターン測定は各窓内で2つの空間的範囲を横切って計算されることにより行われる。これらの測定は、実質的に不変であるように正規化され、種々の画像から得られた種々の対象物領域測定間で比較される。細胞核を表す画素の各群れの中心から試料分析窓を得ることによって、1以上の細胞核を含む機会が極めて良好になる。核小体は、細胞核型のために有効な判別式である弁別可能のパターンを示す細胞核コンポーネントの一例である。
【0062】
細胞核の認識のために、試料窓11から16のそれぞれに用いられるパラメータ計算は、以下に説明するように、空間的強度分布の「統合型拡散勾配」(IDG)と呼ばれる。これは、相対振幅、空間的分布、画像化形式、及び1組の特性形式微分への形式変化による型特有のパターン特徴を自動的に分離する1組の測定である。一実施例において、21の個別のIDG測定は、1窓当たり全126のIDG計算のために、6試料窓11から16のそれぞれについて計算される。
【0063】
細胞核の認識のための一実施例において、IDGパラメータが各窓のために計算されると、各対象物領域7の固有ベクトル又は特性ベクトルが、各試料窓からの126の測定値と2つの付加的パラメータとを統合することによって作られる。第1の付加的パラメータは、2つの空間的範囲を横切る対象物領域の強度表面占有率の測定値であり、これによって、「三次元表面フラクタル」測定を計算する。第2の付加的パラメータは、全画像化視野と比べた、領域の相対作動寸法の測定値である。結合又は混合において、この組の測定値は、各対象物領域のための特異の固有ベクトルになる。それは、パターン化形式の128の測定値を含む。すべての測定値は、従来の断面細胞核境界特徴づけとは独立しており、細胞核境界の規定又は画定を統合しない又は必要としない。理想的には、すべての測定値が、細胞核を表す画素の単一の細胞核又は塊(以下「クラスタ」という。)の境界内で行われる。
【0064】
組織型及び組織構造型の認識のための一実施例のために、図4に示すように、本発明に係る方法は、一般に全画像と同じ大きさである各画像1内の窓のための6の種々の特有形式のパラメータを計算するための手順を行う。画像から計算されたそのようなパラメータは、しばしば、「抽出された」「特徴」として参照される。この専門装置のために有効な結果を生じる多くの種々のパラメータ(又は特徴)抽出(又は計算)方法がある。一実施例において、パラメータ計算のすべては、画素強度の変化の測定値を含む、各画素のための少なくとも6の有効ビットの正確さを有する強度値を用いて2又は3の空間的範囲を横切る特有パターンの測定値を計算する。一実施例においては、以下に説明するように、6のパラメータが計算される。すべての6のパラメータは、物理的な組織及び細胞の構造の基礎形式の統計学的に弁別可能の分散特性について物理的な組織及び細胞の構造の基礎形式に特有の情報を含む。
【0065】
1. IDG 統合型拡散勾配
【0066】
IDG変換手順は、組織/細胞の画像内の構造パターンの基礎的な「信号形式応答プロファイル」を計算するために用いることができる。この手順は、相対振幅、空間的分布、信号形式、及び「特有形式微分」と呼ばれる1組の特有モードへの信号形式分散による型特有の信号構造を自動的に分離する。これらの形式微分は、形式応答プロファイルとの結合がない(例えば、線型最小四角のように)とき、優れた型認識識別を表す1組の信号形式応答機能として模範になっている。
【0067】
概要において、図5に示すように、各窓23(一実施例において、窓23は、細胞核認識のための小さい窓11から16であり、組織又は構造の認識のための全画像1である。)のためのIDGは、種々の強度レベル17から19で二次元の空間的強度分布を調べること、及びそれらの局所的な強度形式微分分散を計算することによって計算される。各レベルの配置は、窓内の強度振幅の関数である。図5に、第1のレベル17及び第2のレベル18を経て伸びる3つの強度ピーク20から22が示されている。それらの2つのみは、第3のレベル19を経て伸びる。組織認識及び構造認識のために、一実施例において、計算は、画像の全部のために全ての強度レベル(256)で行われる。この実施例における細胞核認識のために、計算時間の節約のために、計算は、図5に示すように、3つのレベルのみで行われる。これは、各画像のために多くの対象物2から9があること、及び、各対象物のために6試料窓11から16があることからである。
【0068】
詳細において、一実施例において、IDGパラメータは、以下のように、画像データから抽出される。
【0069】
(1)パターン画像データは自己最適化n次多項式適合で適合され、例えば、カイ自乗特性の適合は、2から5の範囲のnにわたって計算され、最良の適合の次数が選択される。この適合は、特有形式微分関数の測定のためのフラックスの流れ「拡散」面を定めるために用いられる。パターンを横切る増加変化に依存して、この拡散面はゆがめられる(2より大である適合の次数)。これは、この実施例において、形式微分測定値が常に拡散面に垂直である。
【0070】
(2)拡散面は、増強された信号パターンにわたって配置され、時間(dH)で1つの単位レベルに低くされる。各新規の位置で、平面を通る信号構造の量の変化の割合は、統合され、数密度(d(Si−1−Si)/d(Ni−I−Ni)=dNp)によって正規化される。結果として関数は、相対振幅、信号強度分布、信号形式、及び特有形式微分(dNp/dH)と呼ばれる関数への信号形式分散による型特有の信号構造を自動的に分離する。
【0071】
(3)形式微分は、主要な関数で重畳されたランダム高周波瞬時スパイクとしての証拠になる信号ノイズ効果を最小限にするために低域通過フィルタによる処理が行われる。
【0072】
(4)形式微分関数内のピーク及び谷のそれぞれは種々の信号成分の発生を表し、構造間の変遷階調は、信号形式分散の特性である。
【0073】
(5)一実施例において、特有の認識パラメータを得るために、特有形式微分は、これらの信号特有の応答プロファイルの線型重畳に分解される。これは、線型最小四角のように形式微分関数を適合することによって、(1)応答プロファイル振幅、(2)半値全幅(FWHH)のプロファイルとして広がり、及び(3)それらの相対的配置を最適化して、達成される。
【0074】
(6)信号強度が典型的には背景(又はノイズ高さ)レベルに参照されるので、基準に適合する応答関数は、付加された特徴コンポーネントとして(又は信号分割の目のために)背景基準線の位置を決定するために用いることができる。これは、拡散面が低下されたとき信号基準線の開始を確認するために全dNp/dH関数にわたって応答プロファイル測定値の相対的変化を調べることによって達成することができる。この分析から、結合信号応答と信号基準線閾値(THD)とが計算される。
【0075】
組織及び構造の認識のために、IDG変換は、8の特有応答関数で適合される256の形式微分を抽出する。各適合の位置は1つの値で特定され、振幅又は大きさは、16をすべての値とする第2の値で特定される。256の点の曲線及び該曲線下の領域のために最小である2つの基準線パラメータと共に、これは、神経ネットワークの18の入力値の入力ベクトルを生成する。
【0076】
2. PPF 二次元パターン投影フラクタル
【0077】
PPFは、組織/細胞の分割信号を二次元二進点パターン分布に投影することによって計算することができる。この分布は、分割された画像を横切る標本化試料間隔の広範囲にわたって投影のクラスタ分布を地図化する分析手順に従属される。試料測定は、フラクタル確率密度関数の計算に基づいている。
【0078】
PPFは、組織試料内の形の特有の面の基本統計学的分布特性に焦点を合わせる。これは、特有のフラクタル形式を有する種々の組織/細胞構造パターンを用いて、空間的均一性(偏位下での不変性)階調化(中度の階調変化における不変性)、及び自己相似性(至るところで同じ基本形式)、例えば、基本フラクタル形式の特性を表す組織パターンの自然発生特性を利用する技術に基づいている。組織細胞型の混合と組織細胞型が組織型に分配される仕方とにより、画像化された組織構造に特有の差異がもたらされる。
【0079】
一実施例において、PPFパラメータの測定は、点パターン投影及び異なる大きさの試料の生成のための新規の手順を用いて、フラクタル確率密度関数の計算の形として実行される。さらに、信号分割は、画像化された強度プロファイルの二次元分布パターンの分析を含み、最適なコントラスト画像が、主要コンポーネント分析を用いて計算され、n次多項式面で適合され、残りのポジティブ投影を生成するために二進化されたとき、分割が行われる。
【0080】
(1)分割されたパターンデータは、信号獲得(強度)の非偏奇がされる。これは、約5と15との間の画素幅間の八角形式領域内に定められた最小限局性値でパターン画像内の各画素値を繰り返し置き換えることによって達成することができる。これは、結果として、一様性又は段階的な分散について変化しないパターンになる。しかし、対象の領域の残りの部分(ROI)より小さい高分散の領域は、局所的な背景の最小レベルに低減される。
【0081】
(2)パターン画像は自己最適化n次多項式適合で適合される、例えば、カイ自乗品質の適合は2から5の範囲のnにわたり計算され、最良の適合の次数が選択される。この適合は、パターン化された画像の残りのポジティブ部分を計算するために用いられ、点パターン分布を生成するために二進化される。
【0082】
(3)フラクタル確率密度関数の測定は、放射方向密度分布法則、d=Cr(D−2)を適用することによって達成される。ここで、dは与えられた位置での組織/細胞のパターン点の密度、Cは定数、rはクラスタの中心からの距離、及び、Dはハウスドルフ(Hausdorff)フラクタル次元である。フラクタル次元の実際の計算は、箱計数手順を用いて達成される。ここで、格子は組織点パターン画像に重畳され、フラクタルパターンの任意の部分を含む格子箱の数が計測される。箱格子の寸法は増加され、手順は、パターン試料寸法が測定の数を制限するまで、反復して繰り返される。第1及び最後の格子の箱の数がG1及びG2であり、計数結果がC1及びC2であるとき、ハウスドルフ次元は、式D=log(自己類似の専有部分の数)/log(倍率係数)、又は、この場合においては、式D=log(C2/C1)/log(sqrt(G2/G1))で決定される
【0083】
(4)PPF特徴セットの抽出は、ROI階調寸法で段階的に変化する付加的な標本抽出を全画像領域で行う複数の重畳する対象領域(ROI)のためのハウスドルフ次元を計算することによって達成することができる。組織型に依存して、対象領域(ROI)は、128画素×128画素又は256画素×256画素であるように選択することができる。この実施例において、その結果は、0.156から1.0まで変化する試料細胞倍率での組織/細胞の点分布パターンについての240の個々のフラクタル測定値である。
【0084】
PPFアルゴリズムは、段階的に位置及び階調を変更された240の種々のフラクタル測定値を抽出し、神経ネットワークへの240の入力値の入力ベクトルを生成する。
【0085】
3. SVA 信号分散振幅
【0086】
SVA手順は、組織/細胞の色画像を、主要成分変換の基礎を形成する3つのRGB複数スペクトル帯域に関係させる。共分散行列は、固有ベクトル、及び、「色の密集がされた」信号強度の関数として分散のレベルを減少させることによって整えられた1組の無関係な平面を決定するために計算され、対角化される。二次元組織/細胞パターンのためのこの手順は、組織/細胞構造パターンを信号分散領域に地図化する回転変換を表す。このように、結果としての3×3の再地図化による対角化行列及び該行列に対応する相対的な固有ベクトルの大きさは、組織細胞信号、細胞核及び背景識別特性を表す特有の統計学的分散パラメータセットの基礎を形成する。
【0087】
この手順は、組織/細胞構造パターンを信号分散領域に地図化する回転変換を表す。したがって、主要成分画像(E1、E2、E3)は、信号分散のレベルを減少させることによって、無関係にされ、整えられる。例えば、E1は、最も大きな分散を有し、E3は最も小さな分散を有する。結果は、より少ない次元へのパターン分散の同時圧縮によって原RGBスペクトルデータの軸線間に存在する関係の除去である。
【0088】
組織/細胞パターンのために、主要成分変換は、信号(パターン特有の)クラスタにおける最大及び最小の分散の方向と一致する原RGB座標軸線の回転を表す。平均値の減算について、再地図化は、源を、組織像内の種々の信号パターン(例えば、細胞、細胞核、背景)のために、多モードである平均値につての分布を有する分散分布の中心に変える。
【0089】
主要成分変換が分類識別特性についての任意の情報を特に用いることはしないが、基準的な変換(canonical transform)は、定めされた信号構造の分離性を最大化する。染色の特性が特異の組織型の範囲内で分類に種類に特有であるので、この分離性は、信号認識に直接関係する。
【0090】
パラメータセットは、結果として生じる3×3の再地図化による対角化行列及び該行列に対応する相対的な固有ベクトルの大きさである。SVAアルゴリズムは、RGB色3×3対角化行列から得られた9のパラメータを抽出し、神経ネットワークへの9の入力値の入力ベクトルを生成する。
【0091】
4. PPT 点投影変換
【0092】
PPT記述子抽出手順は、組織/細胞構造パターンを、組織/細胞構造信号の線型パターン化の特有の基礎から極座標形式(ハフ(Hough)変換、xcosθ+ysinθ=rと同様である。)に変換することに基づく。この線型化投影手順は、構造パターン分布を保存する間、組織/細胞信号分割のダイナミックレンジを減少させる。結果として生じるPPT計算は、原組織/細胞構造の画像内容の忠実な表現を保存するために「相対的な空間組織」の要求によって行われる再地図化機能を生成する。さらなる信号分割によって、パラメータ抽出は画像化強度プロファイルの二次元分布線パターンの分析に基づいており、最適コントラスト画像が、主要成分分析を用いて計算され、n次多項式面で適合され、残りのポジティブ投影を生成するように二進化され、全組織画像に相当する線描写を形成する二次元線型化手順に従属されたとき、分割が行われる。
【0093】
一実施例において、PPTパラメータ計算アルゴリズムの最初の2つのステップは、前記したPPFパラメータのためのステップと同じである。本方法においては、以下のことが続く。
【0094】
(3)二進化固有パターンは、画素の領域を前記方法の範囲内で投影線型化形式として定められた中線に沿った特異点に変える選択的形態浸食演算子に従属される。これは、標準浸食核(kernel)の変更形式を反復過程中の残りの画像に適用することによって達成される。ここで、浸食演算子は隣接対の占有を考慮する規則を含むように変更される、例えば、連続分布を形成しない隣点に中央浸食点が結合されないとき、該点は除去されない。この過程は、投影を、固有パターン領域内の終点の数、支流が交わるノードの数及び内孔の数に基づく有効な位相数学的メトリック情報を含む線型化パターンに変える。
【0095】
(4)前記方法は、ハフ累積細胞の選択を特定の範囲の勾配(slope)及び遮断(intercept)に結合する遮蔽(masking)アルゴリズムを用いる修正ハフ変換を用いてデカルト空間からの線型化パターンを極形式に地図化することによって、実際のPPT特徴を計算する。
【0096】
PPTアルゴリズムは、二次元組織強度画像の線描写のハフ変換から1752のパラメータを抽出し、神経ネットワークへの1752の入力値の入力ベクトルを生成する。
【0097】
5. TTFWT 組織型フラクタル小波変換
【0098】
細胞型の分布と共に細胞型の混合は、画像化された組織構造形式を生じる。組織/細胞構造パターン内で、特有の幾何学的形式は、フラクタル原線を表し、多次元小波分解に用いることができる1組の親波のための基礎を形成する。TTFWTパラメータ抽出手順は、親波の階級としてIDG特性形式微分の形状を用いて、組織/細胞信号パターン画像の自己相似性領域の地図化に基づく個別小波変換(以下「DWT」という。)によって組織/細胞構造パターンのフラクタル表現を抽出する。パラメータ抽出は、フラクタル小波係数密度に関係する要素を含む特性波形を生成するために、多次元小波分解又は放射状間隔の再標本化及び統合に基づく。一実施例において、手順は、以下のステップを含む。
【0099】
(1)画像パターンは、2間隔で適合するように寸法変更及び標本化が行われる、例えば、原画像の中心から選択された512×512、1024×1024の画像である。
【0100】
(2)特有の親波(フラクタル形式)は、前記したIDG手順の下での統計学的手法による、大組の組織/細胞画像を横切る振幅、空間分布、信号形式及び信号形状分散に関係する信号型特有の構造の調査によって定められる。
【0101】
(3)次いで、再標本化された画像は、独自に定められたフラクタル形式親波を用いて二次元小波変換に従属される。
【0102】
(4)次いで、固有の特徴を生成するために、二次元小波変換空間は、小波係数の間隔(階調化及び変換の間隔)で標本化及び統合化され、単位領域について再正規化される。これらは、変換の相対要素エネルギ密度を表す。
【0103】
TTFWTアルゴリズムは、神経ネットワークへの128の入力値の入力ベクトルを生成する。
【0104】
6. RDPH 放射状分布パターン調和関数
【0105】
RDHPパラメータ抽出手順は、回転または階調に関して不変の試料間隔で組織/細胞パターン内の局所フラクタル確率密度関数(FPDF)の測定を増強するように設計されている。この手順は、組織/細胞画像内の局所的自己相似性の特性に依存する。画像成分は、組織/細胞構造データの自己基準分布を生じる強度変換地図化で再階調化されて見ることができる。実施は、中心放射状360度の走査間隔で2つの空間範囲(信号強度分散に依存する範囲に基づく)を横切って測定された一連のフラクタル次元の測定を含む。結果として生じる放射状フラクタル確率密度曲線は、正規化され、1組の位相不変パラメータを生成するために極フーリエ変換に従属される。
【0106】
さらに、信号分割は、画像化された強度プロファイルの二次元分布非偏奇パターンの分析に基づいており、最適なコントラスト画像が、信号獲得(強度)非偏奇された画像を生成するために局所的背景の最小レベルに変えられる高分散領域で主要コンポーネントを分析することを用いて計算されたとき、分割が行われる。
【0107】
一実施において、RDPHパラメータ計算アルゴリズムの最初のステップは、前記したPPFパラメータのためのステップと同じである。本方法においては、以下のことが続く。
【0108】
(2)次いで、増強されたパターンは、信号獲得(強度)の非偏奇がされる。これは、増強されたパターン画像内の核画素値と、八角形状の対象領域(ROI)内で定められた最小の局所的値とを繰り返し置き換えることによって達成される。これは、結果として、一様性又は段階的な分散について変化されないパターンになる。しかし、残りのROIより小さい高分散の領域は、局所的背景の最小レベルに変えられる。
【0109】
(3)この実施例において、放射状走査標本化について、1組の360のプロファイルは、非偏奇画像内で中心分析手法から形成される。画素値が黒又は白に単純化された二値型組織/細胞構造パターンのために、これは、画像寸法制約条件に束縛された単位放射状間隔で占有密度の測定を表す。連続的なグレイスケールパターンのために、プロファイルは、信号強度が統合された領域を示す。
【0110】
(4)角度依存プロファイルのそれぞれのフラクタル次元が計算される。
【0111】
(5)放射状形式において、フラクタル測定は、階調依存性を除去するために単位の大きさに正規化される。この関数は、円形からの偏差の程度を増大させることを表すゼロ次より上の各成分で1組の極調和関数を生成するために、極フーリエ変換(PFT)によって演算される。これらは、RDPHパラメータセットを表す。
【0112】
RDPHアルゴリズムは、フラクタル次元測定に依存する360の二次元分布の極フーリエ変換から128のパラメータを抽出し、神経ネットワークへの128の入力値の入力ベクトルを生成する。
【0113】
組織/構造/細胞核の認識
【0114】
本発明に係る装置及び方法の一実施例に係る装置及び方法は、3つの主要な設計仕様に適合するように構成されている。それらは、(1) 組織及び細胞構造の高スループットの自動的分類を処理する機能、(2) 分類された組織/細胞構造の特性についての相関関係の評価を形成する機能、及び(3) 訓練された経験を適応性を有して拡大し、自己展開的な進化的成長をもたらす機能である。
【0115】
これらの設計基準の達成は、複数の神経ネットワークの出力を操作する関係付け決定行列の利用によって達成することができる。図6に、1つの神経ネットワークが示されている。前記したように、いくつかのパラメータ計算方法は、神経ネットワークの128の入力ノード31に与えるための入力である1組の128の値を生じる。他のパラメータ計算は、他の数の入力ノードを要求する。各神経ネットワークのために、第2の層は、半分の数のニューロンを有する。例えば、図6に示すネットワークは、64のニューロン32を第2の層に有し、また、特異の出力ニューロン33を有する。これらの神経ネットワークのそれぞれは、以下に説明するように、サブネットワークを有してもよい。
【0116】
各ネットワークは、画像を既知の多くの種類の1つに分類するように訓練することができる。この場合において、各ネットワークはすべての種類について訓練される。
【0117】
これに代えて、他の実施例においては、各ネットワークは、ただ1つのパターンについて訓練され、全然同類でないときの0から完全に同類のときの1までの範囲の関係認識のレベルを答えるように設計されている。この場合において、ネットワークは、分析されるべきでない画像内を除いて被探求物質及び該物質に類似する他の物質を示す、2種類のみの画像について訓練される。各ネットワークの出力は0から1の値で表現される確率値であり、画像の物質はネットワークが訓練された項目である。人への出力のために、確率は、図8に示すようにパーセントでの表示に置き換えられてもよい。次いで、多くの神経ネットワークの出力は、最も確率の高い1つの決定を生じるために集められる。
【0118】
したがって、各神経ネットワークは、入力ベクトルと、単一のパターンについて該パターンの多くの画像でネットワークを訓練することによって生じる「テンプレート」とを比較する。したがって、個々のネットワークは、認識されるべき各パターンのために用いられる。試料が50の組織型の1つに分類されるべきものであるとき、50のネットワークが用いられる。ネットワークは、一般的な目的のコンピュータでソフトウェアによって実行することができ、50のネットワークのそれぞれは、計算のために連続して単一のコンピュータで読み込むことができる。選択的に、ネットワークは、50のコンピュータで並行して同時に実行するか又は他の方法で実行することができる。
【0119】
神経ネットワークの一構造において、特徴抽出の収集からの装置分析は、組織処理手順内の、及び固有パターンを分離かつ測定する機能に影響を及ぼすデータ収集環境内のデータ劣化(又はデータ低下)の分散の種々の原因を確認又は識別するために用いることができる。データ劣化のこれらの原因は、人の経験及び直感によって確認することができる。これらの原因は、通常独立していないので、典型的には、線型的な非結合、除去又は個別的訂正はすることができない。
【0120】
データ劣化の確認モードの面は、(1) 染色型、染色適用方法、複数の染色干渉/暗黒化及び物理的組織品質制御問題のような組織処理構造、(2) 球形及び樽型の歪曲、RGB色制御、画素のダイナミックレンジ及び解像度、デジタル量子化、及び折り返し効果のような顕微鏡結像収差に関係するデータ収集の面、(3) 装置のノイズ影響及び統計学的標本化密度に基づくパターン測定分散、及び、(4) 適用された染色のレベルの望ましくない変化による影響である。一実施例において、これらは、7のカテゴリーにグループ分けされる。
【0121】
これらのデータ劣化の分散モードを補償し、認識機能を高めるために、一実施例においては、各神経ネットワークのために、種々の装置的分散の面(モード)、すなわち、7の個々のモード及び1つの混合モードに責任を有する1組の8の異なるサブネットワークが用いられる。各サブネットワークは、同じ入力パターンを処理するが、種々の分散モード及び該モードの他の形態的データ劣化の面への相対的結合に特有の重要な効果を説明するデータについて訓練される。この処理構造は、画像の人工的産物の固有範囲の認識を直接組み入れることによって、組織準備、データ収集、及び他の人工的産物、干渉又はノイズからのパターン化可能形式の暗黒化に基づく認識における損失のレベルを低下させて最小限にする機能を、関係付け決定行列に与えるための1つの手法である。
【0122】
一実施例において、人は、望ましいデータ劣化効果を示す既知の画像を選択し、データ劣化の特有の原因を示す画像でサブネットワークを訓練することができる。8番目のサブネットワークは、すべての画像又は一部の画像で訓練することができる。各画像のために、ネットワークが訓練されるための組織、構造又は細胞核の型を画像が示すか否かに関わらず、サブネットワークを教育することができる。
【0123】
細胞核の認識
【0124】
細胞核の認識のために、いくつかの実施例において、IDGパラメータのみが各細胞核又は群れのために用いられ、ただ1つのみの神経ネットワークが各認識「テンプレート」への比較のために用いられる(ネットワークが各データ劣化モードのためのサブネットワークを含んでいるかもしれないが。)。例えば、癌腫瘍形成のために、ただ1つのみの神経ネットワークが必要であるが、この神経ネットワークは、データ劣化モードのための8のサブネットワークを有することができる。
【0125】
例えば、細胞核の認識のために、IDGパラメータは、8のサブネットワークのそれぞれのために1組の128の値を生じ、サブネットワークからの8の出力33がある。これらの8の出力は、図7に示す関係付け決定行列に入力36として供給される。各入力は、重み付け係数37で調整されてもよい。本発明に係る装置は、1つの重みを用いる。他の重みは、所望に選択することができる。0から1の範囲の関係レベルを有する重み付けの数38は、この実施例においては0と8との間の最後の数39を生じるように付加される。形態的関係レベルの合計は、関係付け行列の決定と呼ばれる。4.0又はそれ以上の決定は、調べられる細胞核型の積極的認識であるように考慮される。
【0126】
細胞核の認識は、典型的には、細胞核が異常のものとして観察されるか否かばかりでなく、すべての細胞型をも決定することができる。認識可能の組織、組織構造及び基礎構造のリストと共に、細胞型の細胞核のしるしによって確認が可能の正常の細胞型のリストを、後述の表2に示す。
【0127】
本発明を用いるために適当な異常の細胞型は、例えば、以下の4つのカテゴリーを含む。
【0128】
(1) 腫瘍性及び繁殖性の病気
【0129】
腫瘍性細胞の改変核特性及び前記細胞の改変成長配置は、良性及び悪性の両方の繁殖を確認し、周囲の正常又は反応的な組織から前記繁殖を弁別し、良性病害と悪性病害とを弁別し、悪性病害の侵略的かつ予備侵略的な成分を確認又は識別するための方法を可能にする。
【0130】
良性の繁殖性病害の例(しかし、これらの例に限定されない。)を以下に示す。傷、結合織形成組織反応、線維筋性線増殖(胸及び前立腺のそれのような)。胸の腺腫、呼吸器官、胃腸管、唾液腺、肝臓、胆嚢、内分泌腺。線維腫、神経腫、神経線維腫、髄膜腫、神経膠腫及び平滑筋腫のような軟組織の良性成長。皮膚の上皮及び付属器の良性腫瘍、良性メラニン細胞性母斑。腎臓の膨大細胞腫及び卵巣表面上皮の良性腫瘍。
【0131】
本発明に係る方法、装置及び同様のものを用いるために適当な悪性腫瘍の例を、侵略的もしくは予備侵略的な相における主要箇所及び移転箇所について、以下の表1に列挙する。
【0132】
【表1−1】

Figure 2004535569
【0133】
【表1−2】
Figure 2004535569
【0134】
【表1−3】
Figure 2004535569
【0135】
【表1−4】
Figure 2004535569
【0136】
(2) 伝染性、炎症性及び自己免疫性の病気
【0137】
本発明に係る方法は、伝染性、炎症性及び自己免疫性の病気を含む、免疫系を含む病気を確認するために用いることができる。これらの病気においては、炎症性細胞は、活性化され、本発明に係る方法によって検出される特性を含む定められた数の組織に浸透し、また、組織内に出現する内在細胞型内の細胞の損傷又は修復の結果である組織構造の特性変化が生じる。炎症性細胞は、好中球、肥満細胞、形質細胞、リンパ球の免疫芽芽球、好酸球、組織球及び大食細胞を含む。
【0138】
炎症性疾患の例として、類肉腫症及びクローン大腸炎、バクテリア性(細菌性)疾患、ウィルス性疾患、菌類による疾患のような肉芽腫性疾患、又は結核、ヘリコバクタ幽門誘発性潰瘍、髄膜炎及び肺炎のような他の生体伝染病が含まれる。アレルギー性疾患の例として、喘息、アレルギー性鼻炎(花粉症)もしくは小児脂肪便、慢性関節リウマチのような自己免疫性疾患、乾癬、I型糖尿病及び潰瘍性大腸炎、多発性硬化症、移植拒絶反応のような過敏性反応、及び、浸潤性免疫細胞又は病気の特徴となる現存の組織型の改変形態の存在を含む固有パターンを生じる他の免疫系又は炎症性状態(心内膜炎もしくは心筋炎、糸球体腎炎、膵臓炎、気管支炎、脳炎、甲状腺炎、前立腺炎、歯肉炎、胆嚢炎、子宮頚炎、甲状腺炎又は肝炎のような)の不調又は障害が含まれる。炎症性細胞の存在と動脈の裏うち又は内壁の細胞内の特性構造変化の存在とを含む粥状硬化症もまた、この方法によって認識することができる。
【0139】
(3) 変性疾患及び無酸素傷害又は化学的傷害
【0140】
本発明に係る方法は、特定の細胞型の喪失又は損傷かつ悪化した細胞型の出現を含む病気を検出するために有用である。神経変性疾患の例として、神経の喪失と損傷した神経内の特性変化とを含むアルツハイマー病、パーキンソン病、筋萎縮性側索硬化症が含まれる。虚血性損傷(血液供給の喪失)による細胞型への傷害を含む病気の例として、発作、心筋梗塞(心臓発作)、及び器官への血栓性又は塞栓性の傷害が含まれる。特定の細胞型の喪失又は改変を含む病気の例として、関節の骨関節炎が含まれる。傷害の慢性形態の例として、高血圧症、硬変症及び心不全が含まれる。細胞死の特性を生じる化学的又は中毒性の傷害の例として、腎臓の急性管系組織壊死が含まれる。器官内で生じる老化の例として、皮膚又は毛髪に生じる老化が含まれる。
【0141】
(4) 代謝性疾患及び遺伝病
【0142】
特定の遺伝病をもまた、この方法で認識することができる細胞数の特性変化を生じる。そのような病気の例として、嚢胞性繊維症、網膜炎、神経線維腫症、及びゴーシェ病やティ−サックス病のような蓄膿症が含まれる。骨髄又は末梢血球の特性変化を生じる病気の例として、貧血症又は血小板減少症が含まれる。
【0143】
組織及び構造の認識
【0144】
いくつかの実施例において、既知の組織/構造型の望ましい組の画像は前記パラメータ抽出に従属され、また、多くの種類の1つに分級器としてではなく、認識されるべき組織又は構造のための単一のテンプレートへの構造パターンの基準として用いるための人工的神経ネットワークを用いて、個々の関連的種類テンプレートが形成される。これらの基準は基準と検査の組織もしくは構造との間の「類似性の程度」を示しており、また、同時に、認識確率(信頼度)を評価するものであってもよい。次いで、各ネットワークは、図8に示す「関連付け行列」を作成する関連評価の表に寄与する。図8に示す実施例においては、認識される各組織又は構造のための各パラメータのための特定のテンプレートを有するサブネットワーク61〜63が設けられている。したがって、図8に示すように、組織型1の認識のために、各パラメータのためのnのサブネットワーク61が設けられている。同様に、組織型2のためにnのサブネットワーク62が設けられており、組織型mのためにnのサブネットワーク63が設けられている。前記したように、これらのサブネットワークのそれぞれは、付加的なサブネットワーク、例えば、訓練セットのデータ劣化の各モードのためのサブネットワークを含むことができる。
【0145】
この方法によって、本発明に係る装置は、以下の表2を含む、顕微鏡を用いて病理学者によって認識することができる組織型及び構造と同じ有用な多くの組織型及び構造である十分な確実性を有して認識することができる。前記装置の作動において、構造と基礎構造との間には機能的な差異がない。それらはいずれも、同じ方法によって認識することができる。基礎構造は、単に、より大きな構造形式内で見いだすことができる形式である。しかし、この相対的階層は、該階層が病理学者によって用いられかつ以下の表がさらに小型又は簡潔になることを可能にするので、正常の細胞型をも列挙する以下の表2に示される。
【0146】
【表2−1】
Figure 2004535569
【0147】
【表2−2】
Figure 2004535569
【0148】
【表2−3】
Figure 2004535569
【0149】
【表2−4】
Figure 2004535569
【0150】
【表2−5】
Figure 2004535569
【0151】
【表2−6】
Figure 2004535569
【0152】
【表2−7】
Figure 2004535569
【0153】
【表2−8】
Figure 2004535569
【0154】
【表2−9】
Figure 2004535569
【0155】
【表2−10】
Figure 2004535569
【0156】
【表2−11】
Figure 2004535569
【0157】
【表2−12】
Figure 2004535569
【0158】
【表2−13】
Figure 2004535569
【0159】
【表2−14】
Figure 2004535569
【0160】
【表2−15】
Figure 2004535569
【0161】
脳は、人体で最も複雑な組織である。それらは、無数の脳構造、及び、前記のように列挙されない、脳走査で画像化されかつこの装置によって認識することができる他の構造、細胞型、組織及びその他である。
【0162】
いくつかの病気は、該病気の証明(hallmark)として用いられる組織内の物質の蓄積又は累積によって確認することができる。これらの物質蓄積は、しばしば、組織内に異常の構造を形成する。そのような蓄積は、細胞(例えば、パーキンソン病の黒質のドーパミン作動性ニューロンのレービー小体)内で位置することができる、又は、細胞外(例えば、アルツハイマー病の神経炎斑)で発見することができる。それらは、例えば、糖蛋白質、蛋白質、脂質、クリスタリン、グリコゲン及び/又は核酸の蓄積とすることができる。いくつかのものは、付加標識物なしで画像において確認することができ、他のものは、該他のものに付着される選択的な標識物を必要とする。
【0163】
特定の病気の診断のために有用な蛋白質の蓄積物(糖蛋白質の蓄積物を含む)の例として、アルツハイマー病の神経炎斑及びもつれ、多発性硬化症の斑、海綿状脳障害のプリオン蛋白質、強皮症のコラーゲン、ヒアリン病のヒアリン沈着物及びマロリー小体、キンメルスティルウィルソン病の沈着物、パーキンソン病のレービー小体及びレービー小体病、複数系統無栄養症のグリア細胞のアルファ瘢痕形成封入体、粥状硬化症のじゅく状斑、II型糖尿病のコラーゲン、結核の乾酪化変性肉芽腫、及び封入体筋炎のアミロイドベータ前駆体蛋白質が含まれる。脂質の蓄積物(脂肪の蓄積物を含む)の例として、栄養学的肝疾患の沈着物、粥状硬化症のじゅく状斑、肝臓の脂肪変化、粥状硬化症の泡大食細胞、黄色腫、他の脂質蓄積疾患、及び粥状硬化症の脂肪線条が含まれる。クリスタリンの蓄積物の例として、腎結石の尿酸及びシュウ酸カルシウムの結晶、痛風の尿酸結晶、動脈硬化性斑のカルシウム結晶、腎結石症の石灰沈着、弁膜性心疾患の石灰沈着、及び乳頭癌の砂腫体が含まれる。核酸の蓄積物又は封入体の例として、ヘルペス(疱疹)のウィルスDNA、サイトメガロウイルスのウィルスDNA、ヒト乳頭腫ウイルスのウィルスDNA、HIV(免疫不全ウイルス)のウィルスDNA、ウィルス性肝炎のカウンシルマン体、及び伝染性軟疣の軟属腫小体が含まれる。
【0164】
高確実性の認識に基づく装置自己教示
【0165】
現存の訓練された組織/構造型の経験のための関係付けテンプレート評価の蓄積された評量値の評価は、分類/認識の決定を規定する。このこと及び/又は他の理由のために、本発明に係る方法は、動的装置適応性及び自己統合化発展性を含むことができる。検査組織/細胞構造の基準評価は、定められた境界限界内(容認可能の確率帯域幅内)に入るとき、本発明に係る装置は、現試料検査のわずかな変化を含むように、パラメータ基準テンプレートの認識包絡線のそれぞれの訓練を自動的に向上させることができる。前記装置は、該装置の訓練された経験を動的かつ自動的に増加させる。基準評価が先の経験の外側にあるとき、その逸脱性の特性が、訓練された型(自己教示)のそれぞれへの関連から及び類似の分散型の有効な統計学的再発生下で出現し、新たな基準を自動的に生成し、関係付け行列に動的に付加することができる。
【0166】
弁別的な分子を含む位置及び量の決定の成分
【0167】
既知の方法を用いて、標識物又は標識物上の標識札によって発した色を示すか又は他の弁別可能の波長である画素を確認することができ、前記色の強度を、標識化された成分の量に関係づけることができる。同様に、いくつかの組織成分は、標識物の使用により画像から直接弁別することができる。成分又は標識物もしくは標識札によって発した主要信号の関係付け又は関連性の程度が決定され、構造、細胞型等に局所的に限定される。いくつかの適当な方法がある。
【0168】
1つの方法においては、まず、被探求成分の存在を示す弁別可能の標識又は識別特性を示す1つの画素又は複数の隣接画素を確認し、該画素が細胞核内に又は細胞核の付近に存在するか否かを決定するために調査し、該画素が細胞核内に又は細胞核の付近に存在するとき、細胞核型を確認する。成分が細胞核内に出現したとき又は細胞内に成分が必ず存在するような小さな半径範囲内に成分が出現したとき、前記した方法は、細胞型を決定し、また、成分が出現した箇所で細胞核が正常であるか又は異常であるかを決定することができる。本発明に係る装置は、また、組織型を確認することができる。組織型は、該組織型内に、限られた数の構造を有し、各構造は、限られた数の細胞型を含む。確認された細胞型が、前記組織型内のただ1つの構造型に生じたとき、前記構造が識別される。
【0169】
いくつかの場合において、まず、構造(該構造より大きな構造の基礎構造であってもよい。)を発見し、被探求成分が前記構造内に含まれているか否かを決定することが望ましい。この方法において、多くの試料窓であって該試料窓の一部が一致する又は重なる多くの試料窓、典型的には、前記組織の構造型のための少なくとも1つの候補を得るために十分の大きさを有する多くの試料窓が画像から得られる。各例は、前記したように神経ネットワークを用いて、構造型のためのテンプレートと比較される。次いで、構造を示すとして確認された試料窓は、寸法減少が認識の確実性を低減するまで、順に、各端部で寸法が減少される。
【0170】
いくつかの実施例において、成分が生じる構造が既知の基礎構造を有する構造であるとき、一部分において一致する又は重なる多くのさらに小さい窓は、減少された窓から標本化され、基礎構造のためのテンプレートに比較することができる。基礎構造が発見されたとき、小さい窓は、認識の確実性がなくなるまで、順に各端部で再び減少される。
【0171】
構造又は基礎構造が、画素強度の変化によって決定することができる境界を有するとき、窓又は該窓より小さい窓内の構造又は基礎構造の境界は画素のループとして確認することができ、成分を示す各画素は、該画素がループ上、ループ内又はループの外側にあるか否かを決定するために調査することができる。ループ上又はループ内のすべての画素のための成分強度は、被探求成分の存在の量を定めるために合計することができる。
【0172】
いくつかの場合において、前記した方法は、閾値を超える成分の存在を示す各組の1以上の隣接画素から開始するように逆転することができる。次いで、各組の画素を取り囲む窓は、前記組織に生じることが既知の構造の出現のために取得され、調査される。次いで、構造が発見されないとき、窓は拡大され、前記した過程を、構造が発見されるまで繰り返す。したがって、構造の境界を確認することができ、成分を示す前記組の画素を前記境界が含むか否かの決定がされる。
【0173】
特許請求の範囲に関し、前記した実施例は本発明を実施する特定の方法を説明しているが、本発明は、任意の前記した特定の例によって限定されると解釈されるべきではなく、特許請求の範囲によってのみ解釈されるべきである。
【図面の簡単な説明】
【0174】
【図1】全体系を示す図。
【図2】対象物の分割を示す図。
【図3】対象物から得られた試料分析窓を示す図。
【図4】6のパラメータ計算(特徴抽出)方法を示す図。
【図5】IDGパラメータ抽出方法を示す図。
【図6】認識のために用いられるサブネットワークの典型的な神経ネットワークを示す図。
【図7】細胞核認識のための決定行列を示す図。
【図8】組織又は構造の認識のための決定行列を示す図。
【符号の説明】
【0175】
1 画像
2、3、4、5、6、7、8、9 画像化構造(対象物領域)
10 中心線
11、12、13、14、15、16 試料分析窓
17、18、19 強度レベル
20、21、22 強度ピーク
23 窓
31 入力ノード
32 ニューロン
33 出力ニューロン
36 入力
37 重み付け係数
38 重み付けの数
39 最後の数
51 対象物分割モジュール
52 パラメータ計算モジュール
53 構造パターン認識モジュール
61、62、63 サブネットワーク【Technical field】
[0001]
Cross-reference of related applications
This application claims priority from US Provisional Application No. 60 / 282,677, filed provisionally on April 9, 2001, and US Provisional Application No. 60 / 310,774, provisionally filed on August 7, 2001. It asserts its rights. These and all other references mentioned herein, for all teachings and disclosures thereof, regardless of where the references appear in the present specification, are set forth as such. Incorporated herein by reference.
[Background Art]
[0002]
The human brain functions as an excellent image processing device. As a result of extensive training and experience, histologists recognize hundreds of different types of tissue, or distinguishable features of histological types, either through a microscope or from images or video (hereinafter "images"), and Learn to identify distinguishable features of structures, substructures, cell types and cell nuclei that are elements or components of tissue. By repeatedly observing these unique or characteristic patterns of tissue, the human brain generalizes the knowledge gained from the observations, and in new specimens or images, the tissue type, tissue structure, tissue substructure, cells Classify type and cell karyotype accurately.
[0003]
In addition, the human pathologist may determine the appearance of normal tissue and the appearance of one or more diseases or disorders that alter the appearance of particular cells, structures or substructures within the specimen, or the overall appearance of the tissue. And learn to identify. With extensive training and experience, human pathologists learn to identify and classify many types of diseases or disorders associated with each tissue type.
[0004]
Also, when a particular tissue component contains a visible molecule or contains a molecule that has been characterized using a chemical technique that represents a color that can be distinguished from a microscope or from an image, one can determine the presence of this particular tissue component. And the cell type or other tissue component in which the component appears can be identified.
DISCLOSURE OF THE INVENTION
[Means for Solving the Problems]
[0005]
Computer techniques according to the present invention may be used to automate various functions typically performed by histologists and / or pathologists as described above for tissue specimens in which pattern features are detected, in an automated manner (hereinafter, referred to as an automated method). Includes specialized equipment that runs in "automated methods." The specialized device is a device and method for analyzing an image of the tissue specimen, wherein (1) classifying the type of the sample, and (2) where a designated tissue structure, tissue substructure or cell karyotype exists. (3) confirming the tissue structure, tissue substructure or cell nucleus in the image by visible labeling or pixel coordinates, (4) the structure type, base at a specific position in the image Devices and methods for classifying cell nuclei of structural types, cell types and tissue components. In addition, this automated device (hereinafter "automated device") and method can be used to alter the appearance of cell nuclei or specific cell types, alter the appearance of tissue structures or tissue substructures, or alter the overall appearance of tissue. The tissue component can be classified as normal or abnormal (eg, disease or disease) based on the change. Further, the apparatus and the method classify a position where a sought component (a sought element) including a discriminable molecule appears in the sample, and classify a cell type including the sought component and the component is present in the cell nucleus. Not only the classification of the position, but also the organization type, organization structure and organization basic structure can be classified.
[0006]
In addition to the benefits of reducing the costs associated with paying histologists and / or pathologists, the devices and methods of the present invention can be tailored to perform as many of such analyzes per hour. Thereby, the device and method can be used, for example, for organisms where drugs or other bound compounds are present, organisms where a particular gene sequence product is present, or organisms where a particular tissue component is localized. It is feasible to identify the tissue components. The devices and methods according to the present invention can be adjusted to select tens of thousands of compounds or gene sequences of an organism having a set of tissue samples. Such information can be gathered with the help of histologists and / or pathologists, but the costs are high and, even at no cost, the time required for such analysis should be within the time allowed. Will be impeded.
[0007]
The apparatus and method according to the present invention uses the ability or function of image pattern recognition to learn information about an image that is characteristic of many cells fixed in relation to each other as part of the tissue of an organism. It can also recognize two-dimensional traversing patterns in the appearance of the cell nucleus surface for cells fixed to the tissue or cells separated from the original tissue within the cell. The devices and methods according to the invention can be used for cells from any type of organism, including plants and animals. One value of this device and method is in automated human tissue analysis. Such devices and methods provide the ability to automate, with an image capture device and a computer, a technique for identifying and classifying tissue type, tissue structure, tissue substructure, cell type and cell nucleus properties within a specimen. The image capture device may be any device or technique that includes scanning a sample in two or three spatial extents and captures high-resolution images that are characteristic of a tissue sample.
[0008]
Automated biohistology
[0009]
Techniques used by histologists include staring at a tissue sample containing many cells in a fixed relationship to each other, and identifying patterns that occur in the tissue. Different tissue types produce a discriminable pattern that includes many cells, groups of cells and / or many cell types. Various tissue structures and tissue substructures also result in discriminable patterns involving many cells and / or many cell types. Intercellular patterns are used by the specialized device as used by histologists to identify the tissue type, tissue structure, and tissue substructure within the tissue. Recognition of these properties by automated devices and methods does not require identification of individual cell nuclei, cells or cell types in the sample, but identification can be assisted by the simultaneous use of the method.
[0010]
The automated apparatus and method identifies individual cell types in a sample from the relationship of cell types across many cells, from the relationship between cell types and other cell types, or from the appearance of the cell type nuclei. can do. By means of methods similar to those used to identify tissue types, tissue structures and tissue substructures, the device according to the present invention provides at least two spatial images of a cell nucleus to identify individual cell types in a sample. Analyze patterns that cross target areas.
[0011]
Many cellular features that occur in tissue must be detectable from the image so that the computer device and method can recognize the tissue component by repeating the analysis of multiple cell patterns. To recognize the cell karyotype, the device examines the pattern across the image of the cell nucleus. Depending on the tissue type, the cell type being investigated, and the method of forming the image, staining of the sample may or may not be desired. Some tissue components are fully detectable without staining.
[0012]
Visible light received through an optical lens is one way to form an image. However, any other method of capturing a sufficiently large image with a sufficiently high resolution, including methods using other frequencies of electromagnetic radiation, scanning with a highly focused beam such as an x-ray flux, or using an electron microscope. Can be used.
[0013]
In one example, a tissue sample is sliced and mounted on a microscope slide by conventional methods. Alternatively, images of a plurality of cells in the tissue may be formed without removing the tissue from the specimen. For example, there are microscopes that can represent the cellular structure of human skin without removing skin tissue. There are also endoscopic microscopes that can represent the cellular structure of the walls of the gastrointestinal or gastrointestinal tract, lungs, blood vessels and other internal areas accessible to the endoscope. Similarly, an invasive probe (hereinafter "probe") can be inserted into human tissue and used to form an in vivo image. The same methods of image analysis can be applied to images acquired using these methods. For other in vivo image forming methods, if the method can identify features of images of a plurality of cells or if a pattern on the surface of a cell nucleus can be identified with a sufficient resolution, the method may be used. it can. Such methods include a method using CT scan, a method using MRI, a method using ultrasound, or a method using PET scan.
[0014]
As images are formed from the tissue, a set of data for each image is typically stored on a computing device. In one example, at least about one million pixels per image and 256 intensity levels for each of the three colors of each pixel are stored for each image to obtain at least 24 bits of information per pixel. Is done. In order to use the computer to ascertain tissue type, tissue structure and cell karyotype from this amount of data, using the full range of 256 intensity values for each pixel, the data across at least two spatial ranges A parameter is calculated from the data to reduce the amount of the data by searching for the pattern. Once the parameters have been calculated, the amount of data required to represent the parameters of the image is extremely small compared to the content of the original image. Therefore, the target information is maintained by the parameter calculation method, and the remaining information included in the image is discarded.
[0015]
Many parameters are calculated from each image. Using this technique, identification or signature can be made for each tissue type, tissue structure, tissue substructure, and cell karyotype, and this information is used as a basis for knowledge for use by specialized equipment. Preferably, a set of neural networks is used. Using this specialized device, the data contained within each parameter from the unknown image was pre-calculated from the tissue type, tissue structure, tissue substructure, cell type or other image of which cell nucleus properties are known, It is compared with the corresponding parameter. The specialized device calculates a similarity between an unknown image and a known image previously supplied to the specialized device. Similar probabilities are calculated for each comparison.
[0016]
Automated histopathology
[0017]
Normal tissue includes certain cell types that represent the unique morphological characteristics, function, and / or placement of other cells with the genetic program of the cell. Normal tissues have a precise spatial relationship with each other and contain a certain number or percentage of certain cell types. These features tend to be within a significantly narrower range within similar normal tissues among different individuals. In addition to cell types that confer on certain organs the ability to perform their intrinsic functions (eg, epithelial cells or parenchymal cells), normal cells also include blood cells, blood vessels, nerve cells, nerves including Schwann cells, and the brain. Provides the ability for the movement or contraction of tissue cells, such as fibroblasts (stromal cells) outside the central nervous system or glial cells (stromal cells), and some inflammatory cells, and organs (eg, smooth muscle) It has cells that perform common functions across organs such as cells. Combinations of cells containing these specific functions include patterns that are regenerated between various individuals for specific organs or tissues, and the like, and are described as "normal" for specific tissues by the methods described herein. "Can be recognized.
[0018]
In abnormal conditions, changes in tissue detectable by this method occur in one or more of several ways. (2) morphological changes in nuclear properties of cells; (3) changes in the proportion of specific cells; and (4) changes in the appearance of cells that are not normal components of the organ. Changes, (5) changes related to the loss of cells that should normally be present, or (6) changes due to accumulation of abnormal substances. Whether the damage is due to genetic, environmental, chemical, toxic, inflammatory, autoimmune, developmental, infectious, reproductive, neoplastic, incidental or trophic, changes in properties within the organ Occurs outside the boundaries of the normal features, which can be recognized and classified by the method according to the invention.
[0019]
By collecting images of normal and abnormal tissue types, identification or marking is performed for each normal tissue type and each known abnormal tissue type. The specialized device can replace the pathologist to determine whether the new tissue sample is normal or applies to a known abnormal tissue type. The calculated parameters can also be used to determine what each structure exhibits anomalies or what cells represent an abnormal cell nucleus and calculate the extent of the anomalies.
[0020]
Automated tissue component detector
[0021]
While the ability or ability to replace histologists and / or pathologists with automated devices is an important aspect of these devices and methods, other useful aspects include tissues, including human tissue, that can be identified from images. Function to determine the location of internal structures or other components. One of the valuable applications for this aspect of the invention is to find cellular components associated with a particular gene.
[0022]
Scientists have sequenced the genome of humans and the genome of living organisms. However, even if knowledge of the nucleic acid sequence or protein sequence of a gene is obtained, it is not always known whether or not the gene appears or appears in a living body (hereinafter referred to as "appears"). Genes can exhibit numerous patterns of appearance or appearance across tissues (hereinafter "appearances"). Some genes will be extensive, while others will show very discrete localized patterns. Gene products, such as messenger ribonucleic acid (mRNA) and / or proteins, may appear in one or more cell types or one or more tissue structures or tissue substructures in one or more tissues. Some genes do not appear in normal tissue but may appear during development or as a result of disease. Finding the cell type, tissue structure, tissue substructure and tissue type in which the gene appears and generating the gene product is extremely valuable. Currently, little is known about when and where genes appear in human or other biological tissues. Mapping the localization of single gene manifestations across the human body is a time consuming task for histologists and / or pathologists. Mapping the pattern of manifestations of a large number of genes across the human body is a tremendous task. The specialized device and method according to the invention automate this task.
[0023]
In addition to localizing the gene product, the device according to the invention can be used to find any localized component by an identifiable unique structure or an identifiable molecule, including metabolic by-products. The device is capable of recognizing substances produced by cells and / or substances associated with the exterior of cells, such as proteins, fatty acids, carbohydrates and lipids having discriminable structures or recognizable molecules that can be placed on images. Can be used to find. The sought component need not be immobilized within the cell, but instead is preferably limited to a particular region within the cell. Examples of other localized tissue components found include localized neurotic tangles, neural plaques (plaques), any drugs, adjuvants, bacteria, viruses, or prions.
[0024]
By confirming the gene product or other component to be discovered and determining its position, the automated apparatus according to the present invention provides a cell karyotype, cell type, tissue structure, tissue in which the component to be discovered occurs. It can be used to find and confirm substructure and tissue type. The component to be discovered can be a drug or compound present in the specimen. In this case, the drug or compound may be used as a label (marker) for other components in the image. Thus, the device can be used to find components that are immobilized within cells, components that are not immobilized within cells but are localized to a portion of cells, and components that occur outside of cells. .
[0025]
In one prior art approach, a researcher first gives a tissue a known label that attaches to a component of a particular cell type within a particular tissue, thereby providing a tissue and / or cellular component having a recognizable molecular structure. Find the location of. The researcher then provides a second label that marks the molecular structure sought. If the two labels are expressed together, it is possible to identify the cell in which the desired molecular structure appears. If the computer device cannot confirm the location or cell type of the cell except by detecting the position of the first label in the image, whether the two labels both appear in the image. Can be determined by a computer device.
[0026]
This prior art is generally used when there is already a known label that can mark a known cell type without marking other cell types, and therefore, this prior art is serious. There are some restrictions. Such specific and selective labels are only known for the very small part of the more than 1500 cell types found in the human body.
[0027]
The devices and methods according to the present invention can be used for tissue analysis without the use of labels to mark known cell types. In the device according to the present invention, a single label attached to a component to be discovered can be applied to one or more tissues from a living body. The devices and methods according to the present invention may be used in an automated fashion for tissue types, tissue structures and / or tissue substructures, cell types and / or, in some cases, subcellular expression of a particular component to be discovered. Check the area.
[0028]
This device is particularly useful for studying gene manifestations across multiple tissues. In this case, the researcher uses a label that selectively attaches to the messenger ribonucleic acid or other gene product for the gene of interest, and attaches the label to many tissue samples from many locations in the body. Give to. Therefore, the apparatus and method according to the present invention analyze the image of each desired tissue sample, confirm the position of each label in the image, and then determine the tissue type, tissue structure, and tissue substructure cells in which the label expresses. It can be used to confirm type and / or subcellular structure.
[0029]
In addition to finding locations where the component of interest is expressed, quantitative methods can be used to determine what amount of component is present at a given location. Such quantitative methods are known in the prior art. For example, the number of molecules of the label attached to the tissue specimen is related to the number of molecules of the component present in the tissue. The number of molecules of the label can be substantially determined by the signal strength of the pixels in the image formed from the label.
[0030]
Certain aspects of the present invention are also discussed in the specification of the US Provisional Patent Application set forth below, all of which are incorporated herein by reference in their entirety. US Patent Application No. 60 / 265,438, entitled "PPF Characteristic Tissue / Cell Pattern Features", filed January 30, 2001. U.S. Patent Application No. 60 / 265,448, entitled "TTFWT Characteristic Tissue / Cell Features", filed January 30, 2001. US Patent Application No. 60 / 265,449, entitled "IDG Characteristic Tissue / Cell Transform Features", filed January 30, 2001. U.S. Patent Application No. 60 / 265,450, entitled "IDG Characteristic Tissue / Cell Point Projection Transform Features", filed January 30, 2001. U.S. Patent Application No. 60 / 265,451, entitled "SVA, Characteristic Signal Variance Features", filed January 30, 2001. U.S. Patent Application No. 60 / 265,452, entitled "RDPH Characteristic Tissue / Cell Features", filed January 30, 2001.
BEST MODE FOR CARRYING OUT THE INVENTION
[0031]
attachment
[0032]
The tissue sample can be fixed cellular tissue or cells separated from cellular tissue such as blood cells, inflammatory cells or primary atypical pneumonia smear cells. The tissue sample can be mounted on a microscope slide by conventional methods to represent the exposed surface for viewing. The tissue can be fresh or soaked in a preservative or preservative (hereinafter "preservative") to preserve the tissue and tissue antigens and to avoid postmortem spoilage. For example, tissue that has been frozen fresh or soaked in a preservative and frozen or embedded in a substance such as paraffin, plastic, epoxy resin or celloidin may be cryostat or gliding. It can be cut into microtome or vibratome slices and mounted on microscope slides.
[0033]
staining
[0034]
Depending on the tissue type to be discovered, the cell type to be discovered, and the method desired to form the image, staining of the sample may or may not be necessary. Some cellular components are well detectable without staining. Methods used to form images without staining include contrasting techniques such as differential interference contrast, Nomarski differential interference contrast, aperture contrast (dark field), phase contrast, and polarization contrast. Additionally, other methods may be used, including techniques that do not rely on reflected light, such as Raman spectroscopy, and techniques that rely on light excitation and emission, such as epifluorescence.
[0035]
In one example, a common histological nuclear staining method such as hematoxylin is used. Eosin, which stains many components in each tissue specimen and cell, can be used. Hematoxylin is a blue to purple dye that dyes a basophil (for example, a substance having an affinity for a base) from blue to purple. Thus, areas around the cell nucleus, for example, areas containing highly concentrated nucleic acids, appear in blue. Conversely, eosin is a red-to-pink dye that stains eosinophilic substances. Thus, the protein stains red or pink. Since glycogen is not stained by hematoxylin or eosin, it is observed as a hollow bumpy space in the sample.
[0036]
Cell nucleus (Foilgen reaction), mast cells (Giemsa, Toluidine blue), carbohydrates (periodic acid Schiff, Alcian blue), connective tissue (trichrome), lipids (Sudan black, oil red O), microorganisms (grams, acid-fast) Special dyes may be used, such as those used to visualize Nissl material (cresyl violet) and myelin (Luxor Fast Blue). The pixel arrangement of these dyes can be found based only on these distinguishable colors.
[0037]
Adding a sign
[0038]
In some embodiments of the invention, a label is added to the sample. The label is typically added before the sample is stained because the dye substance reduces the attachment of the label. Optionally, in some embodiments, the label may be added after staining.
[0039]
A label is a molecule designed to attach to a particular type of location in tissue to represent a detectable location or location in the image. The method according to the invention for determining a tissue component at the location of the sought component detects the presence of some molecules detectable in the image at said location. Occasionally, such as a drug that fluoresces, or a structure that exhibits a discriminable form (or form or shape) that can be identified by pattern recognition with or without staining, The sought component is detected directly at the point of the structure. In other cases, the sought component can be identified by adding a label that attaches to the sought component to facilitate detection. Some labels are not directly detectable, and tags must be attached to the label by a method that adds a radioactive molecule to the label before the label is applied to the sample. Can be. Molecules such as digoxigenin or biotin, or enzymes such as horseradish peroxidase or alkaline phosphatase, are label tags that are usually integrated into the label to facilitate indirect detection of the label.
[0040]
In the prior art, labels that are considered very specific are labels that adhere to known cellular components of known cells. In the present invention, an object is to search for a component in an unknown tissue sample having a tissue type, a tissue structure, a tissue basic structure and / or a cell nucleus in which the component appears. This includes designing labels to find components, applying the labels to tissue samples, including many types of tissues, structures, substructures and cell types, and making sure that any part of the sample is labeled. This is realized by determining whether an object, that is, a sought component is included.
[0041]
The label can be an antibody, drug, ligand, radioactive or fluorescent compound that attaches or binds to the sought component, a compound that has a discriminable color, or a compound that is detectable by other methods. Antibody labels and other labels may be used to bind to and identify antibodies, drugs, ligands or compounds in tissue samples. The antibody or other primary binding label attached to the component sought is coated with another antibody (eg, a secondary antibody) or a secondary antibody or other label capable of detecting the label. The detection may be performed indirectly by attaching to the sought component.
[0042]
The nucleic acid probe can be used as a label. A probe is a nucleic acid that attaches or multiplies to a gene product, such as messenger ribonucleic acid (mRNA), by nucleic acid type binding (base pairing) or stereochemical interaction. The probe may be radioactive, fluorescent, have a distinguishable color, or comprise a labeling molecule such as digoxigenin or biotin. Probes can be directly or indirectly detectable using a sequentially detectable secondary label.
[0043]
Signs or tags with distinguishable colors or fluorescent or other visible indicia can be viewed through a microscope or directly from the image. Other types of labels or labels may provide indicia that can be converted into detectable radiation or images. For example, radioactive molecules are detected by techniques such as adding fluorescent or light emitting other substances by receiving radioactive luminescence or adding substances that change color, such as photographic emulsions or films, by receiving radiative energy. It is possible to do.
[0044]
Image collection
[0045]
Referring to FIG. 1, after sample preparation, the next step in the method is to obtain an image 1 that can be processed by a computer algorithm. The stored image data is converted into a numerical array, which allows for the calculation of parameters and numerical conversion. Several basic operations on the raw data can also be used, including color separation, calculation of grayscale statistics, thresholding and binarization operations, and convolution filters. These methods are commonly used to calculate parameters from an image.
[0046]
In one example of how to obtain image 1, the slides may be a motorized XY stage such as sold by Ludl and Prior and an RGB (red) such as a DVC1310C attached to the stage. , Green, blue) placed under an optical microscope such as the Zeiss Axioplan 2 with a digital camera. This typical camera captures 1300 × 1300 pixels. The camera is connected to a computer via an image capture board, such as an Epix company's pixelLYNX board. The obtained image is stored in the hard disk drive of the computer. The camera is controlled by software such as CView software supplied by DVC and the computer is connected to an RGB monitor device for viewing color images.
[0047]
The microscope is set at a magnification that can identify or discriminate cell features for many cells at once. For typical human tissue, a magnification of 10 or 20 is preferred, but other magnifications are possible. Adjust the height and aperture of the field stop and condenser, set the aperture, adjust the illumination level, focus on the image, and capture the image. These steps are preferably automated by comprehensive software for driving the microscope, motorized stages and cameras.
[0048]
Image 1 is stored in a TIFF format or other suitable format that stores the color signals of image 1 (typically red, green, blue) in a 24-bit file format (8 bits per color).
[0049]
Typically, a resolution of about 1 micron of tissue per pixel is sufficient for tissue and tissue structure recognition. This is equivalent to using a camera having a plurality of 10 micron pixels with a microscope having a 10 × objective. A typical field of view at 10 × is 630 microns × 480 microns. Considering a standard cell with a diameter of 20 microns in the tissue, this results in about 32 cells x about 24 cells. For tissue recognition, the image must represent tissue having a minimum dimension in the range of at least about 120 microns. For tissue structure recognition, some very small structures can be recognized from images representing the tissue with a minimum dimension of at least about 60 microns. For cell nucleus recognition, the image may be as large as a typical cell nucleus of about 20 microns and the pixel size may be as small as about 0.17 microns. In order to capture images with a DVC1310C camera using a Zeiss Axioplan 2 microscope with a 10 × objective lens as described above, each image represents 0.87 mm × 0.69 mm, and each pixel represents 0. Represents 66 microns x 0.66 microns. For recognition of cell nuclei, the objective lens can be changed by a factor of 20, and the resolution can be 0.11 micron per pixel of tissue.
[0050]
Image processing device
[0051]
As shown in FIG. 1, in one embodiment of the image processing apparatus and method, three main components are included. That is, (1) an object division module 51 having a function of extracting object data relating to a tissue / cell sample structure from a background signal, and (2) two (or three) spatial ranges in the data. A parameter calculation (or "feature extraction") module 52 that calculates unique structural pattern features and calculates pixel intensity changes in the data across this spatial range; and (3) an associative voting matrix architecture. And a structural pattern recognition module 53 for assessing the recognition probability (degree of reliability), typically using a plurality of neural networks. Each component will be described in turn. In alternative embodiments, the functionality of component (1) and component (2) may be combined into one module, or any other specialized equipment structure may be used for component (3). . The invention can be implemented in software, implemented in a computer readable medium, or implemented in network signals, such as running on a general purpose computer or a network of general purpose computers. As is known in the art, neural network components execute on dedicated circuitry different from one or more general purpose computers.
[0052]
Signal splitting
[0053]
In one embodiment, a signal segmentation procedure method is used to extract and enhance the color-coded (stained) signals and background structures used for feature analysis based on formal content. In this method, a color image of an object is separated into three RGB multiple spectral bands, and a covariance matrix is calculated. This matrix is paired to determine the eigenvectors representing a set of irrelevant planes arranged by reducing the level of change as a function of the "color-crowded" (structurally related) signal strength. Keratinized. Further, the steps of the division procedure vary depending on each parameter extraction method.
[0054]
Parameter extraction
[0055]
In some aspects of the parameter extraction method according to the present invention, it is necessary to find meaningful pattern information across two or three spatial extents at very small changes in pixel intensity values. For this reason, pixel data must be captured with good intensity gradations and processed. In one embodiment, 256 possible value (8 significant bits) steps or grades are used for accuracy. A value of 128 (7 valid bits) will work, but not enough. On the other hand, a value of 64 (significant bits of 6) produces significant tones, and a value of 32 (significant bits of 5) is useful for extracting parameters that are meaningful when using the method for this aspect of the invention. exceed the limit.
[0056]
The pixel intensity data values are used in a parameter extraction algorithm that operates over two or three ranges by using vector operations, which is different from a single range scan across the data. To obtain pattern data across two ranges, at least six pixels in each range are needed to avoid confusion with noise. Thus, each element of the parameter is extracted from at least a two-dimensional grid of pixels having a minimum range or size of 6 pixels. The smallest such object is an octagonal 24 pixel.
[0057]
Embodiments according to the present invention incorporate a parameter extraction module that calculates a unique structural pattern within each segmented signal / object. Tissue / cell structural patterns are discriminable and type-specific. Such a pattern results in excellent type recognition discrimination. For tissue recognition and tissue structure recognition, in one embodiment, six different parameters are calculated across a window that includes some or all of the image (sometimes a segmented image). In some embodiments, for cell karyotype recognition, parameters can be calculated independently for each region / object of interest, and an integrated diffusion gradient transform (IDG), described below, called IDG Only one parameter calculation algorithm is used, which is an integrated diffusion gradient transform.
[0058]
In one embodiment for tissue and structure recognition, no object segmentation is used so that all pixels are used in the algorithm. For nucleus type recognition, the pixels representing the nucleus are split from the remaining data so that the computationally intensive step does not stop at data that has no useful information. As shown in FIG. 2, for cell nucleus recognition, the segmentation procedure separates the imaging structures 2 to 9 defined as local regions to which object recognition is applied. These object regions are imaging structures with a high probability of containing cell nuclei. They are subject to form content based on parameter calculations that examine the content of the two-dimensional spatial and intensity distribution of the object area to calculate the discriminative properties of the nuclear material.
[0059]
For recognition of the cell nucleus, the first image 1 is obtained as a color RGB image, and then an analysis of the main components of the three color planes is performed, with the R, G and B enhanced for contrast and detail. By extracting the mixed image of the color plane, it is converted to an 8-bit grayscale data array having 256 possible intensity values for each pixel. The mixed 8-bit image is then divided between the imaged area of interest and the total average background content such that the cell nuclei having the stained density are split into objects of interest and the remaining data is discarded. Subject to a single discontinuity enhancement procedure designed to enhance contrast. When there is a large intensity jump across a few pixels, the intermediate intensity pixels are reduced to low intensity, thereby forming a sharp edge around each cluster or mass representing one or more cell nuclei.
[0060]
The division of the objects 2 to 9 is a localized N × N box-shaped polarizing filter of the same size as the individual cell nuclei, from point to point across the entire augmented image, pixel to pixel. Is achieved by applying Flocking with the formation of grouped objects having effective intensity amplitudes exceeding the statistical limit of the polarizing filter and having dimensions greater than or equal to the dimensions of the individual nuclei Alternatively, these agglomerated pixels are individually identified, mapped, and defined as a target object region. As shown in FIG. 3, the cluster of cell nuclei is observed as a unique target area 7 which is a mapping process (mapping) that determines which pixels are subjected to the feature extraction procedure. This observation is obtained by actual measurements made on the 8-bit image with the dominant component enhanced at the same points indicated by the segmented object region mapping process.
[0061]
For each cell nucleus object region, a centerline 10 is defined to substantially divide the object region along a longitudinal midline of the region. A series of six sample analysis windows 11 to 16 having dimensions substantially the same as the dimensions of the individual nuclei are arranged such that the center of the windows overlaps the midline and is aligned along the midline. The individual discriminable intensity pattern measurements are made by being calculated across two spatial extents within each window. These measurements are normalized to be substantially invariant and compared between different object area measurements obtained from different images. Obtaining a sample analysis window from the center of each group of pixels representing cell nuclei greatly enhances the chance of including one or more cell nuclei. The nucleolus is an example of a cell nucleus component that exhibits a discriminable pattern that is a valid discriminant for a cell karyotype.
[0062]
The parameter calculation used for each of the sample windows 11 to 16 for cell nucleus recognition is referred to as "integrated diffusion gradient" (IDG) of the spatial intensity distribution, as described below. This is a set of measurements that automatically separates type-specific pattern features due to relative amplitude, spatial distribution, imaging type, and formal change to a set of characteristic type derivatives. In one embodiment, 21 individual IDG measurements are calculated for each of the 6 sample windows 11 to 16, for a total of 126 IDG calculations per window.
[0063]
In one embodiment for the recognition of cell nuclei, once the IDG parameters have been calculated for each window, the eigenvector or characteristic vector of each object region 7 is calculated using the 126 measurements from each sample window and two additional Created by integrating parameters. The first additional parameter is a measure of the intensity surface occupancy of the object region across the two spatial extents, thereby calculating a "three-dimensional surface fractal" measurement. A second additional parameter is a measure of the relative working dimension of the region compared to the entire imaging field. In combination or mixing, this set of measurements becomes a unique eigenvector for each object region. It contains 128 measurements in a patterned format. All measurements are independent of conventional cross-section nuclear boundary characterization and do not integrate or require the definition or definition of nuclear boundaries. Ideally, all measurements are made within the boundaries of a single nucleus or cluster of pixels representing the nucleus (hereinafter "cluster").
[0064]
For one embodiment for the recognition of tissue type and tissue structure type, as shown in FIG. 4, the method according to the invention provides for a window in each image 1 which is generally the same size as the whole image. The procedure for calculating the parameters of various specific types in Step 6 is performed. Such parameters calculated from the image are often referred to as "extracted""features". There are many different parameter (or feature) extraction (or calculation) methods that produce useful results for this specialized device. In one embodiment, all of the parameter calculations traverse two or three spatial extents using intensity values having at least six significant bits of accuracy for each pixel, including a measure of the change in pixel intensity. Calculate the measurements of the unique pattern. In one embodiment, six parameters are calculated, as described below. All six parameters contain information specific to the underlying type of physical tissue and cell structure about the statistically distinguishable dispersion characteristics of the underlying type of physical tissue and cell structure.
[0065]
1. IDG integrated diffusion gradient
[0066]
The IDG conversion procedure can be used to calculate a basic "signal type response profile" of the structural pattern in the tissue / cell image. This procedure automatically separates the type-specific signal structure by relative amplitude, spatial distribution, signal type, and signal type distribution into a set of specific modes called "special type differentiation". These formal derivatives are modeled as a set of signal formal response functions that exhibit good type recognition discrimination when there is no coupling to a formal response profile (eg, like a linear minimum square).
[0067]
In overview, as shown in FIG. 5, each window 23 (in one embodiment, the windows 23 are small windows 11 to 16 for cell nucleus recognition and the entire image 1 for tissue or structure recognition. ) Are calculated by examining the two-dimensional spatial intensity distribution at various intensity levels 17 to 19 and calculating their local intensity-form differential variance. The placement of each level is a function of the intensity amplitude in the window. FIG. 5 shows three intensity peaks 20 to 22 extending through a first level 17 and a second level 18. Only two of them extend through the third level 19. For tissue recognition and structure recognition, in one embodiment, calculations are performed at all intensity levels (256) for all of the images. For the cell nucleus recognition in this example, the calculation is performed at only three levels, as shown in FIG. 5, to save the calculation time. This is because there are many objects 2 to 9 for each image and there are 6 sample windows 11 to 16 for each object.
[0068]
In particular, in one embodiment, the IDG parameters are extracted from the image data as follows.
[0069]
(1) The pattern image data is fitted with a self-optimizing nth-order polynomial fit, for example, a chi-square fit is calculated over n in the range of 2 to 5, and the order of the best fit is selected. This fit is used to define the flux flow "diffusion" surface for the measurement of the characteristic formal differential function. Depending on the increasing change across the pattern, this diffuse surface is distorted (fit order greater than 2). This is because, in this example, the formal derivative measurement is always perpendicular to the diffuse surface.
[0070]
(2) The diffuser is placed over the enhanced signal pattern and lowered to one unit level in time (dH). At each new location, the rate of change of the amount of signal structure through the plane is integrated and normalized by the number density (d (Si-1-Si) / d (Ni-I-Ni) = dNp). . As a result, the function automatically separates the type-specific signal structure by relative amplitude, signal strength distribution, signal type, and signal type variance into a function called the characteristic type derivative (dNp / dH).
[0071]
(3) The formal differentiation is processed by a low-pass filter to minimize signal noise effects that are evidenced as random high frequency instantaneous spikes superimposed by the main function.
[0072]
(4) Each of the peaks and valleys in the formal differential function represents the occurrence of various signal components, and the transition gradation between structures is a characteristic of signal formal dispersion.
[0073]
(5) In one embodiment, to obtain unique recognition parameters, the unique formal derivatives are decomposed into a linear superposition of these signal-specific response profiles. This optimizes the (1) response profile amplitude, (2) full width at half maximum (FWHH) profile, and (3) their relative placement by fitting the formal differential function as a linear minimum square. Is achieved.
[0074]
(6) Since the signal strength is typically referenced to the background (or noise height) level, the response function that meets the criterion is the background feature as an added feature component (or for the purpose of signal segmentation). Can be used to determine the position of a line. This can be achieved by examining the relative change in response profile measurements over the entire dNp / dH function to ascertain the onset of the signal reference line when the diffusing surface is lowered. From this analysis, the combined signal response and the signal baseline threshold (THD) are calculated.
[0075]
For tissue and structure recognition, the IDG transform extracts 256 formal derivatives fitted with 8 unique response functions. The location of each match is specified by one value, and the amplitude or magnitude is specified by a second value, all 16 values. With a curve of 256 points and two baseline parameters that are minimal for the area under the curve, this produces an input vector of 18 input values for the neural network.
[0076]
2. PPF 2D pattern projection fractal
[0077]
The PPF can be calculated by projecting the tissue / cell split signal onto a two-dimensional binary point pattern distribution. This distribution is subject to an analysis procedure that maps the cluster distribution of the projections over a wide range of sampling sample intervals across the segmented image. Sample measurement is based on the calculation of a fractal probability density function.
[0078]
The PPF focuses on the basic statistical distribution characteristics of a characteristic surface of a shape in a tissue sample. It uses a variety of tissue / cell structure patterns with unique fractal forms to achieve spatial uniformity (invariance under deviation) toning (invariance at moderate tonal changes), and self- It is based on techniques that use similarity (same basic form everywhere), for example, the naturally occurring properties of tissue patterns that represent the properties of the basic fractal form. The mixing of tissue cell types and the manner in which the tissue cell types are distributed into the tissue types results in unique differences in the imaged tissue structure.
[0079]
In one embodiment, the measurement of the PPF parameters is performed as a form of fractal probability density function calculation, using a novel procedure for point pattern projection and generation of different sized samples. In addition, the signal splitting involves analysis of the two-dimensional distribution pattern of the imaged intensity profile, and the optimal contrast image is calculated using principal component analysis, fitted with an n-th order polynomial plane, and the remaining positive projections Partitioning occurs when binarized to generate.
[0080]
(1) The divided pattern data is not biased in signal acquisition (strength). This can be achieved by repeatedly replacing each pixel value in the pattern image with a minimum locality value defined in an octagonal area between pixel widths between about 5 and 15. This results in a pattern that does not change for uniformity or stepwise variance. However, regions of high variance that are smaller than the rest of the region of interest (ROI) are reduced to a minimum level of local background.
[0081]
(2) The pattern image is fitted with a self-optimizing nth order polynomial fit, for example, a chi-square quality fit is calculated over n in the range of 2 to 5, and the best fit order is selected. This fit is used to calculate the remaining positive part of the patterned image and is binarized to generate a point pattern distribution.
[0082]
(3) The measurement of the fractal probability density function is based on the radial density distribution law, d = Cr (D -2 ) Is achieved. Where d is the density of tissue / cell pattern points at a given location, C is a constant, r is the distance from the center of the cluster, and D is the Hausdorff fractal dimension. The actual calculation of the fractal dimension is achieved using a box counting procedure. Here, the grid is superimposed on the tissue point pattern image, and the number of grid boxes including an arbitrary part of the fractal pattern is measured. The size of the box grid is increased and the procedure is iteratively repeated until the pattern sample size limits the number of measurements. When the number of boxes in the first and last grids is G1 and G2, and the counting results are C1 and C2, the Hausdorff dimension is given by the formula D = log (number of self-similar occupied parts) / log (magnification factor ) Or, in this case, determined by the formula D = log (C2 / C1) / log (sqrt (G2 / G1))
[0083]
(4) The extraction of the PPF feature set is to calculate the Hausdorff dimensions for a plurality of overlapping target regions (ROIs) in which the additional sampling that changes stepwise with the ROI gradation size is performed in the entire image region. Can be achieved by: Depending on the tissue type, the region of interest (ROI) can be selected to be 128 pixels × 128 pixels or 256 pixels × 256 pixels. In this example, the result is 240 individual fractal measurements on the tissue / cell point distribution pattern at sample cell magnifications varying from 0.156 to 1.0.
[0084]
The PPF algorithm extracts 240 different fractal measurements that have been progressively repositioned and scaled to generate an input vector of 240 input values to the neural network.
[0085]
3. SVA signal dispersion amplitude
[0086]
The SVA procedure relates a tissue / cell color image to three RGB multispectral bands that form the basis for principal component transformation. The covariance matrix is calculated to determine the eigenvectors and a set of irrelevant planes arranged by reducing the level of variance as a function of the "color packed" signal strength, and the diagonalization Is done. This procedure for a two-dimensional tissue / cell pattern represents a rotational transformation that maps the tissue / cell structure pattern into a region of signal dispersion. Thus, the resulting 3 × 3 remapping diagonalization matrix and the magnitude of the relative eigenvectors corresponding to the matrix are unique statistical parameters representing tissue cell signals, cell nuclei, and background signatures. Form the basis of a distributed parameter set.
[0087]
This procedure represents a rotational transformation that maps the tissue / cell structure pattern into a signal dispersion area. Thus, the principal component images (E1, E2, E3) are made irrelevant and trimmed by reducing the level of signal variance. For example, E1 has the largest variance and E3 has the smallest variance. The result is the elimination of the relationships that exist between the axes of the original RGB spectral data by simultaneous compression of the pattern variance into fewer dimensions.
[0088]
For a tissue / cell pattern, the principal component transformation represents the rotation of the original RGB coordinate axes that correspond to the directions of the maximum and minimum variance in the signal (pattern-specific) cluster. For the mean subtraction, the remapping is based on a variance distribution with a distribution about the mean that is multimodal due to the different signal patterns (eg, cells, cell nuclei, background) in the histology. Change to center.
[0089]
The principal component transform does not specifically use any information about the classification signature, but the canonical transform maximizes the separability of the defined signal structure. This separability is directly related to signal recognition, as the characteristics of the staining are class-specific to classification within a specific tissue type.
[0090]
The parameter set is the resulting 3 × 3 remapping diagonalization matrix and the relative eigenvector magnitudes corresponding to the matrix. The SVA algorithm extracts the nine parameters obtained from the RGB color 3x3 diagonalization matrix and generates an input vector of nine input values to the neural network.
[0091]
4. PPT point projection transformation
[0092]
The PPT descriptor extraction procedure converts the tissue / cell structure pattern from the specific basis of linear patterning of tissue / cell structure signals to polar form (Hough transform, similar to xcos θ + ysin θ = r). based on. This linearized projection procedure reduces the dynamic range of the tissue / cell signal split while preserving the structural pattern distribution. The resulting PPT calculation produces a remapping function performed by the "relative spatial organization" requirement to preserve a faithful representation of the image content of the original tissue / cell structure. With further signal splitting, the parameter extraction is based on the analysis of the two-dimensional distribution line pattern of the imaging intensity profile, the optimal contrast image is calculated using principal component analysis, fitted with an nth order polynomial surface and the remaining positive Segmentation occurs when subject to a two-dimensional linearization procedure that has been binarized to produce a projection and forms a line depiction corresponding to the entire tissue image.
[0093]
In one embodiment, the first two steps of the PPT parameter calculation algorithm are the same as the steps for PPF parameters described above. In the method, the following continues.
[0094]
(3) The binarized eigen-pattern is subject to a selective morphological erosion operator that changes the area of the pixel to a singular point along the midline defined as a projected linearization form within the method. This is achieved by applying a modified form of the standard erosion nucleus (kernel) to the remaining images during the iterative process. Here, the erosion operator is modified to include rules that take into account the occupancy of neighboring pairs, for example, when a central erosion point is not connected to a neighboring point that does not form a continuous distribution, the point is not removed. This process turns the projection into a linearized pattern that contains valid topological metric information based on the number of endpoints, the number of nodes where tributaries intersect, and the number of lumens in the unique pattern area.
[0095]
(4) The method uses a modified Huff transform that employs a masking algorithm that combines the selection of Huff-accumulated cells with a specific range of slope and intercept, using a modified Hough transform to transform the linearized pattern from Cartesian space. The actual PPT features are calculated by mapping in polar form.
[0096]
The PPT algorithm extracts 1752 parameters from the Hough transform of the line description of the two-dimensional tissue intensity image and generates an input vector of 1752 input values to the neural network.
[0097]
5. TTFWT textured fractal wavelet transformation
[0098]
The mixing of cell types with the distribution of cell types results in an imaged tissue structure type. Within the tissue / cell structure pattern, the unique geometric form represents a fractal primitive and forms the basis for a set of parent waves that can be used for multidimensional wavelet decomposition. The TTFWT parameter extraction procedure uses an IDG characteristic form derivative shape as a parent wave class, and uses individual wavelet transform (hereinafter, referred to as “DWT”) based on mapping of a self-similar region of a tissue / cell signal pattern image. / Extract fractal representation of cell structure pattern. Parameter extraction is based on multidimensional wavelet decomposition or resampling and integration of radial spacing to generate a characteristic waveform that includes elements related to fractal wavelet coefficient density. In one embodiment, the procedure includes the following steps.
[0099]
(1) The image pattern is 2 N For example, a 512 × 512, 1024 × 1024 image selected from the center of the original image is resized and sampled to fit at intervals.
[0100]
(2) The characteristic parent wave (fractal form) relates to the amplitude, spatial distribution, signal type and signal shape variance across a large set of tissue / cell images by statistical techniques under the IDG procedure described above. Determined by examining the structure specific to the signal type.
[0101]
(3) The resampled image is then subjected to a two-dimensional wavelet transform using a uniquely defined fractal-type parent wave.
[0102]
(4) Then, in order to generate a unique feature, the two-dimensional wavelet transform space is sampled and integrated at intervals of wavelet coefficients (intervals of gradation and conversion) and renormalized with respect to a unit area. . These represent the relative element energy densities of the transformation.
[0103]
The TTFWT algorithm generates an input vector of 128 input values to the neural network.
[0104]
6. RDPH radial distribution pattern harmonic function
[0105]
The RDHP parameter extraction procedure is designed to enhance the measurement of the local fractal probability density function (FPDF) in a tissue / cell pattern at a rotation or gradient invariant sample spacing. This procedure relies on the property of local self-similarity in tissue / cell images. The image components can be viewed re-graded with intensity transformation mapping that produces a self-referenced distribution of tissue / cell structure data. Implementation involves the measurement of a series of fractal dimensions measured across two spatial ranges (based on a range dependent on signal strength variance) at a central radial 360 degree scan interval. The resulting radial fractal probability density curve is normalized and subjected to a polar Fourier transform to generate a set of phase invariant parameters.
[0106]
In addition, the signal splitting is based on the analysis of a two-dimensional distribution non-biased pattern of the imaged intensity profile, and the optimal contrast image is generated using a local background to generate a signal acquisition (intensity) non-biased image. The partitioning is performed when calculated using analyzing the major components in a high variance region that is turned to a minimum level of.
[0107]
In one implementation, the first steps of the RDPH parameter calculation algorithm are the same as the steps for PPF parameters described above. In the method, the following continues.
[0108]
(2) The enhanced pattern is then unbiased in signal acquisition (strength). This is achieved by repeatedly replacing the core pixel values in the enhanced pattern image with the minimum local values defined in the octagonal region of interest (ROI). This results in an unchanged pattern of uniformity or gradual variance. However, regions of high variance smaller than the rest of the ROI are turned to the minimum level of local background.
[0109]
(3) In this example, for radial scanning sampling, a set of 360 profiles is formed from the central analysis technique within the unbiased image. For a binary tissue / cell structure pattern with pixel values simplified to black or white, this represents a measure of occupancy at a unit radial spacing constrained by image size constraints. For a continuous gray scale pattern, the profile shows the region where the signal strength is integrated.
[0110]
(4) The fractal dimension of each of the angle-dependent profiles is calculated.
[0111]
(5) In radial format, fractal measurements are normalized to unit size to remove tone dependence. This function is computed by the polar Fourier transform (PFT) to generate a set of polar harmonic functions with each component above the zeroth order representing increasing degrees of deviation from the circle. These represent the RDPH parameter set.
[0112]
The RDPH algorithm extracts 128 parameters from a polar Fourier transform of a 360 two-dimensional distribution that depends on fractal dimension measurements, and generates an input vector of 128 input values to the neural network.
[0113]
Tissue / structure / nucleus recognition
[0114]
The apparatus and method according to one embodiment of the present invention are configured to meet three main design specifications. They include (1) the ability to handle high-throughput automatic classification of tissue and cell structures, (2) the ability to form an assessment of the correlation of classified tissue / cell structure properties, and (3) training. It is a function that expands the experienced experience adaptively and brings about self-expanding evolutionary growth.
[0115]
Achieving these design criteria can be achieved through the use of an association decision matrix that manipulates the output of multiple neural networks. FIG. 6 shows one neural network. As noted above, some parameter calculation methods produce a set of 128 values that are inputs to provide to 128 input nodes 31 of the neural network. Other parameter calculations require other numbers of input nodes. For each neural network, the second layer has half the number of neurons. For example, the network shown in FIG. 6 has 64 neurons 32 in the second layer and also has unique output neurons 33. Each of these neural networks may have a sub-network, as described below.
[0116]
Each network can be trained to classify images into one of many known types. In this case, each network is trained for all types.
[0117]
Alternatively, in another embodiment, each network is trained on only one pattern and returns a level of relationship recognition ranging from 0 when not at all similar to 1 when completely similar. Designed. In this case, the network is trained on only two types of images showing the sought substance and other substances similar to the substance except in the images that should not be analyzed. The output of each network is a probability value represented by a value from 0 to 1, and the substance of the image is the item on which the network was trained. For output to humans, the probabilities may be replaced by a representation in percent as shown in FIG. The outputs of many neural networks are then collected to produce one of the most probable decisions.
[0118]
Thus, each neural network compares the input vector with a "template" resulting from training the network on a single pattern with many images of the pattern. Thus, an individual network is used for each pattern to be recognized. When a sample is to be classified into one of 50 tissue types, 50 networks are used. The network can be implemented by software on a general purpose computer, and each of the 50 networks can be read by a single computer in succession for calculations. Alternatively, the network may be run concurrently or otherwise on 50 computers in parallel.
[0119]
In one structure of a neural network, device analysis from the collection of feature extractions is a method of distributing data degradation (or data degradation) within a tissue processing procedure and within a data collection environment that affects the ability to isolate and measure unique patterns. Can be used to identify or identify various causes of These causes of data degradation can be ascertained by human experience and intuition. Because these causes are usually not independent, they typically cannot be linearly decoupled, removed, or individually corrected.
[0120]
Aspects of the data degradation confirmation mode include: (1) staining types, staining application methods, multiple staining interference / darkening and tissue processing structures such as physical tissue quality control issues, (2) spherical and barrel distortions, Aspects of data collection related to microscopic imaging aberrations, such as RGB color control, pixel dynamic range and resolution, digital quantization, and aliasing effects; (3) patterns based on instrument noise effects and statistical sampling density Measurement variance, and (4) the effects of unwanted changes in the level of staining applied. In one embodiment, they are grouped into seven categories.
[0121]
To compensate for these distributed modes of data degradation and enhance cognitive performance, in one embodiment, for each neural network, there are various device dispersion aspects (modes): seven individual modes and A set of eight different sub-networks responsible for one mixed mode is used. Each subnetwork processes the same input pattern, but is trained on data that describes the key effects inherent in the various distributed modes and their relative coupling to other morphological data degradation aspects. This processing structure is used in tissue preparation, data collection, and recognition based on patternable forms of darkening from other artifacts, interference or noise, by directly incorporating the recognition of the eigenranges of the artifacts in the image. One approach is to provide the ability to reduce and minimize the level of loss to the correlation decision matrix.
[0122]
In one embodiment, a person can select a known image that exhibits a desired data degradation effect and train the sub-network with images that indicate the specific cause of the data degradation. The eighth sub-network can be trained on all or some images. For each image, the sub-network can be educated, whether or not the image indicates the type of tissue, structure or cell nucleus for which the network is to be trained.
[0123]
Cell nucleus recognition
[0124]
For cell nucleus recognition, in some embodiments, only IDG parameters are used for each cell nucleus or swarm, and only one neural network is used for comparison to each recognition "template" ( Although the network may include a sub-network for each data degradation mode.) For example, for cancer oncogenesis, only one neural network is needed, but this neural network can have 8 sub-networks for data degradation mode.
[0125]
For example, for cell nucleus recognition, the IDG parameters yield a set of 128 values for each of the eight subnetworks, with eight outputs 33 from the subnetwork. These eight outputs are provided as inputs 36 to the association decision matrix shown in FIG. Each input may be adjusted with a weighting factor 37. The device according to the invention uses one weight. Other weights can be selected as desired. The weighting number 38 having a relation level in the range of 0 to 1 is added in this embodiment to yield the last number 39 between 0 and 8. The sum of the morphological relationship levels is called determining the association matrix. A determination of 4.0 or higher is considered to be a positive recognition of the cell karyotype being examined.
[0126]
Recognition of cell nuclei can typically determine not only whether a cell nucleus is observed as abnormal, but also all cell types. A list of recognizable tissues, tissue structures, and substructures, as well as a list of normal cell types that can be identified by an indication of the cell type nucleus, is provided in Table 2 below.
[0127]
Abnormal cell types suitable for use with the present invention include, for example, the following four categories:
[0128]
(1) neoplastic and reproductive diseases
[0129]
The altered nuclear properties of the neoplastic cells and the altered growth arrangement of the cells confirm both benign and malignant proliferation, discriminate the proliferation from surrounding normal or reactive tissue, and distinguish between benign and malignant diseases And enables a method for identifying or identifying invasive and pre-invasive components of a malignant disease.
[0130]
Examples of (but not limited to) benign reproductive diseases are shown below. Wounds, connective tissue forming tissue reactions, fibromuscular line growth (such as those of the breast and prostate). Adenomas of the breast, respiratory organs, gastrointestinal tract, salivary glands, liver, gallbladder, endocrine glands. Benign growth of soft tissues such as fibromas, neuromas, neurofibromas, meningiomas, gliomas and leiomyomas. Benign tumors of the epithelium and appendages of the skin, benign melanocyte nevus. Oncocytoma of the kidney and benign tumor of the ovarian surface epithelium.
[0131]
Examples of malignancies suitable for use with the methods, devices and the like according to the invention are listed in Table 1 below, for key points and relocation points in the invasive or pre-invasive phase.
[0132]
[Table 1-1]
Figure 2004535569
[0133]
[Table 1-2]
Figure 2004535569
[0134]
[Table 1-3]
Figure 2004535569
[0135]
[Table 1-4]
Figure 2004535569
[0136]
(2) Infectious, inflammatory and autoimmune diseases
[0137]
The method according to the present invention can be used to identify diseases involving the immune system, including infectious, inflammatory and autoimmune diseases. In these diseases, inflammatory cells are activated and penetrate a defined number of tissues, including the properties detected by the methods of the present invention, and cells within endogenous cell types that appear in tissues. There is a change in tissue structure properties that is the result of damage or repair of the tissue. Inflammatory cells include neutrophils, mast cells, plasma cells, lymphoblasts, eosinophils, histiocytes and macrophages.
[0138]
Examples of inflammatory diseases are granulomatous diseases such as sarcoidosis and clonal colitis, bacterial (bacterial) diseases, viral diseases, fungal diseases, or tuberculosis, Helicobacter pyloric ulcers, meningitis. And other biologically transmitted diseases such as pneumonia. Examples of allergic diseases include asthma, allergic rhinitis (hay fever) or childhood steatorrhea, autoimmune diseases such as rheumatoid arthritis, psoriasis, type I diabetes and ulcerative colitis, multiple sclerosis, transplant rejection Hypersensitivity reactions, such as reactions, and other immune system or inflammatory conditions (endocarditis or myocardium) that produce a unique pattern that includes infiltrating immune cells or the presence of altered forms of existing histological types that are characteristic of the disease. Inflammation, glomerulonephritis, pancreatitis, bronchitis, encephalitis, thyroiditis, prostatitis, gingivitis, cholecystitis, cervicitis, thyroiditis or hepatitis). Atherosclerosis, including the presence of inflammatory cells and the presence of intracellular characteristic structural changes in the lining or lining of arteries, can also be recognized by this method.
[0139]
(3) degenerative diseases and anoxic or chemical injuries
[0140]
The method according to the invention is useful for detecting diseases involving the loss or damage of particular cell types and the appearance of deteriorated cell types. Examples of neurodegenerative diseases include Alzheimer's disease, Parkinson's disease, and amyotrophic lateral sclerosis, which include nerve loss and altered properties in the damaged nerve. Examples of diseases that include damage to cell types due to ischemic damage (loss of blood supply) include stroke, myocardial infarction (heart attack), and thrombotic or embolic damage to organs. Examples of diseases involving loss or modification of particular cell types include osteoarthritis of the joint. Examples of chronic forms of injury include hypertension, cirrhosis and heart failure. Examples of chemical or toxic insults that produce the property of cell death include acute tubular necrosis of the kidney. Examples of aging that occurs in organs include aging that occurs on the skin or hair.
[0141]
(4) Metabolic and genetic diseases
[0142]
Certain genetic diseases also result in characteristic changes in cell numbers that can be recognized in this way. Examples of such diseases include cystic fibrosis, retinitis, neurofibromatosis, and pyometra such as Gaucher's disease or T-Sachs disease. Examples of diseases that result in altered properties of bone marrow or peripheral blood cells include anemia or thrombocytopenia.
[0143]
Recognition of organization and structure
[0144]
In some embodiments, a desired set of images of a known tissue / structure type is subject to the parameter extraction, and for one of many types, rather than as a classifier, for the tissue or structure to be recognized. Individual associated type templates are formed using an artificial neural network for use as a basis for structural patterns into a single template. These criteria indicate the “degree of similarity” between the criteria and the organization or structure of the test, and may also evaluate the recognition probability (reliability) at the same time. Each network then contributes to an association assessment table that creates the "association matrix" shown in FIG. In the embodiment shown in FIG. 8, there are provided sub-networks 61 to 63 having specific templates for each parameter for each recognized organization or structure. Therefore, as shown in FIG. 8, for the recognition of the organization type 1, n sub-networks 61 for each parameter are provided. Similarly, n sub-networks 62 are provided for organization type 2 and n sub-networks 63 are provided for organization type m. As mentioned above, each of these sub-networks may include additional sub-networks, for example, sub-networks for each mode of data degradation in the training set.
[0145]
By this method, the device according to the present invention has sufficient certainty that it is as many useful tissue types and structures as can be recognized by a pathologist using a microscope, including Table 2 below. Can be recognized. In the operation of the device, there is no functional difference between the structure and the substructure. They can all be recognized in the same way. A substructure is simply a form that can be found within a larger form of construction. However, this relative stratum is shown in Table 2 below, which also lists normal cell types, as it is used by pathologists and allows the following table to be smaller or more concise.
[0146]
[Table 2-1]
Figure 2004535569
[0147]
[Table 2-2]
Figure 2004535569
[0148]
[Table 2-3]
Figure 2004535569
[0149]
[Table 2-4]
Figure 2004535569
[0150]
[Table 2-5]
Figure 2004535569
[0151]
[Table 2-6]
Figure 2004535569
[0152]
[Table 2-7]
Figure 2004535569
[0153]
[Table 2-8]
Figure 2004535569
[0154]
[Table 2-9]
Figure 2004535569
[0155]
[Table 2-10]
Figure 2004535569
[0156]
[Table 2-11]
Figure 2004535569
[0157]
[Table 2-12]
Figure 2004535569
[0158]
[Table 2-13]
Figure 2004535569
[0159]
[Table 2-14]
Figure 2004535569
[0160]
[Table 2-15]
Figure 2004535569
[0161]
The brain is the most complex tissue in the human body. They are countless brain structures and other structures, cell types, tissues and others that are imaged in brain scans and can be recognized by this device, not listed above.
[0162]
Some diseases can be identified by the accumulation or accumulation of substances in tissues used as hallmarks of the disease. These substance accumulations often form abnormal structures in the tissue. Such accumulations can be located within cells (eg, Lewy bodies of dopaminergic neurons in the substantia nigra of Parkinson's disease) or found extracellularly (eg, neuritic plaques in Alzheimer's disease). be able to. They can be, for example, accumulations of glycoproteins, proteins, lipids, crystallins, glycogen and / or nucleic acids. Some can be identified in the image without additional labels, others require selective labels to be attached to the others.
[0163]
Examples of protein accumulations (including glycoprotein accumulations) useful for the diagnosis of certain diseases include neuritic plaques and tangles of Alzheimer's disease, plaques of multiple sclerosis, and prion protein of spongiform brain injury Collagen, scleroderma, hyaline deposits and Mallory bodies of hyaline disease, deposits of Kimmel Still Wilson's disease, Lewy bodies and Lewy body diseases of Parkinson's disease, alpha scar formation of glial cells of multiple strains atrophy Includes inclusion bodies, atherosclerotic plaques, type II diabetes collagen, caseous degeneration granuloma of tuberculosis, and amyloid beta precursor protein of inclusion body myositis. Examples of lipid deposits (including fat deposits) include nutrient liver disease deposits, atherosclerotic plaques, liver fat changes, atherosclerotic foam macrophages, Includes xanthomas, other lipid storage disorders, and atrial sclerosis fatty streaks. Examples of crystallin deposits include uric acid and calcium oxalate crystals in kidney stones, uric acid crystals in gout, calcium crystals in atherosclerotic plaques, calcifications in nephrolithiasis, calcifications in valvular heart disease, and papillary carcinoma The sarcoma body is included. Examples of nucleic acid accumulations or inclusion bodies include herpes (herpes) viral DNA, cytomegalovirus viral DNA, human papillomavirus viral DNA, HIV (immunodeficiency virus) viral DNA, and viral hepatitis Councilman. Includes soft body tumours, as well as infectious soft warts.
[0164]
Device self-teaching based on recognition of high certainty
[0165]
The evaluation of the accumulated grading value of the association template evaluation for existing trained organization / structural type experience defines the classification / recognition decision. For this and / or other reasons, the method according to the present invention may include dynamic device adaptability and self-integration development. When the reference evaluation of the test tissue / cell structure falls within the defined boundary limits (within an acceptable probability bandwidth), the apparatus according to the present invention provides a parameter criterion to include small changes in the current sample test. The training of each of the recognition envelopes of the template can be automatically improved. The device dynamically and automatically increases the trained experience of the device. When the baseline assessment is outside of the previous experience, its deviance characteristics emerge from the association to each of the trained forms (self-teaching) and under a similar decentralized effective statistical reappearance. , New criteria can be automatically generated and dynamically added to the association matrix.
[0166]
Components of location and quantity determination including discriminating molecules
[0167]
Using known methods, it is possible to identify pixels that exhibit the color emitted by the sign or the tag on the sign or that are at other discriminable wavelengths, and that the intensity of the color is labeled. It can be related to the amount of the component. Similarly, some tissue components can be distinguished directly from the image by the use of labels. The degree of association or relevance of the primary signal emitted by the component or label or label is determined and is locally limited to structure, cell type, etc. There are several suitable methods.
[0168]
In one method, first identify a pixel or a plurality of adjacent pixels that indicate a distinguishable marker or signature that indicates the presence of the sought component and determine whether the pixel is in or near the cell nucleus. A check is made to determine if the pixel is within or near the cell nucleus to confirm the cell karyotype. When the component appears in the cell nucleus or when the component appears within a small radius such that the component always exists in the cell, the above-described method determines the cell type and also determines the cell nucleus at the location where the component appears. Can be determined to be normal or abnormal. The device according to the invention can also confirm the tissue type. A tissue type has a limited number of structures within the tissue type, and each structure includes a limited number of cell types. The structure is identified when the identified cell type occurs in only one structural type within the tissue type.
[0169]
In some cases, it may be desirable to first discover a structure (which may be a substructure of a structure larger than the structure) and determine whether the sought component is included in the structure. In this method, a number of sample windows, many of which coincide or overlap with each other, typically sufficient to obtain at least one candidate for the structural type of the tissue. Many sample windows having a size can be obtained from the image. Each example is compared with the template for the structural type using the neural network as described above. The sample window, identified as showing structure, is then reduced in size at each end, in turn, until the reduction in size reduces the certainty of recognition.
[0170]
In some embodiments, when the structure from which the components occur is a structure having a known substructure, many smaller windows that coincide or overlap in part are sampled from the reduced window to provide a substructure for the substructure. Can be compared to templates. When the substructure is found, the small windows are reduced again at each end in turn, until there is no certainty of recognition.
[0171]
When the structure or substructure has boundaries that can be determined by changes in pixel intensity, the boundaries of the structure or substructure within the window or smaller window can be identified as a loop of pixels and indicate components. Each pixel can be examined to determine if the pixel is on, within, or outside the loop. The component intensities for all pixels on or within the loop can be summed to determine the amount of presence of the sought component.
[0172]
In some cases, the methods described above can be reversed to start with each set of one or more neighboring pixels indicating the presence of a component that exceeds a threshold. The window surrounding each set of pixels is then acquired and examined for the appearance of structures known to occur in the tissue. Then, when no structure is found, the window is enlarged and the process described above is repeated until a structure is found. Thus, the boundaries of the structure can be ascertained, and a determination is made as to whether the boundaries include the set of pixels representing the components.
[0173]
With respect to the following claims, the above-described embodiments describe specific ways of practicing the invention, but the invention should not be construed as limited by any of the specific examples described above, It should be interpreted only by the claims.
[Brief description of the drawings]
[0174]
FIG. 1 is a diagram showing an entire system.
FIG. 2 is a diagram showing division of an object.
FIG. 3 is a view showing a sample analysis window obtained from an object.
FIG. 4 is a view showing a parameter calculation (feature extraction) method of 6;
FIG. 5 is a diagram showing an IDG parameter extraction method.
FIG. 6 shows an exemplary neural network of sub-networks used for recognition.
FIG. 7 is a diagram showing a decision matrix for cell nucleus recognition.
FIG. 8 is a diagram showing a decision matrix for tissue or structure recognition.
[Explanation of symbols]
[0175]
1 image
2, 3, 4, 5, 6, 7, 8, 9 imaging structure (object area)
10 center line
11, 12, 13, 14, 15, 16 Sample analysis window
17, 18, 19 Strength level
20, 21, 22 intensity peak
23 windows
31 Input node
32 neurons
33 output neuron
36 inputs
37 Weighting factor
38 Number of Weights
39 Last number
51 Object Split Module
52 Parameter Calculation Module
53 Structural pattern recognition module
61, 62, 63 subnetwork

Claims (188)

未知の組織をある種類に分類するために、有機体の細胞を含む未知の組織の画像を用いるコンピュータ手法であって、
(a) 未知の組織の画素データ画像であって該画素データ画像は少なくとも約120ミクロンに及ぶ最小寸法を有する組織を表し、前記画素データ画像の各画素は少なくとも6の有効ビットで表される画像強度値データを有する、未知の組織の画素データ画像を受けること、
(b) 前記画像内から画素データの少なくとも1つの分析窓を選択し、計算されたパラメータの供給のために最小寸法の少なくとも6の画素を有する窓内の二次元的格子状画素から、各画素のために少なくとも6の有効ビットを有する前記画像強度値データの少なくとも2つの空間的範囲を横切る二次元的パターンの測定値を構成する少なくとも1つのパラメータを、前記分析窓のための画素データから計算すること、
(c) 前記計算されたパラメータと、少なくとも2つの異なる種類の組織であることが既知の組織の画像から予め計算された少なくとも2つの異なる対応するパラメータとを比較し、これにより、少なくとも第1の種類と第2の種類とを提供すること、及び
(e) 前記未知の組織が前記第1の種類及び前記第2の種類のいずれに比較的に類似するか否かを決定することを含む、コンピュータ手法。
A computer method that uses an image of an unknown tissue including cells of an organism to classify the unknown tissue into a certain type,
(A) a pixel data image of an unknown tissue, wherein the pixel data image represents tissue having a minimum dimension of at least about 120 microns, wherein each pixel of the pixel data image is represented by at least six significant bits; Receiving a pixel data image of an unknown tissue having intensity value data;
(B) selecting at least one analysis window of pixel data from within said image, each pixel from a two-dimensional grid of pixels in a window having at least six pixels of a minimum dimension for providing calculated parameters; Calculating, from the pixel data for the analysis window, at least one parameter constituting a measurement of a two-dimensional pattern traversing at least two spatial extents of the image intensity value data having at least six significant bits for To do,
(C) comparing the calculated parameter with at least two different corresponding parameters pre-calculated from images of at least two different types of tissue known to be at least a first one; Providing a type and a second type; and (e) determining whether the unknown tissue is relatively similar to any of the first type and the second type. Computer technique.
請求項1に記載の手法をコンピュータに実行させる、前記コンピュータで作動するコンピュータプログラムを含む、コンピュータ読込可能のデータ搬送体。A computer readable data carrier comprising a computer program running on a computer for causing a computer to perform the method of claim 1. 前記第1の種類の組織は単一の型の組織であり、前記第2の種類の組織は複数の他の組織型である、請求項1に記載の手法。The method of claim 1, wherein the first type of tissue is a single type of tissue and the second type of tissue is a plurality of other types of tissue. さらに、
(f) 前記計算されたパラメータと、第3の種類の組織であることが既知の組織の画像から予め計算された対応するパラメータとを比較すること、
(g) 前記計算されたパラメータが、比較された他のパラメータとは異なる前記第3の種類の組織であることが既知の組織の画像から予め計算されたパラメータに比較的に類似するか否かを決定すること、及び
(h) 前記計算されたパラメータが、比較された他のパラメータとは異なる前記第3の種類の組織であることが既知の組織の画像から予め計算されたパラメータに比較的に類似するとき、前記未知の組織は前記第3の種類の組織であることの確実性が高いとの決定をすることを含む、請求項1に記載の手法。
further,
(F) comparing the calculated parameter with a corresponding parameter previously calculated from an image of a tissue known to be a third type of tissue;
(G) whether the calculated parameter is relatively similar to a parameter previously calculated from an image of a tissue known to be of the third type of tissue different from the other compared parameters; And (h) comparing the calculated parameter to a parameter previously calculated from an image of a tissue known to be of the third type of tissue different from the other compared parameters. The method of claim 1, comprising determining that the unknown tissue is more likely to be the third type of tissue when similar to.
前記比較することの演算は、少なくとも1つの神経ネットワークを用いて実行される、請求項1に記載の手法。The method of claim 1, wherein the comparing operation is performed using at least one neural network. 第1の固有モードのデータ低下を有する画素データを有することが既知の画像を用いて訓練された第1の神経ネットワークと、第2の固有モードのデータ低下を有する画素データを有することが既知の画像を用いて訓練された第2の神経ネットワークとを含む少なくとも2つの神経ネットワークとを用い、前記計算されたパラメータは前記第1の神経ネットワーク及び前記第2の神経ネットワークの両方に供給される、請求項5に記載の手法。A first neural network trained with an image known to have pixel data having a first eigenmode data reduction and a known neural network having pixel data having a second eigenmode data reduction Using at least two neural networks, including a second neural network trained with images, wherein the calculated parameters are provided to both the first neural network and the second neural network. The method according to claim 5. 少なくとも2つのパラメータが前記計算することの演算で計算され、少なくとも2つの神経ネットワークが前記比較することの演算で用いられ、
(a) 前記第1の種類の組織の画像と前記第2の種類の組織の画像とから計算された第1のパラメータを用いて訓練された第1の神経ネットワークに前記第1のパラメータが供給され、
(b) 前記第1の種類の組織の画像と前記第2の種類の組織の画像とから計算された第2のパラメータを用いて訓練された第2の神経ネットワークに前記第2のパラメータが供給される、請求項1に記載の手法。
At least two parameters are calculated in said calculating operation, and at least two neural networks are used in said comparing operation;
(A) supplying the first parameter to a first neural network trained using first parameters calculated from the image of the first type of tissue and the image of the second type of tissue; And
(B) supplying the second parameter to a second neural network trained using a second parameter calculated from the image of the first type of tissue and the image of the second type of tissue; The method of claim 1, wherein:
前記第1の種類はある型の組織を含み、前記第2の種類は前記型の組織とは異なる組織を含む、請求項1に記載の手法。The method of claim 1, wherein the first type includes a type of tissue and the second type includes a different type of tissue. 前記第1の種類は組織についての第1の種類であり、前記第2の種類は組織についての第2の種類であり、当該手法は、前記神経ネットワークが訓練された種類であって組織についての少なくとも1つの付加的な種類を含み、前記未知の組織は前記計算されたパラメータに最もよく類似する種類の組織であることの確実性が高いとの決定をされる、請求項1に記載の手法。The first type is a first type for a tissue, the second type is a second type for a tissue, and the method is a type wherein the neural network is a trained type, and The method of claim 1, comprising at least one additional type, wherein the unknown tissue is determined to be more likely to be a type of tissue most similar to the calculated parameter. . 前記第2の種類は、さらに、第3の種類を提供するために少なくとも1つの付加的な種類を含み、前記比較することは、さらに、前記計算されたパラメータと前記第3の種類とを比較することを含み、前記決定することは、さらに、前記画像に表された少なくとも1つの組織が前記第1の種類、前記第2の種類及び前記第3の種類のいずれに比較的に類似するか否かを決定することを含む、請求項1に記載の手法。The second type further includes at least one additional type to provide a third type, wherein the comparing further comprises comparing the calculated parameter with the third type. Determining that the at least one tissue represented in the image is relatively similar to any one of the first type, the second type, and the third type The method of claim 1, comprising determining whether or not. 前記画像は組織の一部の露出面から取得される、請求項1に記載の手法。The method of claim 1, wherein the image is obtained from an exposed surface of a portion of the tissue. 前記画像が取得される前に、前記露出面が核染色法で着色される、請求項11に記載の手法。The method according to claim 11, wherein the exposed surface is colored by nuclear staining before the image is acquired. 前記画像データは第3の空間的範囲を含み、前記パラメータの計算は、すべての3つの空間的範囲を横切るパラメータを計算することである、請求項1に記載の手法。The method of claim 1, wherein the image data includes a third spatial extent, and wherein calculating the parameter comprises calculating a parameter that traverses all three spatial extents. 前記画像は、生体の組織からその位置で取得される、請求項1に記載の手法。The method of claim 1, wherein the image is obtained at a location from a biological tissue. 前記組織は動物組織である、請求項1に記載の手法。The method according to claim 1, wherein the tissue is an animal tissue. 前記第1の種類はある型の人体組織を含み、前記第2の種類は、前記型の組織を含まない人体組織を含む、請求項15に記載の手法。The method of claim 15, wherein the first type includes a type of human tissue and the second type includes a type of human tissue that does not include the type of tissue. 前記第1の種類は副腎組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is adrenal tissue. 前記第1の種類は動脈組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is arterial tissue. 前記第1の種類は膀胱組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is bladder tissue. 前記第1の種類は骨組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is bone tissue. 前記第1の種類は骨髄組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is bone marrow tissue. 前記第1の種類は脳組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is brain tissue. 前記第1の種類は胸部組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is breast tissue. 前記第1の種類は気管支組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is bronchial tissue. 前記第1の種類は結腸組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is colon tissue. 前記第1の種類は十二指腸組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is duodenal tissue. 前記第1の種類は耳組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is ear tissue. 前記第1の種類は副睾丸組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is epididymal tissue. 前記第1の種類は食道組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is esophageal tissue. 前記第1の種類は眼組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is ocular tissue. 前記第1の種類は眼瞼組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is eyelid tissue. 前記第1の種類は卵管組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is fallopian tube tissue. 前記第1の種類は線維軟骨組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is fibrocartilage tissue. 前記第1の種類は胆嚢組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is gallbladder tissue. 前記第1の種類は神経節組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is ganglion tissue. 前記第1の種類は心臓組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is heart tissue. 前記第1の種類は炎症性組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is an inflammatory tissue. 前記第1の種類は腎臓組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is kidney tissue. 前記第1の種類は喉頭組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is laryngeal tissue. 前記第1の種類は唇組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is lip tissue. 前記第1の種類は肝臓組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is liver tissue. 前記第1の種類は肺組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is lung tissue. 前記第1の種類はリンパ節組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is lymph node tissue. 前記第1の種類はリンパ組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is lymphoid tissue. 前記第1の種類は鼻腔組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is nasal tissue. 前記第1の種類は神経組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is neural tissue. 前記第1の種類は卵巣組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is ovarian tissue. 前記第1の種類は膵臓組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is pancreatic tissue. 前記第1の種類は上皮小体組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is parathyroid tissue. 前記第1の種類は耳下腺組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is parotid tissue. 前記第1の種類は陰茎組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is penile tissue. 前記第1の種類は腹膜組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is peritoneal tissue. 前記第1の種類は松果体組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is pineal tissue. 前記第1の種類は脳下垂体組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is pituitary tissue. 前記第1の種類は胎盤組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is placental tissue. 前記第1の種類は胸膜組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is pleural tissue. 前記第1の種類は前立腺組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is prostate tissue. 前記第1の種類は唾液腺組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is salivary gland tissue. 前記第1の種類は精嚢組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is seminal vesicle tissue. 前記第1の種類は骨格筋組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is skeletal muscle tissue. 前記第1の種類は皮膚組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is skin tissue. 前記第1の種類は平滑筋組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is smooth muscle tissue. 前記第1の種類は軟組織組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is soft tissue. 前記第1の種類は脊髄組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is spinal cord tissue. 前記第1の種類は脾臓組織である、請求項16に記載の手法。17. The method of claim 16, wherein said first type is spleen tissue. 前記第1の種類は胃組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is gastric tissue. 前記第1の種類は滑膜組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is synovial tissue. 前記第1の種類は精巣組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is testicular tissue. 前記第1の種類は胸腺組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is thymic tissue. 前記第1の種類は甲状腺組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is thyroid tissue. 前記第1の種類は舌組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is tongue tissue. 前記第1の種類は扁桃組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is tonsil tissue. 前記第1の種類は歯組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is tooth tissue. 前記第1の種類は気管組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is tracheal tissue. 前記第1の種類は尿管組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is ureteral tissue. 前記第1の種類は尿道組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is urethral tissue. 前記第1の種類は子宮組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is uterine tissue. 前記第1の種類は膣組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is vaginal tissue. 前記第1の種類は静脈組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is venous tissue. 前記第1の種類は血管組織である、請求項16に記載の手法。17. The method of claim 16, wherein the first type is vascular tissue. 第1の組織構造が存在するか否かを決定するために、有機体の細胞を含む組織の画像を用いるコンピュータ手法であって、
(a) 組織の画素データ画像であって前記画素データ画像の各画素は少なくとも6の有効ビットで表された画像強度値データを有する、組織の画素データ画像を受けること、
(b) 前記画像の画素データの少なくとも1つの分析窓であって、少なくとも約60ミクロンの最小寸法を有する組織を表す分析窓を選択すること、
(c) 計算されたパラメータの供給のために最小範囲の少なくとも6の画素を有する窓の範囲内の二次元的格子状画素から、各画素のために少なくとも6の有効ビットを有する前記画像強度値データの少なくとも2つの空間的範囲を横切る二次元的パターンの測定値を構成する少なくとも1つのパラメータを、前記分析窓のための画素データから計算すること、
(d) 前記計算されたパラメータと、少なくとも2つの異なる種類の組織構造の画像を含むことが既知の組織の画像から予め計算された少なくとも2つの異なる対応するパラメータとを比較し、これにより、少なくとも第1の種類及び第2の種類を提供すること、及び
(e) 前記画像が、前記第1の種類及び前記第2の種類のいずれに比較的に類似する組織構造を含むか否かを決定することを含む、コンピュータ手法。
A computer method using an image of a tissue containing cells of an organism to determine whether a first tissue structure is present,
(A) receiving a tissue pixel data image, the tissue pixel data image having each pixel of the pixel data image having image intensity value data represented by at least six significant bits;
(B) selecting at least one analysis window of the pixel data of the image, the analysis window representing tissue having a minimum dimension of at least about 60 microns;
(C) from a two-dimensional grid of pixels within a window having a minimum range of at least 6 pixels for the provision of the calculated parameters, the image intensity value having at least 6 significant bits for each pixel. Calculating from the pixel data for the analysis window at least one parameter constituting a measurement of a two-dimensional pattern across at least two spatial extents of the data;
(D) comparing the calculated parameters with at least two different corresponding parameters pre-calculated from images of tissue known to include images of at least two different types of tissue structures, whereby at least Providing a first type and a second type; and (e) determining whether the image includes a tissue structure relatively similar to any of the first type and the second type. Computer techniques, including:
請求項1に記載の手法をコンピュータに実行させる、前記コンピュータで作動するコンピュータプログラムを含む、コンピュータ読込可能のデータ搬送体。A computer readable data carrier comprising a computer program running on a computer for causing a computer to perform the method of claim 1. 前記第1の種類の組織構造は単一の型の組織構造であり、前記第2の種類の組織は前記単一の型の組織の複数の他の構造である、請求項1に記載の手法。The method of claim 1, wherein the first type of tissue structure is a single type of tissue structure, and the second type of tissue is a plurality of other structures of the single type of tissue. . さらに、
(g) 前記計算されたパラメータと、第3の種類の組織構造を含むことが既知の組織の画像から予め計算された対応するパラメータとを比較すること、
(h) 前記計算されたパラメータが、比較された他のパラメータとは異なる前記第3の種類の組織構造を含むことが既知の組織から予め計算されたパラメータに比較的に類似するか否かを決定すること、及び
(i) 前記計算されたパラメータが、比較された他のパラメータとは異なる前記第3の種類の組織構造を含むことが既知の組織から予め計算されたパラメータに比較的に類似するとき、前記組織が前記第2の組織構造を含むことの確実性が高いとの決定をすることを含む、請求項81に記載の手法。
further,
(G) comparing the calculated parameter with a corresponding parameter previously calculated from an image of a tissue known to include a third type of tissue structure;
(H) determining whether the calculated parameter is relatively similar to a parameter previously calculated from a tissue known to include the third type of tissue structure different from the other compared parameters. Determining; and (i) said calculated parameter is relatively similar to a parameter previously calculated from a tissue known to comprise said third type of tissue structure different from the other compared parameters 82. The method of claim 81, wherein when determining, determining that there is a high likelihood that the tissue includes the second tissue structure.
前記比較することの演算は、少なくとも1つの神経ネットワークを用いて実行される、請求項81に記載の手法。The method of claim 81, wherein the comparing operation is performed using at least one neural network. 第1の固有モードのデータ低下を有する画素データを有することが既知の画像を用いて訓練された第1の神経ネットワークと、第2の固有モードのデータ低下をされた画素データを有することが既知の画像を用いて訓練された第2の神経ネットワークとを含む少なくとも2つの神経ネットワークとを用い、前記計算されたパラメータは前記第1の神経ネットワーク及び前記第2の神経ネットワークの両方に供給される、請求項85に記載の手法。A first neural network trained with an image known to have pixel data having a first eigenmode data reduction, and a second neural network trained with image data having a second eigenmode data reduction And at least two neural networks, including a second neural network trained with the image of the above, wherein the calculated parameters are provided to both the first neural network and the second neural network. 86. The method of claim 85. 2以上のパラメータが前記計算することの演算で計算され、2以上の神経ネットワークが前記比較することの演算で用いられ、
(a) 前記組織構造を含む組織の画像と前記組織構造を含まない組織の画像とから計算された第1のパラメータを用いて訓練された第1の神経ネットワークに前記第1のパラメータが供給され、
(b) 前記組織構造を含む組織の画像と前記組織構造を含まない組織の画像とから計算された第2のパラメータを用いて訓練された第2の神経ネットワークに前記第2のパラメータが供給される、請求項84に記載の手法。
Two or more parameters are calculated in the calculating operation, and two or more neural networks are used in the comparing operation;
(A) supplying the first parameter to a first neural network trained using a first parameter calculated from an image of a tissue including the tissue structure and an image of a tissue not including the tissue structure; ,
(B) supplying the second parameter to a second neural network trained using a second parameter calculated from an image of the tissue including the tissue structure and an image of the tissue not including the tissue structure; 85. The method of claim 84.
当該手法は前記神経ネットワークが訓練された少なくとも1つの付加的な種類を含み、前記組織構造は前記第1の種類、前記第2の種類及び前記付加的な種類のいずれかの種類の構造であることの確実性が高いとの決定がされる、請求項81に記載の手法。The method includes at least one additional type in which the neural network has been trained, and the tissue structure is any type of structure of the first type, the second type, and the additional type. 83. The method of claim 81, wherein a determination is made that the likelihood is high. 前記第1の種類は組織についての第1の型を含み、前記第2の種類は組織につての第2の型を含み、当該手法は前記神経ネットワークが訓練された型であって組織についての付加的な型を含む少なくとも1つの付加的な種類を含み、前記画像の少なくとも1つの組織構造は前記計算されたパラメータに最もよく類似する種類の組織構造であることの確実性が高いとの決定がされる、請求項81に記載の手法。The first type includes a first type for a tissue, the second type includes a second type for a tissue, and the method includes the neural network is a trained type, the method comprising: Determining that the at least one tissue structure of the image includes at least one additional type, including additional types, and that it is highly certain that the tissue structure is of a type most similar to the calculated parameter; 82. The method of claim 81, wherein: 前記画像は組織の一部の露出面から取得される、請求項81に記載の手法。83. The method of claim 81, wherein the image is obtained from an exposed surface of a portion of the tissue. 前記画像が取得される前に、前記露出面が核染色法で着色される、請求項90に記載の手法。90. The method according to claim 90, wherein the exposed surface is colored by nuclear staining before the image is acquired. 前記組織は人体組織であり、前記組織構造は病気を示す固有のパターンを有する、請求項81に記載の手法。83. The method of claim 81, wherein the tissue is human tissue and the tissue structure has a unique pattern indicative of disease. 前記病気は、蛋白質性蓄積物によって示された病気である、請求項92に記載の手法。93. The method of claim 92, wherein said disease is a disease exhibited by a proteinaceous accumulation. 前記病気は、脂質蓄積物によって示された病気である、請求項92に記載の手法。93. The method of claim 92, wherein said disease is a disease indicated by lipid accumulation. 前記病気は、クリスタリン蓄積物によって示された病気である、請求項92に記載の手法。93. The method of claim 92, wherein the disease is a disease indicated by a crystallin deposit. 前記病気は、核酸蓄積物によって示された病気である、請求項92に記載の手法。93. The method of claim 92, wherein said disease is a disease indicated by a nucleic acid deposit. 前記病気は、グリコゲン蓄積物によって示された病気である、請求項92に記載の手法。93. The method according to claim 92, wherein said disease is a disease indicated by glycogen accumulation. 前記組織は表2から得られる人体組織であり、前記組織構造は表2から得られる構造又は基礎構造である、請求項81に記載の手法。82. The method according to claim 81, wherein the tissue is a human body tissue obtained from Table 2, and the tissue structure is a structure obtained from Table 2 or a basic structure. 前記画像は、生体の組織からその位置で取得される、請求項81に記載の手法。83. The method of claim 81, wherein the image is obtained at a location from a biological tissue. さらに、前記組織構造を表す1組の隣接画素を確認することを含む、請求項81に記載の手法。The method of claim 81, further comprising identifying a set of neighboring pixels representing the tissue structure. (a)前記画像が取得される前に、前記組織に標識物が付加され、
(b)次いで、前記標識物が前記画像に出現する画素がコンピュータ分析によって確認され、
(c)前記組織構造を表す画素が確認された後、前記標識物を表す画素の位置と前記組織構造を表す画素の位置とが比較され、前記2つの位置の相関性が決定される、請求項100に記載の手法。
(A) before the image is obtained, a label is added to the tissue;
(B) Then, the pixel where the marker appears in the image is confirmed by computer analysis,
(C) After the pixel representing the tissue structure is confirmed, the position of the pixel representing the marker and the position of the pixel representing the tissue structure are compared, and the correlation between the two positions is determined. Item 100. The method according to Item 100.
前記標識物は遺伝子産物に標識を付す、請求項101に記載の手法。102. The method of claim 101, wherein the label attaches a label to a gene product. 前記標識物は薬に標識を付す、請求項101に記載の手法。102. The method of claim 101, wherein the label attaches a label to a drug. 前記標識物は抗体に標識を付す、請求項101に記載の手法。The method according to claim 101, wherein the label attaches a label to the antibody. 前記標識物はリガンドに標識を付す、請求項101に記載の手法。The method according to claim 101, wherein the label attaches a label to the ligand. 標識物を有する少なくとも1つの前記組織構造のために前記標識物の大きさが前記画像のコンピュータ分析によって測定される、請求項101に記載の手法。102. The method of claim 101, wherein the size of the landmark for at least one of the tissue structures having the landmark is measured by computer analysis of the image. 前記画像データは第3の空間的範囲を含み、前記パラメータの計算は、すべての3つの空間的範囲を横切るパラメータを計算することである、請求項81に記載の手法。The method of claim 81, wherein the image data includes a third spatial extent, and wherein calculating the parameter is calculating a parameter that traverses all three spatial extents. 組織構造が成分を含むか否かを決定するために、ある組織型の生体組織の画像を処理するコンピュータ手法であって、
(a) 組織の画素データ画像を受け、該画素データ画像から分析窓の画素データを選択すること、
(b) 前記分析窓のための前記画素データから、計算されたパラメータを供給するために少なくとも1つのパラメータを計算すること、
(c) 前記計算されたパラメータと、前記組織構造を含むことが既知の組織型の組織の画像から予め計算された対応するパラメータ及び前記組織構造を含まないことが既知の組織型の画像から予め計算された対応するパラメータとを比較すること、
(d) 前記計算されたパラメータが、前記組織構造を含まないことが既知の組織から予め計算されたパラメータよりも、前記組織構造を含むことが既知の組織から予め計算されたパラメータに比較的に類似しているとき、前記分析窓は前記組織構造を含むことの確実性が高いとの決定をすること、
(e) 前記計算されたパラメータが、前記組織構造を含むことが既知の組織から予め計算されたパラメータよりも、前記組織構造を含まないことが既知の組織から予め計算されたパラメータに比較的に類似しているとき、前記分析窓は前記組織構造を含まないことの確実性が高いとの決定をすること、
(f) 前記分析窓が前記組織構造を含むことの確実性が高いとき、前記構造の境界内の画素を確認すること、及び
(g) 画素色強度の分析によって、前記成分の存在を示す特性を前記境界内の画素が表すか否かを決定することを含む、コンピュータ手法。
A computer method of processing an image of a biological tissue of a certain tissue type to determine whether the tissue structure contains a component,
(A) receiving a pixel data image of a tissue and selecting pixel data of an analysis window from the pixel data image;
(B) calculating at least one parameter from the pixel data for the analysis window to provide a calculated parameter;
(C) the calculated parameters and corresponding parameters calculated in advance from an image of a tissue type known to include the tissue structure and an image of a tissue type known not to include the tissue structure. Comparing with the calculated corresponding parameters,
(D) the calculated parameter is relatively more pre-calculated from a tissue known to include the tissue structure than a parameter pre-calculated from a tissue known not to include the tissue structure. When similar, determining that the analysis window is likely to include the tissue structure;
(E) the calculated parameter is relatively more pre-calculated from a tissue known not to include the tissue structure than a parameter pre-calculated from a tissue known to include the tissue structure. When similar, determining that the analysis window is more likely not to include the tissue structure;
(F) confirming pixels within the boundaries of the structure when the analysis window is highly certain that it contains the tissue structure; and (g) analyzing the pixel color intensity to indicate the presence of the component. Computing whether a pixel within the boundary represents.
さらに、前記分析窓のための前記パラメータを計算する前に、画素色強度の分析によって、前記成分の存在を示す特性を前記分析窓の範囲内の画素が表すか否かを決定し、前記画素が前記特性を表さないとき、前記画像の他の分析窓を用いて当該手法を続けることを含む、請求項108に記載の手法。Further, before calculating the parameters for the analysis window, it is determined by analyzing pixel color intensity whether or not pixels within the analysis window represent characteristics indicative of the presence of the component. 109. The method of claim 108, comprising: when does not represent the characteristic, continuing with another analysis window of the image. さらに、前記分析窓の範囲内で、前記構造内の基礎構造を確認し、前記成分の存在を示す特性を前記基礎構造内の画素が表すか否かを決定することを含む、請求項108に記載の手法。110. The method of claim 108, further comprising: identifying, within the analysis window, a substructure within the structure, and determining whether a pixel within the substructure represents a property indicative of the presence of the component. The described technique. さらに、前記成分の存在を示す画素に最も近い少なくとも1つの細胞核を表す塊状画素を確認し、画像認識によって、前記塊状画素によって表された細胞型を確認することを含む、請求項108に記載の手法。109. The method of claim 108, further comprising identifying a clustered pixel representing at least one cell nucleus closest to a pixel indicating the presence of the component, and identifying, by image recognition, a cell type represented by the clustered pixel. Technique. 前記成分は、標識物の付加によって前記画像内で確認可能にされる、請求項108に記載の手法。109. The method of claim 108, wherein the component is made visible in the image by the addition of a label. 前記標識物は、標識札の付加によって前記画像内で確認可能にされる、請求項111に記載の手法。The method of claim 111, wherein the sign is made visible in the image by the addition of a sign. 前記成分は遺伝子産物である、請求項108に記載の手法。109. The method of claim 108, wherein said component is a gene product. 前記成分は薬である、請求項108に記載の手法。111. The method of claim 108, wherein the component is a drug. 前記成分は抗体である、請求項108に記載の手法。109. The method of claim 108, wherein said component is an antibody. 前記成分はリガンドである、請求項108に記載の手法。109. The method of claim 108, wherein said component is a ligand. 前記成分の大きさは、前記画像のコンピュータ分析によって測定される、請求項108に記載の手法。109. The method of claim 108, wherein the magnitude of the component is measured by computer analysis of the image. 成分が組織構造に位置するか否か決定するために、ある組織型の生体組織の画像を処理するコンピュータ手法であって、
(a) 組織の画素データ画像を受け、画素色強度の分析によって、前記成分の存在を示す特性を表す1グループの1以上の隣接画素を確認すること、
(b) 前記画像の前記画素から前記グループの画素の周りの分析窓を選択すること、
(c) 計算されたパラメータを供給するために前記分析窓の範囲内の画素データから少なくとも1つのパラメータを計算すること、
(d) 前記計算されたパラメータと、前記組織構造を含むことが既知の前記組織型の組織の画像から予め計算された対応するパラメータ及び前記組織構造を含まないことが既知の前記組織型の画像から予め計算された対応するパラメータとを比較すること、
(e) 前記計算されたパラメータが、前記組織構造を含まないことが既知の組織から予め計算されたパラメータよりも、前記組織構造を含むことが既知の組織から予め計算されたパラメータに比較的に類似しているとき、前記分析窓は前記組織構造内に前記成分を含むことの確実性が高いとの決定をすること、
(f) 前記計算されたパラメータが、前記組織構造を含むことが既知の組織から予め計算されたパラメータよりも、前記組織構造を含まないことが既知の組織から予め計算されたパラメータに比較的に類似しているとき、前記分析窓は前記組織構造内の前記成分を含まないことの確実性が高いとの決定をすることを含む、コンピュータ手法。
A computer technique for processing an image of a biological tissue of a tissue type to determine whether the component is located in the tissue structure,
(A) receiving a pixel data image of the tissue, and analyzing a pixel color intensity to identify a group of one or more adjacent pixels representing a characteristic indicative of the presence of the component;
(B) selecting an analysis window from the pixels of the image around the group of pixels;
(C) calculating at least one parameter from pixel data within the analysis window to provide a calculated parameter;
(D) the calculated parameters and the corresponding parameters calculated in advance from the image of the tissue of the tissue type known to include the tissue structure and the image of the tissue type known not to include the tissue structure. Comparing with corresponding parameters calculated in advance from
(E) the calculated parameter is relatively more pre-calculated from a tissue known to include the tissue structure than a parameter pre-calculated from a tissue known not to include the tissue structure. When similar, determining that the analysis window is likely to include the component in the tissue structure;
(F) the calculated parameter is relatively more pre-calculated from a tissue known not to include the tissue structure than a parameter pre-calculated from a tissue known to include the tissue structure. When similar, a computer method, comprising determining that the analysis window is more likely not to include the component in the tissue structure.
さらに、
(g) 前記分析窓が前記組織構造内の前記成分を含むことの確実性が高いとき、前記構造の境界内の画素を確認すること、及び
(h) 画素色強度の分析によって、前記成分の存在を示す特性を前記境界内の画素が表すか否かを決定することを含む、請求項119に記載の手法。
further,
(G) identifying the pixels within the boundaries of the structure when the analysis window is highly certain that it contains the components in the tissue structure; and (h) analyzing the pixel color intensity to determine 120. The method of claim 119, comprising determining whether a pixel within the boundary represents a property indicating presence.
さらに、前記成分の存在を示す前記グループの画素に最も近い細胞核を表す塊状画素を確認し、該塊状画素の画像認識を実行することによって、前記塊状画素の細胞型を確認することを含む、請求項119に記載の手法。Further comprising: identifying a clustered pixel representing a cell nucleus closest to the group of pixels indicating the presence of the component; and performing image recognition of the clustered pixel to identify a cell type of the clustered pixel. Item 119. The method according to Item 119. 前記成分は、標識物の付加によって確認可能にされる、請求項119に記載の手法。120. The method of claim 119, wherein said component is made identifiable by the addition of a label. 前記標識物は、標識札の付加によって確認可能にされる、請求項122に記載の手法。The method of claim 122, wherein the sign is made identifiable by the addition of a sign. 前記成分は遺伝子産物である、請求項119に記載の手法。120. The method of claim 119, wherein said component is a gene product. 前記成分は薬である、請求項119に記載の手法。120. The method of claim 119, wherein said component is a drug. 前記成分は抗体である、請求項119に記載の手法。120. The method of claim 119, wherein said component is an antibody. 前記成分はリガンドである、請求項119に記載の手法。120. The method of claim 119, wherein said component is a ligand. 前記成分の大きさは、前記画像のコンピュータ分析によって測定される、請求項119に記載の手法。120. The method of claim 119, wherein the magnitude of the component is measured by computer analysis of the image. 細胞核の分類を決定するために、生体からの少なくとも1つの細胞の画像を用いるコンピュータ手法であって、
(a) 少なくとも1つの細胞核の画素データ画像であって該画素データ画像は隣接画素からなる少なくとも1つの画像塊を表し、該画像塊は、細胞核の寸法に等しい最小寸法を有する、画素データ画像を受けること、
(b) 少なくとも6の有効ビットで表された画像強度値データを有する最小寸法の少なくとも6の画素を有する隣接画素であって細胞核物質の少なくとも24の分離した隣接画素を含む画素塊を表す、前記画像の範囲内からの画素データの少なくとも1つの分析窓を選択すること、
(c) 計算されたパラメータの供給のために最小寸法の少なくとも6の画素を有する分析窓の範囲内の二次元的格子状画素から、各画素のために少なくとも6の有効ビットを有する前記画像強度値データの少なくとも2つの空間的範囲を横切るパターンの測定値を構成する少なくとも1つのパラメータを、前記分析窓の画素データから計算すること、
(d) 前記計算されたパラメータと、少なくとも2つの異なる種類の細胞核であることが既知の細胞核の画像から予め計算された少なくとも2つの異なる対応するパラメータとを比較し、これにより、少なくとも第1の種類及び第2の種類を提供すること、及び
(e) 前記画像塊に表された少なくとも1つの細胞核が前記第1の種類及び前記第2の種類のいずれに比較的に類似するか否かを決定することを含む、コンピュータ手法。
A computer method using an image of at least one cell from a living organism to determine a classification of a cell nucleus,
(A) a pixel data image of at least one cell nucleus, wherein the pixel data image represents at least one image chunk of adjacent pixels, the image chunk having a minimum dimension equal to the dimension of the cell nucleus; Receiving,
(B) an adjacent pixel having at least 6 pixels of the smallest dimension having image intensity value data represented by at least 6 significant bits, wherein said pixel cluster comprises at least 24 separate adjacent pixels of nuclear material; Selecting at least one analysis window of pixel data from within the image;
(C) from a two-dimensional grid of pixels within an analysis window having at least six pixels of the smallest dimension for the provision of the calculated parameters, said image intensity having at least six significant bits for each pixel. Calculating from the pixel data of the analysis window at least one parameter constituting a measurement of the pattern across at least two spatial ranges of the value data;
(D) comparing the calculated parameter with at least two different corresponding parameters pre-calculated from an image of a cell nucleus known to be at least two different types of cell nuclei, whereby at least the first Providing a type and a second type; and (e) determining whether at least one cell nucleus represented in the image mass is relatively similar to any of the first type and the second type. Computer techniques, including making decisions.
請求項1に記載の手法をコンピュータに実行させる、前記コンピュータで作動するコンピュータプログラムを含む、コンピュータ読込可能のデータ搬送体。A computer readable data carrier comprising a computer program running on a computer for causing a computer to perform the method of claim 1. 前記第1の種類は単一の型の細胞核を含み、前記第2の種類は、前記単一の型を含まない複数のの細胞核を含む、請求項1に記載の手法。The method of claim 1, wherein the first type includes a single type of cell nucleus and the second type includes a plurality of cell nuclei that do not include the single type. 前記第2の種類は、さらに、第3の種類を提供するための少なくとも1つの付加的な種類を含み、前記比較することは、さらに、前記計算されたパラメータと前記第3の種類とを比較することを含み、前記決定することは、さらに、前記画像に表された少なくとも1つの細胞核が前記第1の種類、前記第2の種類及び前記第3の種類のいずれに比較的に類似するか否かを決定することを含む、請求項129に記載の手法。The second type further includes at least one additional type for providing a third type, wherein the comparing further comprises comparing the calculated parameter with the third type. Determining that the at least one cell nucleus represented in the image is relatively similar to any one of the first type, the second type, and the third type. 130. The method of claim 129, comprising determining whether or not. 前記比較することの演算は、少なくとも1つの神経ネットワークを用いて実行される、請求項129に記載の手法。130. The method of claim 129, wherein the comparing operation is performed using at least one neural network. 第1の固有モードのデータ低下を有する画素データを有することが既知の画像を用いて訓練された第1の神経ネットワークと、第2の固有モードのデータ低下を有する画素データを有することが既知の画像を用いて訓練された第2の神経ネットワークとを含む少なくとも2つの神経ネットワークとを用い、前記計算されたパラメータは前記第1の神経ネットワーク及び前記第2の神経ネットワークの両方に供給される、請求項133に記載の手法。A first neural network trained with an image known to have pixel data having a first eigenmode data reduction and a known neural network having pixel data having a second eigenmode data reduction Using at least two neural networks, including a second neural network trained with images, wherein the calculated parameters are provided to both the first neural network and the second neural network. 135. The method according to claim 133. 前記第1の種類は細胞核についての第1の型を含み、前記第2の種類は、細胞核についての前記第1の型とは異なる、細胞核についての第2の型を含む、請求項129に記載の手法。130. The method of claim 129, wherein the first type comprises a first type for a cell nucleus, and wherein the second type comprises a second type for a cell nucleus that is different than the first type for a cell nucleus. Technique. 前記第1の種類は細胞核についての第1の型を含み、前記第2の種類は細胞核についての第2の型を含み、当該手法は前記神経ネットワークが訓練された型であって細胞核についての付加的な型を含む少なくとも1つの付加的な種類を含み、前記画素の塊の少なくとも1つの細胞核は前記計算されたパラメータに最もよく類似する種類であることの確実性が高いとの決定がされる、請求項133に記載の手法。The first type includes a first type for a cell nucleus, the second type includes a second type for a cell nucleus, and the method includes applying the neural network to a trained type, the method comprising: A determination is made that there is a high likelihood that the at least one cell nucleus of the cluster of pixels is of a type that most closely resembles the calculated parameters, including at least one additional type including a typical type. 144. The method of claim 133. 前記画像は、互いに固定関係を有する複数の細胞の組織の一部の露出面から取得される、請求項129に記載の手法。130. The method according to claim 129, wherein the image is obtained from a part of an exposed surface of a tissue of a plurality of cells having a fixed relationship with each other. 前記画像が取得される前に、前記露出面が核染色法で着色される、請求項137に記載の手法。138. The method of claim 137, wherein the exposed surface is colored by nuclear staining before the image is obtained. 前記第1の種類の少なくとも1つの細胞核は人体細胞型の正常細胞内にあり、前記第2の種類の細胞核は、前記細胞の異常性を示す画像に表れる人体細胞型の細胞内にある、請求項129に記載の手法。The at least one cell nucleus of the first type is in a normal cell of a human somatic cell type, and the second type of cell nucleus is in a cell of a human somatic cell type appearing in an image showing an abnormality of the cell. 129. The method according to item 129. 前記異常性は繁殖性病気を示す、請求項139に記載の手法。140. The method of claim 139, wherein the abnormality is indicative of a reproductive disease. 前記異常性は腫瘍形成を示す、請求項139に記載の手法。140. The method of claim 139, wherein the abnormality is indicative of tumor formation. 前記異常性は伝染病を示す、請求項139に記載の手法。140. The method of claim 139, wherein the abnormality is indicative of an infectious disease. 前記異常性は炎症性を示す、請求項139に記載の手法。140. The method of claim 139, wherein the abnormality is inflammatory. 前記異常性は変性疾患を示す、請求項139に記載の手法。140. The method of claim 139, wherein the abnormality indicates a degenerative disease. 前記異常性は自己免疫疾患を示す、請求項139に記載の手法。140. The method of claim 139, wherein the abnormality is indicative of an autoimmune disease. 前記異常性は化学的傷害を示す、請求項139に記載の手法。140. The method of claim 139, wherein the abnormality is indicative of a chemical injury. 前記異常性は無酸素傷害を示す、請求項139に記載の手法。140. The method of claim 139, wherein the abnormality is indicative of anoxic injury. 前記異常性は代謝性疾患を示す、請求項139に記載の手法。140. The method of claim 139, wherein the abnormality is indicative of a metabolic disease. 前記異常性は遺伝病を示す、請求項139に記載の手法。140. The method of claim 139, wherein the abnormality is indicative of a genetic disease. 前記異常性は表1に列挙された病気を示す、請求項139に記載の手法。140. The method of claim 139, wherein the abnormality is indicative of a disease listed in Table 1. 前記第1の種類の少なくとも1つの細胞核は、表2に列挙された人体細胞にある、請求項129に記載の手法。130. The method of claim 129, wherein the at least one cell nucleus of the first type is a human somatic cell listed in Table 2. 前記画像は少なくとも1つの分離された細胞から取得される、請求項129に記載の手法。130. The method of claim 129, wherein the image is obtained from at least one separated cell. 前記分離された細胞は、血球、PAP塗抹標本細胞及び炎症性細胞の少なくとも1つである、請求項147に記載の手法。148. The method of claim 147, wherein the separated cells are at least one of blood cells, PAP smear cells, and inflammatory cells. 前記第1の種類の少なくとも1つの細胞核は、周囲組織に関して固定された細胞の細胞核であり、前記第2の種類の少なくとも1つの細胞核は炎症性細胞の細胞核である、請求項129に記載の手法。130. The method of claim 129, wherein the at least one cell nucleus of the first type is a cell nucleus fixed with respect to surrounding tissue and the at least one cell nucleus of the second type is a nucleus of an inflammatory cell. . さらに、炎症性細胞の数を計測し、炎症性細胞の数に基づく測定値を報告することを含む、請求項154に記載の手法。157. The method of claim 154, further comprising counting the number of inflammatory cells and reporting a measurement based on the number of inflammatory cells. 前記第1の種類の細胞核は第1の型の炎症性細胞の細胞核であり、前記第2の種類の細胞核は第2の型の炎症性細胞の細胞核である、請求項129に記載の手法。130. The method of claim 129, wherein the first type of cell nucleus is a cell nucleus of a first type of inflammatory cell, and the second type of cell nucleus is a cell nucleus of a second type of inflammatory cell. さらに、各型の炎症性細胞の数を計測し、各型の炎症性細胞の数に基づく測定値を報告することを含む、請求項156に記載の手法。157. The method of claim 156, further comprising counting the number of inflammatory cells of each type and reporting a measurement based on the number of inflammatory cells of each type. 前記第1の種類の少なくとも1つの細胞核は第1の型の炎症性細胞の細胞核であり、前記第2の種類の少なくとも1つの細胞核は第2の型の炎症性細胞の細胞核であり、前記付加的な種類の少なくとも1つの細胞核は少なくとも1つの付加的な型の炎症性細胞の細胞核である、請求項142に記載の手法。The at least one nucleus of the first type is a nucleus of an inflammatory cell of a first type; the at least one nucleus of the second type is a nucleus of an inflammatory cell of a second type; 142. The method of claim 142, wherein the at least one cell nucleus of the general type is a cell nucleus of at least one additional type of inflammatory cell. 前記第1の種類の細胞核は第1の細胞型の細胞核であり、前記第2の種類の細胞核は第2の細胞型の細胞核である、請求項137に記載の手法。138. The method of claim 137, wherein said first type of cell nucleus is a cell nucleus of a first cell type, and said second type of cell nucleus is a cell nucleus of a second cell type. 前記第1の細胞型は、実質的に、互いに固定関係を有する細胞を含み、前記第2の細胞型は、少なくとも1つの炎症性細胞を含む、請求項149に記載の手法。150. The method of claim 149, wherein the first cell type substantially comprises cells having a fixed relationship to one another, and wherein the second cell type comprises at least one inflammatory cell. 前記画像は、生体において互いに固定関係を有する複数の細胞の組織からその場で取得される、請求項129に記載の手法。130. The method according to claim 129, wherein the image is obtained in situ from a plurality of cell tissues having a fixed relationship with each other in a living body. (a) 前記画像が取得される前に、生体からの少なくとも1つの細胞に標識物が付加され、
(b) 次いで、前記標識物が前記画像に出現する位置が前記コンピュータ分析によって確認され、
(c) ある種類の細胞核を有する前記画像塊が示された後、前記標識物の位置と前記種類のための前記標識物の予め計算された位置とが比較され、前記2つの相関性が決定される、請求項129に記載の手法。
(A) before the image is obtained, a label is added to at least one cell from a living body;
(B) Then, the position where the marker appears in the image is confirmed by the computer analysis,
(C) after the image mass with a certain type of cell nucleus is shown, the position of the label and the pre-calculated position of the label for the type are compared to determine the correlation between the two. 130. The method of claim 129, wherein the method is performed.
前記標識物は遺伝子産物である、請求項162に記載の手法。163. The method of claim 162, wherein said label is a gene product. 前記標識物は薬である、請求項162に記載の手法。163. The method of claim 162, wherein the label is a drug. 前記標識物は抗体である、請求項162に記載の手法。163. The method according to claim 162, wherein the label is an antibody. 前記標識物はリガンドである、請求項162に記載の手法。163. The method according to claim 162, wherein the label is a ligand. 標識物を表す画像塊に表された少なくとも1つの細胞核のために、前記標識物の大きさは、前記画像のコンピュータ分析によって測定される、請求項162に記載の手法。163. The method of claim 162, wherein for at least one cell nucleus represented in an image mass representing a label, the size of the label is measured by computer analysis of the image. 前記細胞は動物組織の細胞である、請求項129に記載の手法。130. The method of claim 129, wherein said cells are cells of an animal tissue. 前記細胞は人体組織の細胞である、請求項168に記載の手法。169. The method of claim 168, wherein said cells are cells of a human body tissue. 前記画像データは第3の空間的範囲を含み、前記パラメータの計算は、すべての3つの空間的範囲を横切る少なくとも1つのパラメータを計算することである、請求項129に記載の手法。130. The method of claim 129, wherein the image data includes a third spatial extent, and calculating the parameter is to calculate at least one parameter across all three spatial extents. 成分の位置を示し、前記成分を含む細胞型を確認するために、生体の組織の画像を処理するコンピュータ手法であって、
(a) 互いに固定関係を有する複数の細胞を含む組織の画素データ画像であって少なくとも1つの細胞核を表す少なくとも2つの画素塊を表す画素データ画像を受けること、
(b) 前記画素データ画像の画素色強度の分析によって、前記成分の存在を示す特性を表す1グループの1以上の隣接画素を確認すること、
(c) 画像認識によって、前記グループの画素に最も近い最近接画素塊を前記画素データ画像内で確認し、計算されたパラメータを提供するために、前記最近接画素内の画素のための画素データから少なくとも1つのパラメータを計算すること、
(d) 前記計算されたパラメータと、第1の細胞型を提供するための細胞型の細胞核であることが既知の細胞核から予め計算された少なくとも1つの対応するパラメータ及び第2の細胞型を提供するために前記細胞型の細胞核でないことが既知の細胞核から予め計算された少なくとも1つの対応するパラメータとを比較すること、
(e) 前記計算されたパラメータと、少なくとも2つの異なる種類の細胞核であることが既知の細胞核の画像から予め計算された少なくとも2つの対応するパラメータとを比較し、これにより、少なくとも第1の種類及び第2の種類を提供すること、及び
(f) 前記画像塊に表された少なくとも1つの細胞核が、前記第1の種類及び前記第2の種類のいずれに比較的に類似するか否かを決定することを含む、コンピュータ手法。
A computer method for processing an image of a tissue of a living body to indicate a position of a component and confirm a cell type including the component,
(A) receiving a pixel data image of a tissue including a plurality of cells having a fixed relationship with each other and representing at least two pixel clusters representing at least one cell nucleus;
(B) confirming one or more adjacent pixels of a group representing a characteristic indicating the presence of the component by analyzing a pixel color intensity of the pixel data image;
(C) pixel data for the pixels in the nearest pixel to identify the nearest pixel cluster in the pixel data image by image recognition and to provide calculated parameters; Calculating at least one parameter from
(D) providing the calculated parameters and at least one corresponding parameter and a second cell type previously calculated from a cell nucleus known to be a cell type nucleus for providing a first cell type; Comparing with at least one corresponding parameter previously calculated from a cell nucleus known not to be of the cell type to
(E) comparing the calculated parameters with at least two corresponding parameters pre-calculated from images of cell nuclei known to be at least two different types of cell nuclei, whereby at least the first type And providing a second type; and (f) determining whether at least one cell nucleus represented in the image mass is relatively similar to any of the first type and the second type. Computer techniques, including making decisions.
前記成分は、標識物の付加によって前記画像内で確認可能にされる、請求項171に記載の手法。172. The method of claim 171, wherein the component is made visible in the image by the addition of a label. 前記標識物は、標識札の付加によって前記画像内で確認可能にされる、請求項172に記載の手法。172. The method of claim 172, wherein the sign is made visible in the image by the addition of a sign. 前記成分は遺伝子産物である、請求項171に記載の手法。172. The method of claim 171, wherein said component is a gene product. 前記成分は薬である、請求項171に記載の手法。172. The method of claim 171, wherein the component is a drug. 前記成分は抗体である、請求項171に記載の手法。172. The method of claim 171, wherein said component is an antibody. 前記成分はリガンドである、請求項171に記載の手法。172. The method of claim 171, wherein said component is a ligand. 前記成分の大きさは、前記グループ内の画素の画素強度のコンピュータ分析によって測定される、請求項171に記載の手法。172. The method of claim 171, wherein the magnitude of the component is measured by computer analysis of pixel intensities of pixels in the group. 細胞型が成分を含むか否かを決定するために生体の組織の画像を処理するコンピュータ手法であって、
(a) 互いに固定の関係にある複数の細胞を含む組織の画素データ画像であって少なくとも1つの細胞核を表す少なくとも1つの塊状画素の全部を示す画素データ画像を受けること、
(b) 前記画素の塊の距離の範囲内の画素を含む領域の境界を定めること、
(c) 画素色強度の分析によって、前記境界の範囲内の画素が前記成分の存在を示す特性を表すか否かを決定すること、
(d) 前記存在を表す画素を前記領域が含むとき、計算されたパラメータを提供するために前記画素塊の範囲内の画素のための少なくとも1つのパラメータを計算すること、
(e) 前記計算されたパラメータと、少なくとも2つの異なる種類の細胞核であることが既知の細胞核の画像から予め計算された少なくとも2つの異なる対応するパラメータとを比較し、これにより、少なくとも第1の種類及び第2の種類を提供すること、及び、
(f) 前記画像塊に表された少なくとも1つの細胞核が前記第1の種類及び前記第2の種類のいずれに比較的に類似するかを決定することを含む、コンピュータ手法。
A computer method of processing an image of a biological tissue to determine whether the cell type contains a component,
(A) receiving a pixel data image of a tissue including a plurality of cells in a fixed relationship with each other, the pixel data image representing all of at least one block pixel representing at least one cell nucleus;
(B) defining a boundary of a region including pixels within a distance of the block of pixels;
(C) determining, by analyzing the pixel color intensity, whether a pixel within the bounds exhibits a characteristic indicative of the presence of the component;
(D) calculating at least one parameter for a pixel within the pixel chunk to provide a calculated parameter when the region includes a pixel representing the presence;
(E) comparing the calculated parameter with at least two different corresponding parameters pre-calculated from an image of the cell nucleus known to be at least two different types of cell nuclei, whereby at least the first Providing a type and a second type; and
(F) A computer method, comprising determining whether at least one cell nucleus represented in the image block is relatively similar to the first type or the second type.
前記距離は、前記領域が前記画素塊と同一の広がりを有するようにゼロである、請求項179に記載の手法。179. The method of claim 179, wherein the distance is zero such that the region is coextensive with the pixel mass. 前記距離は、前記領域が前記画素塊より大であるようにゼロより大である、請求項179に記載の手法。180. The method of claim 179, wherein the distance is greater than zero such that the region is greater than the pixel chunk. 前記成分は、標識物の付加によって前記画像内で確認可能にされる、請求項179に記載の手法。180. The method of claim 179, wherein the component is made visible in the image by the addition of a label. 前記標識物は、標識札の付加によって前記画像内で確認可能にされる、請求項182に記載の手法。183. The method of claim 182, wherein the sign is made visible in the image by the addition of a sign. 前記成分は遺伝子産物である、請求項171に記載の手法。172. The method of claim 171, wherein said component is a gene product. 前記成分は薬である、請求項171に記載の手法。172. The method of claim 171, wherein the component is a drug. 前記成分は抗体である、請求項171に記載の手法。172. The method of claim 171, wherein said component is an antibody. 前記成分はリガンドである、請求項171に記載の手法。172. The method of claim 171, wherein said component is a ligand. 前記成分の大きさは、前記画像のコンピュータ分析によって測定される、請求項171に記載の手法。172. The method of claim 171, wherein the magnitude of the component is measured by computer analysis of the image.
JP2003500820A 2001-04-09 2002-04-09 Computer techniques for image pattern recognition of organic matter. Pending JP2004535569A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US28267701P 2001-04-09 2001-04-09
PCT/US2002/011568 WO2002097714A1 (en) 2001-04-09 2002-04-09 Computer method for image pattern recognition in organic material

Publications (1)

Publication Number Publication Date
JP2004535569A true JP2004535569A (en) 2004-11-25

Family

ID=23082627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003500820A Pending JP2004535569A (en) 2001-04-09 2002-04-09 Computer techniques for image pattern recognition of organic matter.

Country Status (3)

Country Link
EP (1) EP1380005A1 (en)
JP (1) JP2004535569A (en)
WO (1) WO2002097714A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012524276A (en) * 2009-04-14 2012-10-11 ザ ジェネラル ホスピタル コーポレーション Method and apparatus for multimodal imaging of biological tissue
US8571279B2 (en) 2008-01-18 2013-10-29 Nec Corporation Spot quantification apparatus, spot quantification method, and recording medium
JP2015025800A (en) * 2013-06-20 2015-02-05 キヤノン株式会社 Spectral data processing device and spectral data processing method
JPWO2013132734A1 (en) * 2012-03-07 2015-07-30 ソニー株式会社 Observation apparatus, observation program, and observation method
JP2015535933A (en) * 2012-09-24 2015-12-17 ブリガム・アンド・ウイミンズ・ホスピタル・インコーポレイテッド Portal and method for managing dialysis therapy
JP2022145429A (en) * 2021-03-19 2022-10-04 宏碁智醫股▲ふん▼有限公司 Image-related detection method and device

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6754380B1 (en) 2003-02-14 2004-06-22 The University Of Chicago Method of training massive training artificial neural networks (MTANN) for the detection of abnormalities in medical images
SE0400318D0 (en) * 2004-02-12 2004-02-12 Carl Henrik Grunditz Inspection of cartographic images through multi-layered, neural hybrid classification
US8041090B2 (en) 2005-09-10 2011-10-18 Ge Healthcare Uk Limited Method of, and apparatus and computer software for, performing image processing
US8326037B1 (en) 2005-11-23 2012-12-04 Matrox Electronic Systems, Ltd. Methods and apparatus for locating an object in an image
CN103439271B (en) * 2013-08-29 2015-10-28 华南理工大学 The visible detection method of the ripe situation of a kind of pork
WO2016105313A2 (en) * 2014-12-22 2016-06-30 Heksagon Muhendislik Ve Tasarim Anonim Sirketi A compost mixing system and method
US10430943B2 (en) 2016-10-07 2019-10-01 Sony Corporation Automated nuclei area/number estimation for IHC image analysis
CN110573883B (en) * 2017-04-13 2023-05-30 美国西门子医学诊断股份有限公司 Method and apparatus for determining tag count during sample characterization
JP7137935B2 (en) * 2018-02-27 2022-09-15 シスメックス株式会社 Image analysis method, image analysis device, program, method for manufacturing trained deep learning algorithm, and trained deep learning algorithm
US20220058796A1 (en) 2018-09-12 2022-02-24 Auckland Uniservices Limited Methods and systems for ocular imaging, diagnosis and prognosis
US20220343623A1 (en) * 2019-11-28 2022-10-27 Beijing Xiaoying Technology Co., Ltd. Blood smear full-view intelligent analysis method, and blood cell segmentation model and recognition model construction method
CN113838028A (en) * 2021-09-24 2021-12-24 无锡祥生医疗科技股份有限公司 Carotid artery ultrasonic automatic Doppler method, ultrasonic equipment and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4097845A (en) * 1976-11-01 1978-06-27 Rush-Presbyterian-St. Luke's Medical Center Method of and an apparatus for automatic classification of red blood cells
US4965725B1 (en) * 1988-04-08 1996-05-07 Neuromedical Systems Inc Neural network based automated cytological specimen classification system and method
US5299269A (en) * 1991-12-20 1994-03-29 Eastman Kodak Company Character segmentation using an associative memory for optical character recognition
US5881124A (en) * 1994-03-31 1999-03-09 Arch Development Corporation Automated method and system for the detection of lesions in medical computed tomographic scans
DE19616997A1 (en) * 1996-04-27 1997-10-30 Boehringer Mannheim Gmbh Process for automated microscope-assisted examination of tissue or body fluid samples

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8571279B2 (en) 2008-01-18 2013-10-29 Nec Corporation Spot quantification apparatus, spot quantification method, and recording medium
JP2012524276A (en) * 2009-04-14 2012-10-11 ザ ジェネラル ホスピタル コーポレーション Method and apparatus for multimodal imaging of biological tissue
JPWO2013132734A1 (en) * 2012-03-07 2015-07-30 ソニー株式会社 Observation apparatus, observation program, and observation method
US10151910B2 (en) 2012-03-07 2018-12-11 Sony Corporation Image analysis using microscope optical system
JP2015535933A (en) * 2012-09-24 2015-12-17 ブリガム・アンド・ウイミンズ・ホスピタル・インコーポレイテッド Portal and method for managing dialysis therapy
JP2015025800A (en) * 2013-06-20 2015-02-05 キヤノン株式会社 Spectral data processing device and spectral data processing method
JP2022145429A (en) * 2021-03-19 2022-10-04 宏碁智醫股▲ふん▼有限公司 Image-related detection method and device

Also Published As

Publication number Publication date
EP1380005A1 (en) 2004-01-14
WO2002097714A1 (en) 2002-12-05

Similar Documents

Publication Publication Date Title
US20020186875A1 (en) Computer methods for image pattern recognition in organic material
JP2004535569A (en) Computer techniques for image pattern recognition of organic matter.
CN111448569B (en) Method for storing and retrieving digital pathology analysis results
Doyle et al. Cascaded discrimination of normal, abnormal, and confounder classes in histopathology: Gleason grading of prostate cancer
Linder et al. Identification of tumor epithelium and stroma in tissue microarrays using texture analysis
US7587078B2 (en) Automated image analysis
US20050123181A1 (en) Automated microscope slide tissue sample mapping and image acquisition
US20060127880A1 (en) Computerized image capture of structures of interest within a tissue sample
CA2492071A1 (en) Computerized image capture of structures of interest within a tissue sample
CN101151623A (en) Classifying image features
US20220351860A1 (en) Federated learning system for training machine learning algorithms and maintaining patient privacy
US20220351379A1 (en) Non-tumor segmentation to support tumor detection and analysis
Chen et al. Feasibility study on automated recognition of allergenic pollen: grass, birch and mugwort
Song et al. Hybrid deep autoencoder with Curvature Gaussian for detection of various types of cells in bone marrow trephine biopsy images
CN108388853B (en) Stepwise reconstruction and counting method for leucocyte and platelet coexistence hologram
Shirazi et al. Automated pathology image analysis
Ahmed Raza et al. Robust normalization protocols for multiplexed fluorescence bioimage analysis
Chaudhury et al. Diagnosis of invasive ductal carcinoma using image processing techniques
Mazo et al. Automatic recognition of fundamental tissues on histology images of the human cardiovascular system
Joseph Hyperspectral optical imaging for detection, diagnosis and staging of cancer
Liu et al. 3D Rotation-Invariant description from tensor operation on spherical HOG field
Song et al. Epithelial segmentation from in situ hybridisation histological samples using a deep central attention learning approach
CN117038060A (en) Raman spectrum molecular detection and imaging device based on machine learning cascade
Begelman et al. A Microscopic Telepathology System for Multiresolution Computer-Aided Diagnostics.
Bose et al. A Class of Point Dissipative n-Dimensional Dynamical Systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070619