JP2001503897A - Pipeline processor for medical and biological image analysis - Google Patents

Pipeline processor for medical and biological image analysis

Info

Publication number
JP2001503897A
JP2001503897A JP52303598A JP52303598A JP2001503897A JP 2001503897 A JP2001503897 A JP 2001503897A JP 52303598 A JP52303598 A JP 52303598A JP 52303598 A JP52303598 A JP 52303598A JP 2001503897 A JP2001503897 A JP 2001503897A
Authority
JP
Japan
Prior art keywords
pipeline
image
stage
module
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP52303598A
Other languages
Japanese (ja)
Inventor
プレンティス,パトリック
Original Assignee
モルフォメトリックス テクノロジーズ インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by モルフォメトリックス テクノロジーズ インク. filed Critical モルフォメトリックス テクノロジーズ インク.
Publication of JP2001503897A publication Critical patent/JP2001503897A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining

Abstract

(57)【要約】 医学的および生物学的画像分析のためのパイプラインプロセッサー。このパイプラインプロセッサーはその中で計算作業が複数の基本的論理操作に細分される複数の微細処理パイプラインを含む。このパイプラインプロセッサーは入力段、分割パイプライン段、特徴抽出パイプライン段および出力段を包含している。入力段は生物学的試料のデジタル化画像を受け取りそして分割段に先立ち画像をコンディショニングするための手段を含む。分割パイプラインは入力段からコンディショニングされた画像を受け取り、その画像に対して分割作業を行う。分割段からの出力は特徴抽出パイプライン段に供給され、その特徴抽出パイプライン段は抽出作業を実行して分割結果に予め定められた特徴を関連させる。抽出された特徴は出力段に保存されそして生物学的意味に従って特徴を分類するための分類作業を実行する別のコンピュータに送られる。   (57) [Summary] Pipeline processor for medical and biological image analysis. The pipeline processor includes a plurality of fine processing pipelines in which computational work is subdivided into a plurality of basic logical operations. The pipeline processor includes an input stage, a split pipeline stage, a feature extraction pipeline stage, and an output stage. The input stage includes means for receiving a digitized image of the biological sample and conditioning the image prior to the dividing stage. The split pipeline receives the conditioned image from the input stage and performs a split operation on the image. The output from the split stage is provided to a feature extraction pipeline stage, which performs the extraction operation and associates a predetermined feature with the split result. The extracted features are stored in an output stage and sent to another computer that performs a classification task to classify the features according to biological meaning.

Description

【発明の詳細な説明】 医学的および生物学的画像分析のためのパイプラインプロセッサー発明の分野 本発明はプロセッサー構成技術に関し、より詳細には医学および生物学上の画 像分析のためのパイプラインプロセッサーに関する。発明の背景 医学および生物学の分野においては評価や診断の援助のために各種画像を視覚 的に検査することが行われている。たとえば、X線写真は骨や軟組織を調べるた めに使用することができる。また、細胞の顕微鏡画像は病気の特定および治療経 過の判定のために使用することができる。これらの画像をさらにデジタル表現に 変換すると、計算機を使用して画像鮮明度の向上を図り、主要成分を特定し、あ るいは自動検査さえも図ることができる。これらの画像はきわめて複雑で、多く の情報を含む傾向があり、計算機の必要性は高い。 商業的に活用可能な医療用または生物学用の画像分析システムの開発を可能に するために、設計者はできる限り短時間で多くの計算作業を遂行するという問題 に取り組んでいる。この要求からコンピュータパイプライン処理を使用すること が考えられた。 図1に従来のクラシカルな画像分析による基本的な処理工程を示す。従来の画 像分析では、最初の工程1で視野10が一連の空間的に別個のエレメント、すな わちピクセル12(図1に個々に12aおよび12bとして示されている)にデ ジタル化される。各ピクセル12は視野10の空間的に別個の領域内の積分され た光強度のデジタル表現を含んでいる。デジタル化工程の後、画像12は処理工 程2において画像の重要領域すなわち関心対象14a,14bをバックグラウン ドから分離する目的で分割される。この分割は困難かつ計算密度の高い作業であ る場合が多い。次に工程3において、分割相にある各区別される対象14が独特 的に対象”y”(16a)および対象”x”(16b)としてラベル付けされる 。これによって対象16のアイデンティテーが回復できる。次の工程4において 、一連の数学的測定値の計算が各対象16に対してなされる。各対象は一連の数 値的量としてそれらの視覚的外観を含む。当技術分野では、この工程は特徴抽出 として公知となっている。工程5でなされる最後の作業は各種の公知ヒエラルキ ー分類アルゴリズムのいずれか1つを使用して抽出された特徴18を分類して各 分割対象の分類または特定を行うことである。 当技術分野に通常の知識を有する者にとっては明らかなように、従来技術の画 像分析において、視野像をそれぞれの特徴を有する複数の対象(図1の18aと 18b)として数字表現に変換する作業は通常多大の計算努力を必要とする。幸 いにして、画像分析法でつくられるデジタル画像が個別に分離していることと、 一連の操作作業を賢明に設計することとにより、全体の分析エンジンのために高 速パイプライン構築技術を使用する方法が導かれた。 パイプライン処理においては、計算はコンピュータ作業の組立てラインと同様 な多数の計算作業に分けられる。画像処理において、もし一連の複雑な画像処理 作業が逐次直列的に実行可能なより小さな一連の多数の作業に細分されるならば 、そして同じく処理加工のための素材データが細分できるならば、パイプライン 技法を用いることができる。画像分析の領域において、素材データとはデジタル 化された画像12(図1)からなるものである。パイプライン処理のためには、 各作業は直列的に、一度に画像の1つの小部分に対して実行される必要がありそ し てその画像部分が当該作業に到達する前に入手できた情報以外にはいかなる追加 的情報も要求することができない。実際のシステムでは、複数の遅延要素の複数 セットを使用して任意の1つのパイプライン作業がさらに他の情報にアクセスで きるようにすることが可能である。一般的に言えば、パイプラインプロセッサー はパイプラインの長さに比例する処理速度のスピードアップを提供できる。 パイプライン処理においては、2つのアプローチが提案されている。すなわち 図2に示されている粗大粒子パイプライン処理20と微細粒子パイプライン処理 30との2つの方式である。粗大粒子パイプライン処理の場合は、画像処理作業 は比較的大きな作業ブロック22a,22bに分けられ。各ブロック22は複雑 な一連の作業を含む。粗大粒子方式は計算作業を成功的に実行するために比較的 ハイレベルの計算機構を使用する。各ハイレベル計算機構22は、もしそのレベ ルの作業がパイプライン処理に適するものであるならば、それ自体をパイプライ ン化することができる。微細粒子パイプライン処理の場合では、計算作業は基本 的な一連の論理作業ブロック、すなわち、AND32a,OR32b,NAND 32c,NOR32d,NOT32e,XOR32fに分けられる。微細粒子パ イプライン処理技術は一般的に設計が最も難しいが、しかし理論的に最大の作業 速度を与える。 当技術分野では、細胞学的画像分析に適用されるようなコンピュータパイプラ イン作業の速度とパワーを基準にした計算を実行する試みがなされている。公開 されたPCT特許出願番号WO93/16438明細書においてジョンストン(Johnston) 等はデータシーケンスを高速で処理するための装置と方法を開示している。この ジョンストンのシステムは分配されたメモリーを有する大量並列構成を含む。各 処理工程の結果は複雑なメモリー分配スキームによって次の処理工程に転送され る。さらに,各個すなわちそれ以上分割されない原子的作業は次の作業のための 結果が入手可能となる前にフレーム全部を処理しなければならない。全体の処理 時間は1つの画像フレームの処理時間に各原子的作業の個数を乗じたオーダーと なる。すなわち、画像保存エレメントと処理エレメントの個数が画像走査時間で 割った全加工時間を表す。ハードウエアの必要量を減らすためには高速のロジッ クとメモリーを使用することが必要である。 この技術のいま一つの問題はデジタル画像の境界域の解釈である。境界域は対 象が削除されたり変形されたりするので特別な問題を持つ。実際には、オーバー ラッピングデジタル化法が世界的なレベルでこの問題を排除している。それにも かかわらず、かかる領域での作業を限定するためにコンピュータが画像の正しい 境界を実現することが必要である。ジョンストンのシステムを見ると、システム ソフトウエアは新しい定数で編集し直す必要があるだろう。さもなくば、画像サ イズ変数を各プロセッサーに供給することが必要となろう。この場合、それらの 変数は各ピクセル作業後にチェックしなければならない。 パイプラインプロセッサーは一般にデータが1秒間当たりデジタル情報約2億 (200million)ビットの速度で処理されなければならない用途で必要とされる 。かかる情報が画像分析のため処理されるべき場合、必要となる作業の数は優に 1秒当たり500億(50billion)に達するであろう。したがって、実用的パ イプラインプロセッサーはこのような膨大なデータ量を取扱いうるものでなけれ ばならない。 したがって、医学および生物学の画像形成分野では画像分析のために適当なパ イプライン構築技術が求められている。発明の要約 本発明は医学的、生物学的画像分析のために適当なパイプラインプロセッサー 構築技術を提供するものである。本パイプラインプロセッサーは計算作業が複数 の基本的論理作業に細分される微細粒子処理パイプラインを含む。 本発明によるパイプラインプロセッサーの1つの特徴は各処理工程の出力が次 の処理工程の入力に直接接続されていることである。さらに、各個の原子的作業 は入力から出力までわずか1列と3クロックサイクルを要するのみである。すな わち、中間結果の全保存量は大幅に減少される。加えて、保存のためのエレメン トの大部分はデータシフトレジスターの形のものであり得、メモリーアドレッシ ングの必要はなくなりそしてメモリー制御の必要度は減少される。さらに、必要 な処理時間はピクセルの個数で画像走査時間を割った商まで減少される。実際に は、この速度はピクセル走査速度の約2/3であり、はるかに低速でより信頼性の ある安価なハードウエアの使用が可能となり、かつまたより少ないエレメントの 使用が許容される。 本発明の別の実施態様によれば、本パイプラインプロセッサーシステムは各画 像の境界が簡単な論理作業によって検出可能な1つのフレーム、ライン同期化ス キームを使用する。これらの同期信号は各処理工程へパイプライン輸送される。 これによって画像寸法をハードウエアセットアップ作業の間に利用可能な記憶装 置の限度内で決定することが可能となる。 本パイプラインプロセッサーはさらに手直しバッファーを特徴とする。この手 直しバッファーはパイプラインの通常動作を変更することなくパイプライン作業 の結果を調べるためのフィードバックパスを提供する。この手直しバッファーは システムの自己チェックのためおよび性能監視のために役立つ。 1つの面においては、本発明は画像処理のためのパイプラインプロセッサーを 提供し、そのパイプラインプロセッサーは次のものを包含する:画像を受け取る ための入力段、その入力段の出力に接続された分割パイプライン段であって、画 像を選択された部分に分割するための手段を含むもの、分割パイプライン段の出 力に接続された特徴抽出パイプライン段であって、特徴を選択された部分に関連 させるための手段を含むもの;および画像の処理に関連した情報を出力するため の出力段およびこれらパイプライン段の動作を制御するためのコントローラ。 別の面においては、本発明は、生物学的試料の画像を受け取るための入力段、 その入力段の出力に接続された、その画像を選択された複数の部分に分割するた めの分割パイプライン段、特徴を選択された部分に関連させるための特徴抽出パ イプライン、および画像の処理に関連した情報を出力するための出力段からなる 画像処理のためのパイプラインプロセッサーにおいて、次のものを包含するハー ドウエア機構を提供する。ここでハードウエア機構は、電子回路を有するカード を受け取るのに適合した複数のスロットを有する背面を有しており、それらカー ドは、コントロールプロセッサーを保持するためのプロセッサーカード、上記パ イプライン段によって処理された情報を保存するためのメモリー回路とその情報 を別のコンピュータに転送するための通信インターフェースを保有するための出 力カード、1つまたはそれ以上のモジュールカードを含み、モジュールカードの それぞれは複数のパイプラインカードを受け取るための手段を含み、パイプライ ンカードのそれぞれは分割段と特徴抽出段のモジュールを含み;上記背面はその 背面のスロットに挿入されたカード間で情報と制御信号を伝達するための母線手 段を含んでいる。図面の簡単な説明 以下、例として本発明の好ましい実施例を示す添付図面を参照しながら本発明 をさらに説明する。添付図面中、 図1は従来のクラシカルな画像分析技術による処理工程を示す; 図2はパイプラインプロセッサー構築技術のためのの2つのアプローチをブロ ックダイアグラムで示す; 図3は本発明によるパイプラインプロセッサーをブロックダイアグラムの形で 示す; 図4は高速画像分析システムとしての本発明によるパイプラインプロセッサー を示す; 図5は図4の画像分析システムのためのカメラサブシステムによるスペクトル 画像の獲得を示す; 図6は本発明はによるパイプラインプロセッサーのハードウエア機構を示す; 図7は図6のカストム背面上のデータ分布を示す; 図8は図6のハードウエアのためのカッドカードを示す; 図9は背面のための母線上のデータ伝送タイミングを示す; 図10はパイプラインプロセッサーの入力レベリング段をより詳細に示す; 図11は分割パイプラインのための一般的フィルター段を示す; 図12はパイプラインプロセッサー内の特徴抽出パイプラインの一般的工程段 を示す。好ましい実施態様の詳細な説明 図面、特に図3を参照すると、本発明によるパイプラインプロセッサー100 がブロックダイアグラムの形で示されている。パイプラインプロセッサー100 の主なサブシステムはコントロールプロセッサー110、分割サブシステムパイ プライン120、特徴抽出パイプラインサブシステム130およびアップリンク 転送モジュール140である。図6を参照して後述するように、パイプラインプ ロセッサー100のこれらサブシステムはカストム背面202によって、本発明 の1つの実施態様によるハードウエアアレンジメント200により保持されてい る。 パイプラインプロセッサー100は図4に示されているような高速画像処理シ ステム50の”フロントエンド”を形成する。パイプラインプロセッサー100 は最終的な分類または分析のための画像の前処理を実行する。処理工程は画像の コンディショニングおよび特徴抽出のための画像分割を含む。これらの作業が終 了すると、デジタル画像の特徴つき分割対象への変換が完了し、そして次のパタ ーン分類と解析が容易に実施できる。後述するように、本パイプラインプロセッ サーは計算エレメントが迅速に再編成または変更できる汎用設計を特徴としてい る。 図4に示した高速画像処理システム50はPap単分子層試料の自動評価と分 析のためのものである。この画像処理システム50はカメラサブシステム52、 コントロールコンピュータ54、ホストコンピュータ56および一連の周辺機器 58を含む。コントロールコンピュータ54はシステム50に対して全体的制御 を行うものであり、周辺機器58を制御するための周辺制御インターフェース5 5を含む。周辺機器にはバーコードリーダー58a,フォーカシングシステム5 8b,スキャナー58c,スライドローダー58dが含まれる。これら周辺機器 58は本発明の一部を構成するものではない。単に画像処理システム50の全体 を見通すために記載されているものである。フォーカシングシステムとスライド ローダーはそれぞれ目下係属中の出願第CA96/00476(1996年7月18日出 願)と第CA96/00475(1996年7月18日出願)の発明の対象である。ホス トコンピュータ56はパイプラインプロセッサー100内のアップリンク転送モ ジュール140から処理されたデータを受け取るための通信インターフェース5 7を含む。ホストコンピュータ56の主たる機能は処理されたデータを分類アル ゴリズムに従って分類することである。図示のごとく、コントロールコンピュー タ54とホストコンピュータ56は直列RS232通信リンク59によって連結 されている。コントロールコンピュータ54はパイプラインプロセッサー100 と画像分析システム50(たとえば細胞学的装置)に全体的指示を与える役目を もつ。ここでは、パイプラインプロセッサー100を標準的単分子層技術により 準備されそして通常の実験操作法に従って染色された細胞学的試料内の子宮頚ガ ンの前駆体を検出するための画像分析システム50として記載するが、本発明に よるパイプラインプロセッサー100は他の関連する医学的および生物学的画像 分析のために都合よく迅速に再編成しうる構築技術を提供するものである。 カメラサブシステム52は光源61と電荷結合素子アレイ(CCDs)62を 含む。図5に示したように、カメラサブシステム52はPap単分子層試料Sを 含有するスライドから一連の3つのデジタル画像I1,I2,I3をつくる。こ の単分子層試料はよく知られたPapプロトコルに従って調製された子宮頚部細 胞および関連細胞学的成分からなる。可視スペクトル範囲で観察するために、こ れらの細胞は、パパニコラウ(Papanicolaou)プロトコルに従って染色されており 、そしてデジタル画像I1,I2,I3はそれぞれ1つの狭帯域幅スペクトルバ ンドに対応する。画像I1、I2,I3のためのそれら3つの狭帯域幅スペクト ルバンドはパパニコラウ・プロトコルに従って染色され状態で子宮頚部細胞の各 種重要エレメント間のコントラストを最大にするように選択されている。本願の 趣 旨において、パイプラインプロセッサー100はそれぞれ各1つのチャンネルま たはスペクトルバンドに対応する3つの並列パイプラインを含む。これらパイプ ラインチャンネルのそれぞれは互いに独立的に作動することができるかまたはあ る特定の状態においては隣のパイプラインにデータを提供することができる。 再び図4を参照すると、パイプラインプロセッサー110は、コントロールC PU110、分割パイプライン120、特徴抽出パイプライン130、アップリ ンク転送モジュール140の他に、入力コンディショニングモジュール150、 高速レシーバーモジュール152、アナログ制御モジュール154、手直しバッ ファーモジュール155を包含する。高速レシーバーモジュール152とアナロ グ制御モジュール154はパイプラインプロセッサー100をカメラサブシステ ム52へインターフェース接続している。手直しバッファーモジュール155は コントロールプロセッサー110のためのコントロールバスに接続されている。 手直しバッファー155はパイプラインの通常の動作を変更することなくリアル タイムでパイプライン操作の結果を調べるためのフィードバックパスを提供して いる。その情報はハードウエアの故障の自動検出と診断のために有用である。 パイプラインプロセッサー110はさらにコントロールコンピュータ54と通 信するための双方向通信インターフェース156を含む。パイプラインプロセッ サー110はまた汎用直列RS232ポート158と汎用並列(すなわちプリン ター)ポート160を含む。図4に示されているように、アップリンク転送モジ ュール140は処理されたデータをパイプライン100からホストコンピュータ 56へ送るための通信インターフェース142を含む。 レシーバーモジュール152および通信モジュール142、156は非常に広 い帯域幅をもつ高速通信リンクを提供するためファイバ−オプティカルベースの リ ンクであることが好ましい。レシーバーインターフェースモジュール152はカ メラサブシステム52から出力画像を受け取るために使用される。双方向通信イ ンタフェース156はコントロールコンピュータ54から制御コマンドとステー タスリクエストを受け取るために使用される。アップリンク通信インターフェー ス142はパイプラインプロセッサー100によって発生された分割と特徴抽出 の結果をホストコンピュータ56の分類モジュールに送るために使用される。 図6を参照すると、本発明によるパイプラインプロセッサー100のためのハ ードウエア機構200が示されている。このハードウエア機構200は計算エレ メントを別のタイプの画像処理に使用するために迅速に再構成または変更するこ とを可能にする。 図6に示されているように、パイプラインプロセッサー100のためのこのハ ードウエア機構200は背面202とその背面202に差し込まれる一組のプリ ント回路カードを含む。それらのプリント回路カードにはプロセッサーおよび入 力カード204、アップリンク通信カード206、およびそれぞれ208a,2 08b,208c,208dとして示されている4枚のパイプラインモジュール カード208が含まれる。背面202に差し込まれたそれらカードの間のデータ の流れは4本の基本並列データバス203、すなわち、B−バス203a,S− バス203b,L−バス203c,F−バス203dを経由する。背面202は さらに2枚の直列に接続されたデータバス、ビデオアウト(video-out)バス20 5aとビデオイン(video-in)バス205bを持つ。背面202上のこれら並列バ ス203と直列バス205のレイアウトが図7にさらに詳細に示されている。 パイプラインモジュール208はより小型の4枚までのパイプラインモジュー ル209を受容できる”カッド(quad)”モジュールカードからなる。有利なこと に、この構成はパイプラインプロセッサー100の迅速な原型化、再構成および 変更を可能にする。図8に示されているように、カッドモジュールカード208 は、外部ジャンパーを必要とすることなしに、カード208の背面202と差し 込みモジュール209との間のデータの流れの方向を制御するための回路装置3 00を含む。この回路300はフィールドプログラマブルゲートアレイ(FPG A)301と、302a,302b,302cとして個々に図示されている1セ ットのトランシーバー302を含む。第1のトランシーバー302はカッドモジ ュールカード308をF−バス203dに接続する。第2のトランシーバー30 2bはカッドモジュールカード208をS−バス203bに接続する。第3のト ランシーバー303cはカード208をL−バス203cに接続する。制御信号 に応答して、FPGA301はデータフローの方向を背面202と差し込みモジ ュール209に入る方向またはそれから出る方向に適切にセットする。 図7を参照すると、背面202上の6本のデータバス203a乃至203dと 205a乃至205bが情報をコントロールプロセッサーカード204、アップ リンク通信カード206、カッドモジュールカード208へまたはそれらから分 配する手段を提供している。背面202上で、6本のバスは一対の96−ピンD INコネクターに26−ビット信号バスとして配置されている。さらに、背面2 02は電力および小セットのグローバル信号をカード204乃至208のすべて に分配する。また、背面202はリセットの間4−ビットスロット確認の使用を 通じて各カードスロットを確認するための機構を含む。 ビデオアウト・バス205aとビデオイン・バス205bはそれぞれ26−ビ ット信号バスからなる。これらビデオバス205a、205bは背面202に差 し込まれたカード、たとえば、図7に示したごとく、コントロールプロセッ サーカード204とカッドモジュールカードの1つ208aを介して直列に接続 されている。この直列接続スキームは、コントロールプロセッサー204とカッ ドモジュールカード208とが直列リンクの破断を避けるため背面202内で相 互に隣り合って配置されるべきことを意味している。 図7を参照すると、B−バス203a、S−バス203b,L−バス203c およびF−バス203dが背面202のためのデータバスを提供している。これ ら4つのデータバス203a乃至203dは背面202に差し込まれた204乃 至208のいずれのカードもカードへまたはカードからのデータ伝送ためバスに 接続されるよう並列に接続されている。 レベリング画像バスすなわちL−バス203cは入力レベリングまたはコンデ ィショニング回路150(図4)によって駆動される。このL−バス203cは 背面202内の各モジュールのために正規化された画像データを与える。L−バ ス203cは分割データバスすなわちS−バス203bと同期化されている。 分割バス203bはカッドカード209上に存在する分割パイプライン120 (図4)内の分割出力段121によって駆動される。分割出力モジュール121 は分割パイプライン120内で発生された分割マップならびに2つのラベルマッ プ(1つは細胞質のもの、他方は核のもの)の1セットのバイナリー画像を提供 する。 特徴バスすなわちF−バス203dは各画像フレームの間に入力レベリングモ ジュールから出た、スムージングされた画像情報を伝送する。この時間の間、フ レーム同期化とライン同期化のバスラインは分割バス203bと同調している。 各画像フレームの終わりに、特徴バス203dが特徴抽出パイプライン130内 の各特徴モジュールによって使用されそして特徴抽出パイプライン130は特徴 情報をアップリンク通信モジュール140へ送る。 上記データバス203a乃至203dの動作を図9のタイミングダイアグラム を参照してさらに説明する。CCDs 62から画像を伝送するためのタイミン グがタイミング信号TCCDによって示されている。画像すなわちI1,I2または I3(図5)を伝送する時間はt1である。最初の画像が画像処理セクション( すなわち高速レシーバーモジュール152)へ送られた後、入力レベリングモジ ュール150が画像I1(I2、I3)をレベリングするための計算を実行しそ して分割パイプライン120のためのビデオアウトバス205aにレベル化され た画像を出力する。入力レベリングモジュールがその操作を完了すまでに要する 時間はt2であり、この時間はt1よりも短い。この差がデータバス203a乃 至203dになんらの伝送も必要としないデータ流のすき間、すなわち時間t3 で示した窓を与える。(この間隔t3は時間t2のおよそ15%である)。分割 バス203bは分割結果を伝送しそして特徴バス203dはスムージングされた 画像結果を伝送する。分割パイプライン120の作業が完了すると、分割結果は レベリングされ、スムージングされた画像と共にそれぞれS−バス203bとL −バス203cに与えられる。タイミング窓t3の間にはいかなるデータも伝送 されないので、特徴抽出パイプライン130からの結果は通常のデータの流れに 干渉することなく次の作業工程まで送られる。その量はF−バス203d上の特 徴の倍数に達する。 26−ビットバス203a乃至203dおよび205a乃至205bのそれぞ れは24のデータビットと2つの同期ビットを有する。2つの同期ビットのうち の一方は画像フレームのためのものそして他方は画像ラインのものである。背面 コントロールバスB−バス203aの場合、フレーム同期信号はデータストロー ブ信号として使用されそしてライン同期信号はデータ方向信号、すなわち、読出 し/非書取り信号として使用される。ビデオフィードバックモードにおいては、 背面コントロールバスであるB−バス203aは分割パイプライン120の任意 の段階の出力を監視するため、その分割パイプラインの作業を中断することなく 使用することができる。 パイプラインコントロールCPU110と入力コンディショニング/レベリン グモジュール150は都合上同じプリント回路カード204に保持されている。 コントロールCPU110はカメラサブシステム52、分割パイプライン120 、特徴抽出パイプライン130およびアップリンク転送モジュール140の制御 を担当する。コントロールCPU110はプロセッサー、ボートメモリー、命令 およびデータメモリー、コントロールポート、背面インターフェース、監視器リ セット(不図示)を含む。コントロールCPU110はコントロールコンピュー タ54から双方向インターフェース156(図4)を介して命令(例えば、コマ ンドおよび初期化データ)を受け取りそしてステータス情報を返す。始動立上が りに続いてコントロールCPU110はパイプラインプロセッサー100の各種 エレメントを走査し、初期化し、テストしそしてステータス情報をコントロール コンピュータ54に返す。始動が良好に完了した後においてのみ、コントロール コンピュータ54はパイプラインプロセッサー100にカメラ52による画像捕 捉を開始するよう命令する。 コントロールCPU110は高集積RISCベースマイクロコントローラを使 用するのが好ましく、各種のオン・ボードサポートファンクション、たとえば、 ROMとDRAMのための機能、直列ポート、並列プリンターポートおよび1組 の周辺ストローブなどを含む。このコントロールCPUのために適当なデバイス はAdvanced Micro Designs,Inc.,Sunnyvale,Californiaによって製造されて いるAMD 29200 RISC マイクロコントローラである。 コントロールコンピュータ54へのファイバーオプティカル双方向インターフェ ース156、カメラサブシステム52のためのアナログコントロールインターフ ェース154、画像捕捉(CCD)コントロールおよびレベリング回路および背 面202のためのコントロールバスインターフェースは好ましくは1つのフィー ルド・プログラマブル・ゲート・アレイ(Field Programmable Gate Array)(F PGA)に構成される。このFPGAさらにシステム50内の別のFPGAを制 御する。監視回路は単一チップとして具体化される。FPGAと監視回路の構成 は当技術分野の技術者の知識の範囲内である。 コントロールCPU110は、好ましくは、ボートメモリーの制御器(図示せ ず)、直列ポート158および並列ポート160を集積する。さらに、コントロ ールCPU110はチップ外周辺機器のための6つのストローブ信号をデコード する。好ましい実施例においては、コントロールCPU110はボートメモリー として8−ビットワイドROM(Read Only Memory)を使用しそして直接このメ モリーを制御することができるように構成される。命令およびデータメモリーの ためには単一SIMM(Single In-line Memory Module)またはデュアルバンクS IMMが使用される。直列ポート158は9−ピンPC直列ポート(付加的直列 制御ラインがオン・チップI/Oラインに接続されている)と適合しうるピンで ある。並列ポート160のためのコントロールラインはPC適合性25−ピン並 列ポートを駆動するため双方向ラッチ(不図示)に接続されている。さらにいく つかの付加的制御ラインをオン・チップI/Oラインによって取扱うことができ る。このコントロールポートは2つのデュアルコントロールチャンネルを 駆動する。これらチャンネルのそれぞれはカメラサブシステム52のごときアナ ログ機器にデータを送るためにインターフェース154(図4)を介して直列的 に使用することができる。 つぎに図10を参照して、入力コンディショニングモジュール150をさらに 詳細に示す。この入力コンディショニングモジュール150は高速レシーバーモ ジュール152と分割パイプライン120との間に接続されている。入力コンデ ィショニング回路150は最初にカメラサブシステム52から3つの素材画像I 1、I2、I3の一組を受け取る。高速操作を保証するために、カメラデータは レシーバーモジュール152(図4)内のファイバ−オプティカルデータリンク を越えて転送される。このことは自動システム50の周囲環境によって発生され る電子的ノイズから比較的免除されるという付加的利点がある。入力コンディシ ョニングモジュール150の主たる機能は、3つの画像I1、I2、I3の組を 、それら画像が分割パイプライン120へ送られる前に、コンディショニングす ることである。コンディショニングとは、視野を横切るイルミネーションレベル の局所的バラツキおよびイルミネーション濃度のバラツキに対して画像I1,I 2、I3を修正することである。 入力モジュール152は入力バッファー170、レベリングパイプラインファ ンクション171、バックグラウンドレベルバッファー172、バックグランド レベル検知器173および焦点計算器174を含む。レベリングファンクション パイプライン171の出力は分割パイプライン170の入力に接続されている。 また、レベリングパイプライン171の出力は遅延バッファー175およびスム ージングフアンクションフィルター176を介してF−バス203dに接続され ている。さらにまた、レベリングパイプライン171の出力は2つの遅延バッ ファー175および177を介してレベリングバス203cにも接続されている 。 1組の3つの画像I1、I2、I3のそれぞれは入力データバッファー170 に保存され、レベリングパイプラインファンクション171およびシステム50 によって要求される他の計算作業により処理できる状態になっている。 第2の組のファイバ−オプティカルリンクはアナログインターフェース154 を介してカメラサブシステム52から画像情報を受信するために使用される。各 画像I1、I2、I3が受信されそして保存されている間に、ヒストグラム計算 器173がバックグラウンド情報を計算しそして焦点計算器174がレベル情報 を計算する。バックグラウンドレベリングバッファー172が3つの画像I1, I2、I3のそれぞれに対するバックグラウド補正値を保存する。一度計算され てしまうと、バックグラウンド補正データは変更されずそして入力コンディショ ニングモジュール150に入る新しい画像のそれぞれに対して繰り返し呼び出さ れる。コントロールCPU110は焦点情報をコントロールコンピュータ54に 伝達する。入力バッファー170に各画像I1、I2、I3が保存された後、そ れら画像はバックグラウンドバッファー172に保存されたバックグラウンドレ ベル値と共にレベリング(すなわち正規化)パイプラインファンクション171 へ送られる。このレベリングパイプラインファンクション171は細胞質バイナ リーマップおよび核バイナリーマップを導き出すために画像I1、I2、I3を レベリングする。 バックグラウンドイルミネーション(フラッシュ)レベル検知器173は各画 像I1、I2、I3の強度のピークを探して測定するためヒストグラム技術を使 用する。固有バックグラウンドはピクセルパイプライン内で容易に修正できるが 、カメラサブシステム52内のストロボフラッシュのイルミネーションレベルの バ ラツキは吟味しそしてレベリングされた画像から最大ダイナミック範囲が導き出 せるように修正する必要がある。バックグラウンドレベル情報を使用すると、画 像はストロボフラッシュレベル強度の変動に対して最適な補正ができる。ヒスト グラムピーク検出インターフェースは各画像フレームおよび各画像チャンネルに ついて最も頻度の高いピクセル入力値をキャッチする。この情報が入力画像をレ べル化(正規化)するために使用される。さらに、この情報はストロボフラッシ ュランプのフラッシュ強度を制御し安定化するためにアナログコントロールライ ンを介してフィードバック通路内で使用される。 焦点計算器174は最適焦点位置を計算するために使用される。最適焦点位置 は画像処理ルーチンで一般的に必要とされるものではないが、焦点位置がまだ未 知である場合、その焦点位置は試料分析の開始段階で有用なものとなる。すなわ ち、この初期の段階の間、入力コンディショニングモジュール150は素材画像 I1、I2、I3を受け取り、それら画像をレベリングし、次にいわゆる焦点ナ ンバーを(画像鮮明度のLaplacian測定に基づいて)計算する作業を実行する。 この焦点正確度の測定結果はコントロールコンピュータ54に戻され、これによ り最適焦点位置が移動と測定の正規アルゴリズムの中で見つけられる。 レベリングパイプラインファンクション171は3つの画像チャンネルのそれ ぞれについてシングルピクセルを受け取りそしてそれらにレベリング作業を行う パイプライン化計算システムを含む。第1ステージにおいて、レベリングパイプ ライン171は素材画像とバックグラウンド補正データを使用して画像システム 50に関連した固有不均質性に対して画像を補正する。これは素材画像ピクセル を適当なバックグラウンド画像ピクセルで割ることによってなされ、したがって シングルピクセルパイプライン構築技術で実現できる。それは論理またはゲート レベルでFPGAを(割算のためのルックアップテーブルと組み合わせて)使用 して実現されそしてプロセッサー100の複数の微細パイプラインの最初のパイ プラインを含む。 レベリングパイプライン171からのレベリングされた画像すなわち細胞質と 核のバイナリーマップは次に分割パイプライン120に送られる。さらに、フレ ーム同期信号とライン同期信号が分割パイプライン120へ送られる。これら同 期信号は特殊な取扱いのための画像I1、I2、I3のエッジの検出を簡単化す る。 分割パイプライン120の最初の段階は核検出(NetCalc)ファンクションであ る。このステージ122(図4)は各ピクセルが核領域に関するものであるか細 胞質に関するものであるかを判定するため中性ネットワークをベースとした手法 を使用する。中性ネットワークはメモリーに保存され、ピクセル濃度値からなる アドレスを符号解読することによってアクセスされるルックアップテーブルとし て実現される。この構成により中性ネットワーク(またはこのタイプの判定のた めのスキーム)を必要な時に迅速に更新、変更することができる。また、画像の 品質および性質の予備測定に基づく核検出ファンクションのリアルタイムの調整 が可能となる。中性ネットワークのこの構成は同一出願人の名前で1996年9 月18日に出願された係属中の出願番号CA96/00619の明細書に記載されている 。 分割パイプライン120の次のステージはSobelファンクションと細胞質閾値 ファンクシヨンを含む。Sobelファンクションは灰色スケール画像のエッジを検 出するための公知アルゴリズム技術を含む。Sobelファンクションは分割に後続 する精製を導くために分割パイプライン120によって必要とされる。効率化の 目的で、このSobelファンクションはピクセルの3x3ブロックを処理する形で 実施される。細胞質検出ファンクションは、予備段階において、積分光学濃度に 基づいてバックグランド細胞破片から細胞質領域を識別するため閾値ルーチンを 使用する。 レベリングパイプライン171からのレベリングされた画像は、また、遅延バ ッファー175を通る。この遅延バッファー175はレベリングされた画像を、 特徴抽出パイプライン130が処理を開始しそして各種のパイプライン作業によ って発生された画像のすべてが同時に存在するようになるまで保持すべく遅延さ せる。スムージングファンクションフィルター176はレベリングされた画像が 特徴バス203dへ出力される前に、それらの画像をスムージングする。スムー ジングファンクシヨンはワイドパイプラインで3x3ピクセルのブロックを必要 とする標準画像スムージング操作を使用する。スムージング操作は隣り合うピク セルに2つの異なるウエイトをかけて平均することをベースとする。図10に示 したように、いま1つの遅延177がレベリングされた画像に、それらがレベリ ングバス203cに出力される前に、かけられる。この通路に沿った全遅延時間 はL−バス203cおよびF−バス203dに現れる画像が分割パイプライン1 20の出力と同期されるように設定される。 入力コンディショニングモジュール150の作業の結果はビデオアウト バス 205aに出力される予備的核位置および予備的細胞質位置のバイナリー画像の 出力であり、これと一緒に特徴データバス203dにSobel操作のスムージング 結果が出力される。これら3つのデータストリームはカッドモジュールカード2 08上のモジュールで実施される分割パイプラインの次の工程で受け取られる。 再び図6を見ると、カッドモジュールカード208は分割作業と特徴抽出作業 を実行するため4つまでのパイプラインボード209を保有するよう設計されて いる。カッドモジュールカード208はライン駆動機能、特徴バスとコントロー ルデータバスの時間倍増および電力分配を提供するようにつくられている。カス トム背面に関し前記したように、それは4本の並列バス203a乃至203dお よび2本直列バス205a乃至205bからなる。これらのバスはバストランシ ーバーによって駆動されそして必要な論理は小型FPGAで実現される。これら の構成は当業者の通常の知識の範囲である。 カッドモジュールカード208は画像処理システムの汎用設計の中枢をなす。 カッドモジュールカード208は適当なハードウエア(すなわちFPGA)で分 割作業および特徴抽出作業を行う各種のモジュールを配置することを可能にする 。これによって構成エレメントの動作に融通性が与えられ、引き続く分類アルゴ リズムによって要求されるような分割結果の正確度の向上あるいは付加的な特徴 の追加を図ることができる。 フィルター122のそれぞれは一般にレベリングおよび入力コンディショニン グの準備が上記のようにして実施された後でフィルターに供給される(8ビット また1ビットの)3x3ピクセルのブロックを処理する。 分割パイプライン120での作業の順序は全体的ノズル削減作業、それに続く 得られた細胞質領域のラベル付け、その次に、別の全体的ノイズ削減作業とそれ に続く核領域のラベル付けを含み、そして最終的ノイズ削減が行われた後その結 果がS−バス203bに供給される。 図11を参照すると、分割パイプライン120のためのフィルター段122を さらに詳細に示す。理解されるように、フィルター段122はいくつかの種類の ソフトウエアまたは1セットの汎用加算器を組み込んだマイクロプロセッサーを 含むものではない。そのようなプロセッサーを含む構成は粗粒子状パイプライン アプローチであり、このタイプの計算構築技術の力を適切に発揮させることはで きない。本発明によるパイプラインプロセッサー100では、そのようなもので はなく、微粒子状パイプラインアプローチを採用する。したがって各フイルター ユニット122は多数の要素となる論理エレメントを含み、それらエレメントは 直列パイプラインの形に配列されそしてそれらの機能を迅速に遂行し、このよう にしてライン内で待機している次のデータブロックを高速で通過させる。 図11に示すように、フィルター段122はフィルターパイプラインファンク ションモジュール180を含む。フィルターパイプラインモジュール180はピ クセルストリームの入力181および出力182を有する。また、ピクセルスト リームは列遅延バッファー184を介して入力183に、そしていま1つの列遅 延バッファー186を介して別の入力185に接続されている。フィルター段1 22はマスクストリーム入力188、フレーム同期化入力189およびライン同 期化入力190を包含する。フレーム同期化入力は遅延バッファー192を介し て別の入力191に与えられそしてライン同期化入力190は遅延バッファー1 94を介して別の入力193に与えられる。 作動時には、入力ピクセルストリーム181が直接的にフィルターパイプライ ンファンクション180に供給される。パイプライン180が作動開始するまで (3x3処理エレメントに相当する)には、フル画像2列プラス三番目の列の3 ピクセル分だけの待ち時間がある。ピクセルストリーム181は一方の列バッフ ァー184によって二番目のピクセルブロック列が満杯になるまで遅延されそし てそのピクセルストリームがさらに最終的3x3ブロック列が満杯になるまで次 の列バッファー186で遅延される。しかしながら、パイプラインのためのこの 全イン−アウト遅延時間が(待ち時間とは異なり)わずか1列と3クロックに 過ぎないことが理解されよう。メモリーに保存されたマスクストリーム188が 論理ファンクションのために利用できる。フレーム同期信号189およびライン 同期信号190は遅延された入力191、193と共にフィルターパイプライン ファンクション180への入力を構成する。 パイプライン内のノイズ削減エレメントは特定化された侵食作業と拡張作業と の組み合わせを含む。これらの作業の基本的結果は3x3ブロック内の中央ピク セルの状態が隣の1つまたはそれ以上のピクセルの状態に基づいて変更されるこ とである。侵食の場合には、中央のピクセルは隣が正しいという条件で”オフ” にされる。拡張の場合には、そのピクセルは”オン”にされる。 拡張ファンクションは不規則性を修正するためにバイナリーピクセルマップに 対して働く。3x3マトリックスが調べられ、オン(”正常(order)”)である 隣りのピクセルの数を基準にして中央のピクセルをオンにすべきか否かが判定さ れる。そのピクセルがすでにオンである場合には、オンのままにする。 侵食ファンクションはピクセルのブロックの境界を元の寸法に戻すことによる 拡張ファンクションの働きとは逆である。すなわち、3x3マトリックスが調べ られ、オン(”正常(order)”)である隣りのピクセルの数を基準にして中央の ピクセルをオフにすべきか否かが判定される。そのピクセルがすでにオフである 場合にはオフのままにする。 拡張スペシャルファンクションは不規則性を修正するためにソースバイナリー マップおよびエッジバイナリーマップに対して働く。3x3マトリックスが調べ られて中央のピクセルがオンにされるべきか否かが判定される。そのピクセルが すでにオンである場合には、オンのままにする。エッジマップの中央ピクセルは ソースマップの中央ピクセルの修正のために代替ルールの使用を可能にする。 拡張ノットジョイン(not join)ファンクションは隣接対象を仲間に入れるこ となく不規則性を修正するためにバイナリーマップに対して働く。3x3入力マ トリックスおよび4つの予め計算された結果のピクセルが調べられて中央のピク セルの結果がオンにされるべきか否かが判定される。そのピクセルがすでにオン である場合は、オンのままにする。 拡張スペシャルノットジョイン(not join)ファンクションはマスクビットを 加えて上記拡張ノットジョインファンクションと同じように働く。マスクマップ の中央ピクセルはソースマップの中央ピクセルの修正のために代替ルールの採用 を可能にする。 拡張ラベルノットジヨイン(not join)ファンクションは隣接対象を仲間に入 れることなく不規則性を修正するためソースラベルマップ、結果として生ずるラ ベルマップおよびエッジマップに対して働く。ソースおよび結果として生ずるマ ップの3x3マトリックスが調べられて中央ピクセルが、オンである隣りのピク セルに基づいて、オンにすべきか否かが判定される。そのピクセルがすでにゼロ でないかまたはエッジマップがゼロの場合には、その値は変更されない。マスク マップの中央ピクセルはソースマップの中央ピクセルの修正のために代替ルール の採用を可能にする。以上に加えて、分割パイプライン120内のノイズ削減ス キームの一部として下記の作業がハードウエアで実行される: サブアド(Subadd)2モジュール − 入カビットのトータルを0、1または 2およびそれ以上として戻す。 サブアド3モジュール − 入カビットのトータルを0、1、2または3およ びそれ以上として戻す。 サブアド4モジュール − 入カビットのトータルを0、1、2、3または4 として戻す。 サブサム(Subsum)3モジュール − 2つの入力数の合計を0、1、2また は3およびそれ以上として戻す。 サブサム6モジュール − 2つの入力数の合計を0、1、2、3、4、5ま たは6として戻す。 サブジョインモジュール − 1エッジおよび1コーナーのsub-sumを合わせ て戻す。 ジョインモジュール − 拡張作業が2つの領域を合わせる場合、trueに戻す 。 オーダー1モジュール − 1つまたはそれ以上の最近隣のものがオンの場合 、真(true)に戻す。 オーダー2モジュール − 2つまたはそれ以上の最近隣のものがオンの場合 、真(true)に戻す。 オーダー3モジュール − 3つまたはそれ以上の最近隣のものがオンの場合 、真(true)に戻す。 オーダー4モジュール − 4つまたはそれ以上の最近隣のものがオンの場合 、真(true)に戻す。 オーダー5モジュール − 5つまたはそれ以上の最近隣のものがオンの場合 、真(true)に戻す。 オーダー6モジュール − 6つまたはそれ以上の最近隣のものがオンの場合 、真(true)に戻す。 オーダー7モジュール − 7つまたはそれ以上の最近隣のものがオンの場合 、真(true)に戻す。 オーダー8モジュール − 8つの最近隣のものがオンの場合、真(true)に戻 す。 ノイズ削減完了後、パイプラインプロセッサー100は画像I内に細胞質物質 または核物質を検出するための工程に進む。”検出”ファンクションも分割パイ プラーイン120内で実行されそして核検出作業と細胞質検出作業の両方を含む こともできるし、核検出作業のみを含むこともできる。分割パイプライン120 におけるこのモジュールは入力コンディショニングモジュール150(前記した もの)からビデオインバス205bを介してSobel、NetCalおよびBitCytのビッ トストリームを受け取る。これらの信号は並列にそして微細パイプライン方式で 処理され、その結果として未濾過Nuc、BinNuc、NucPlusおよびBinCytのビットス トリームが生じる。分割パイプライン120からのこれらの結果は特徴抽出パイ プライン130内の特徴抽出モジュールの各種段階で特徴セットを計算するため に使用される。それらの特徴セットは引き続く画像分類に使用される。ラベルを つけられるべきこれらの信号およびバイナリー細胞質画像はビデオアウト バス 205aを通ってラベル付けモジュールに送られる。核検出ファンクションのみ が実行される場合は、未濾過Nuc、BinNuc、NucPlusおよびBinCytの中間形はビデ オアウト バス205aの別の組のピンを使用して細胞質検出モジュールへ送ら れる。 ラベル付けの主要な作業は画像の分割された領域(核物質または細胞質物質) に独特の数を与え、分類が完了された時に後からそれが同定できるようにするこ とである。この作業は特徴抽出が開始される前に行われる。したがって、特徴抽 出はラベル付けされた分割対象に対して実施することができる。いずれかの単一 の細胞質領域の中に存在する全く異質の核の位置は、細胞学的物質の分類を試み る時に、それ自体が1つの重要な特徴となりうるものである。このファンクショ ンはフィールド・プログラマブル・ゲート・アレイ(Field Programmable Gate Aray)のゲートレベルで実行することもできるし、あるいはまた用途特定集積回 路(ASIC)を使用することもできる。 画像の中の核物質と細胞質物質との両者の分割およびそれらの適当なラベル付 けが完了すると、処理は特徴抽出パイプライン130へ進む。このパイプライン 130の主要なファンクションは画像Iの中のそれぞれの分割された対象の分類 に使用されるべき数学的根拠または論理的根拠に基づく特徴を抽出することであ る。特徴抽出パイプライン130は図4にそれぞれ130a,....130m として個々に示されている多数の特徴抽出モジュール132を含む。 図12に、特徴抽出モジュール132をさらに詳細に示す。この特徴抽出モジ ュール132は1つの特徴計算器210およびそれぞれが212a、212b、 212c、212dで示されている複数のアキュムレータアレイ212を含む。 これらアキュムレータアレイ212の1つのブロックが各1つの特徴に割り当て られそしてそれぞれのアキュムレータブロック内の各1つのアキュムレータが1 つのラベルに割り当てられる。各ブロックは全部で21000個以上のアキュム レータを保有することが予想される。 ここに記載した用途での画像処理においては、抽出されうる特徴は次の5つの カテゴリーに入る:(1)形態学的特徴;(2)組織的特徴;(3)色学的特徴 、(4)光学濃度計的特徴、(5)前後関係から見た特徴。 形態学的特徴とは分割された対象の全体的な形および大きさをいう。組織的特 徴とは分割された対象の明暗レベルの分布および相互関係を指す。色学的特徴と は分割された対象のスペクトル特性をいう。光学濃度計的特徴とは分割された対 象内の光強度に関係する。前後関係から見た特徴とはそれぞれの分割された対象 間の物理的関係にかかわる特徴である。 再び図4を見ると、アップリンク転送モジュール140はアップリンクバッフ ァー141およびアップリンク通信インターフェース142を含む。アップリン クバッファー141はレベリングされた画像バス203cおよび分割バス203 bからの画像データを蓄える。各画像はバッファー141のメモリーの別個のバ ンクへ次のように分けて書き込まれる:3つのすべてのレベリングされた画像、 細胞質ラベル、核ラベルおよびバイナリー画像。画像がいったん保存されてしま えば、それら画像バンクは必要により転送されうる。 各画像フレームが終わると特徴情報がフレーム同期信号189およびライン同 期信号190に基づき特徴バス203aから入力される。このデータはバッファ ーメモリー141の画像と同じブロックに書き込まれる。特徴メモリー開始列と 列の数が特徴保存の終了を判定するために使用される。すべての特徴カードから のすべての特徴データが保存されてしまうと、このデータはファイバー−オプテ ィカル通信インターフェース142を介してホストコンピュータ56へ自動的に 送られる。その画像データはホストコンピュータ56によって要求された時に転 送される。 本発明はその精神および本質的特徴から逸脱することなく多くの別の形態で具 体化することができる。したがって、上記の実施例は非限定的な説明のための例 と考えられるべきであり、本発明の範囲は上記の説明によってではなく、添付の 請求の範囲によって示される。したがって、請求の範囲の意味および等価の範囲 に入るすべての変更は本発明の範囲に包含されるものと理解されるべきである。DETAILED DESCRIPTION OF THE INVENTION A pipeline processor for medical and biological image analysis Field of the invention The present invention relates to processor construction techniques, and more particularly to pipeline processors for medical and biological image analysis. Background of the Invention In the fields of medicine and biology, various images are visually inspected to assist evaluation and diagnosis. For example, radiographs can be used to examine bone and soft tissue. Microscopic images of cells can also be used to identify disease and determine the course of treatment. When these images are further converted to digital representation, the computer can be used to improve image clarity, identify key components, or even perform automatic inspection. These images are very complex, tend to contain a lot of information, and the need for a computer is high. To enable the development of commercially available medical or biological image analysis systems, designers are addressing the problem of performing many computational tasks in the shortest possible time. This requirement led to the use of computer pipeline processing. FIG. 1 shows basic processing steps based on conventional classical image analysis. In conventional image analysis, the field of view 10 is digitized in a first step 1 into a series of spatially distinct elements or pixels 12 (shown individually in FIG. 1 as 12a and 12b). Each pixel 12 contains a digital representation of the integrated light intensity in a spatially distinct area of the field of view 10. After the digitizing step, the image 12 is segmented in processing step 2 in order to separate important areas of the image, ie the objects of interest 14a, 14b, from the background. This division is often a difficult and computationally intensive operation. Next, in step 3, each distinct object 14 in the split phase is uniquely labeled as object "y" (16a) and object "x" (16b). Thereby, the identity of the object 16 can be recovered. In the next step 4, a series of mathematical measurements are made for each subject 16. Each object contains its visual appearance as a series of numerical quantities. This step is known in the art as feature extraction. The final task performed in step 5 is to classify the extracted features 18 using any one of a variety of known hierarchy classification algorithms to classify or identify each segment. As will be apparent to those of ordinary skill in the art, in prior art image analysis, the task of converting a field image into a number representation as a plurality of objects (18a and 18b in FIG. 1) having respective characteristics. Usually requires a great deal of computational effort. Fortunately, the use of high-speed pipeline-building techniques for the entire analysis engine, thanks to the discrete separation of the digital images produced by the image analysis method and the wise design of the sequence of operations The way led. In pipeline processing, computations are divided into a number of computational tasks, similar to an assembly line in computer work. In image processing, if a series of complex image processing operations is subdivided into a smaller series of multiple operations that can be performed serially, and also the material data for processing can be subdivided, pipes Line techniques can be used. In the area of image analysis, the material data consists of the digitized image 12 (FIG. 1). For pipelining, each operation must be performed in series, one small portion of the image at a time, and the image portion must be available in addition to the information available prior to reaching the operation. Cannot request any additional information. In a practical system, it is possible to use any number of sets of delay elements to allow any one pipeline operation to access further information. Generally speaking, pipeline processors can provide speed-ups that are proportional to the length of the pipeline. In pipeline processing, two approaches have been proposed. That is, there are two methods, the coarse particle pipeline processing 20 and the fine particle pipeline processing 30 shown in FIG. In the case of the coarse particle pipeline processing, the image processing operation is divided into relatively large operation blocks 22a and 22b. Each block 22 includes a complex series of operations. Coarse particle methods use relatively high-level computational mechanisms to successfully perform computational tasks. Each high-level computing mechanism 22 can pipeline itself if the work at that level is suitable for pipeline processing. In the case of fine particle pipeline processing, the computational work is divided into a basic series of logical work blocks: AND 32a, OR 32b, NAND 32c, NOR 32d, NOT 32e, XOR 32f. Fine particle pipeline processing techniques are generally the most difficult to design, but give theoretically maximum working speeds. There are attempts in the art to perform calculations based on the speed and power of computer pipeline operations as applied to cytological image analysis. In published PCT Patent Application No. WO 93/16438, Johnston et al. Discloses an apparatus and method for processing data sequences at high speed. The Johnston system includes a massively parallel configuration with distributed memory. The result of each processing step is transferred to the next processing step by a complex memory distribution scheme. In addition, each individual, or atomic operation that is not further divided, must process the entire frame before results for the next operation are available. The overall processing time is of the order of the processing time of one image frame multiplied by the number of each atomic operation. That is, the total processing time is obtained by dividing the number of image storage elements and processing elements by the image scanning time. To reduce hardware requirements, it is necessary to use fast logic and memory. Another problem with this technique is the interpretation of the boundaries of digital images. Boundaries have special problems because objects are deleted or deformed. In fact, overlapping digitization methods eliminate this problem on a global level. Nevertheless, it is necessary for the computer to achieve the correct boundaries of the image in order to limit the work in such areas. Looking at Johnston's system, the system software will need to be edited with new constants. Otherwise, it would be necessary to supply an image size variable to each processor. In this case, those variables must be checked after each pixel operation. Pipeline processors are generally required in applications where data must be processed at a rate of about 200 million bits of digital information per second. If such information were to be processed for image analysis, the number of operations required would be well over 50 billion (50 billion) per second. Therefore, a practical pipeline processor must be able to handle such a huge amount of data. Therefore, there is a need in the medical and biological imaging arts for suitable pipeline construction techniques for image analysis. Summary of the Invention The present invention provides a technique for constructing a pipeline processor suitable for medical and biological image analysis. The pipeline processor includes a fine particle processing pipeline in which computational work is subdivided into a plurality of basic logical tasks. One feature of the pipeline processor according to the present invention is that the output of each processing step is directly connected to the input of the next processing step. Furthermore, each atomic operation requires only one column and three clock cycles from input to output. That is, the total storage of intermediate results is greatly reduced. In addition, most of the elements for storage can be in the form of data shift registers, eliminating the need for memory addressing and reducing the need for memory control. Furthermore, the required processing time is reduced to the quotient of the image scanning time divided by the number of pixels. In practice, this speed is about two-thirds of the pixel scanning speed, which allows the use of much slower, more reliable and cheaper hardware, and also allows the use of fewer elements. According to another embodiment of the present invention, the pipeline processor system uses a single frame, line synchronization scheme where the boundaries of each image can be detected by simple logical operations. These synchronization signals are pipelined to each processing step. This allows image dimensions to be determined within the limits of available storage during a hardware setup operation. The pipeline processor further features a rework buffer. This rework buffer provides a feedback path for examining the results of the pipeline work without changing the normal operation of the pipeline. This rework buffer serves for self-checking of the system and for performance monitoring. In one aspect, the invention provides a pipeline processor for image processing, the pipeline processor comprising: an input stage for receiving an image, connected to an output of the input stage. A split pipeline stage, including means for splitting an image into selected portions, a feature extraction pipeline stage connected to an output of the split pipeline stage, wherein the features are split into selected portions. Means for associating; and an output stage for outputting information related to the processing of the image and a controller for controlling the operation of these pipeline stages. In another aspect, the invention relates to an input stage for receiving an image of a biological sample, a split pipeline connected to an output of the input stage, for splitting the image into selected portions. A pipeline processor for image processing comprising a stage, a feature extraction pipeline for associating features with the selected portion, and an output stage for outputting information related to image processing, including: Hardware mechanism to perform Here, the hardware mechanism has a back surface having a plurality of slots adapted to receive cards with electronic circuits, the cards being a processor card for holding a control processor, processed by the pipeline stage. An output card for holding a memory circuit for storing the obtained information and a communication interface for transferring the information to another computer, one or more module cards, each of which has a plurality of module cards. Including means for receiving pipeline cards, each of the pipeline cards includes a module for a split stage and a feature extraction stage; said back surface for transmitting information and control signals between cards inserted into slots on its back surface. Bus means. BRIEF DESCRIPTION OF THE FIGURES Hereinafter, the present invention will be further described with reference to the accompanying drawings showing preferred embodiments of the present invention by way of example. In the accompanying drawings, FIG. 1 shows the processing steps according to the conventional classical image analysis technique; FIG. 2 shows in a block diagram two approaches for the pipeline processor construction technique; FIG. 3 shows the pipeline processor according to the invention. FIG. 4 shows a pipeline processor according to the invention as a high-speed image analysis system; FIG. 5 shows the acquisition of a spectral image by a camera subsystem for the image analysis system of FIG. 6 shows the hardware arrangement of the pipeline processor according to the present invention; FIG. 7 shows the data distribution on the back of the custom of FIG. 6; FIG. 8 shows the quad card for the hardware of FIG. 6; FIG. 10 shows the data transmission timing on the bus for the back; FIG. 10 shows the pipeline processor FIG. 11 shows a general filter stage for a split pipeline; FIG. 12 shows a general process stage of a feature extraction pipeline in a pipeline processor. Detailed Description of the Preferred Embodiment Referring to the drawings, and in particular to FIG. 3, a pipeline processor 100 according to the present invention is shown in block diagram form. The main subsystems of the pipeline processor 100 are a control processor 110, a split subsystem pipeline 120, a feature extraction pipeline subsystem 130, and an uplink transfer module 140. As described below with reference to FIG. 6, these subsystems of the pipeline processor 100 are carried by a custom back 202 and by a hardware arrangement 200 according to one embodiment of the present invention. The pipeline processor 100 forms the "front end" of the high-speed image processing system 50 as shown in FIG. The pipeline processor 100 performs image pre-processing for final classification or analysis. Processing steps include image segmentation for image conditioning and feature extraction. When these operations are completed, the conversion of the digital image into the characteristic division target is completed, and the next pattern classification and analysis can be easily performed. As described below, the pipeline processor features a general-purpose design that allows the computing elements to be quickly reorganized or changed. The high-speed image processing system 50 shown in FIG. 4 is for automatic evaluation and analysis of a Pap monolayer sample. The image processing system 50 includes a camera subsystem 52, a control computer 54, a host computer 56, and a series of peripheral devices 58. The control computer 54 performs overall control of the system 50 and includes a peripheral control interface 55 for controlling a peripheral device 58. Peripheral devices include a barcode reader 58a, a focusing system 58b, a scanner 58c, and a slide loader 58d. These peripheral devices 58 do not form a part of the present invention. It is merely described in order to see the entire image processing system 50. The focusing system and slide loader are the subject of the inventions of the currently pending applications CA 96/00476 (filed July 18, 1996) and CA 96/00475 (filed July 18, 1996), respectively. Host computer 56 includes a communication interface 57 for receiving processed data from uplink transfer module 140 in pipeline processor 100. The main function of the host computer 56 is to classify the processed data according to a classification algorithm. As shown, the control computer 54 and the host computer 56 are connected by a serial RS232 communication link 59. Control computer 54 is responsible for providing general instructions to pipeline processor 100 and image analysis system 50 (eg, cytological equipment). Here, the pipeline processor 100 is described as an image analysis system 50 for detecting precursors of cervical cancer in cytological samples prepared by standard monolayer techniques and stained according to normal laboratory procedures. However, the pipeline processor 100 according to the present invention provides a construction technique that can be conveniently and quickly reconfigured for other related medical and biological image analysis. Camera subsystem 52 includes light source 61 and charge coupled device arrays (CCDs) 62. As shown in FIG. 5, the camera subsystem 52 creates a series of three digital images I1, I2, I3 from the slide containing the Pap monolayer sample S. This monolayer sample consists of cervical cells and related cytological components prepared according to the well-known Pap protocol. For observation in the visible spectral range, these cells have been stained according to the Papanicolaou protocol, and the digital images I1, I2, I3 each correspond to one narrow bandwidth spectral band. The three narrow bandwidth spectral bands for images I1, I2 and I3 are stained according to the Papanicolaou protocol and selected to maximize contrast between the various key elements of cervical cells. For the purposes of this application, pipeline processor 100 includes three parallel pipelines, each corresponding to one channel or spectral band. Each of these pipeline channels can operate independently of one another or, in certain situations, provide data to an adjacent pipeline. Referring again to FIG. 4, the pipeline processor 110 includes an input conditioning module 150, a high-speed receiver module 152, an analog control module, in addition to the control CPU 110, the split pipeline 120, the feature extraction pipeline 130, and the uplink transfer module 140. 154, a rework buffer module 155. A high-speed receiver module 152 and an analog control module 154 interface the pipeline processor 100 to the camera subsystem 52. The rework buffer module 155 is connected to the control bus for the control processor 110. The rework buffer 155 provides a feedback path for examining the results of the pipeline operation in real time without changing the normal operation of the pipeline. The information is useful for automatic detection and diagnosis of hardware failures. The pipeline processor 110 further includes a two-way communication interface 156 for communicating with the control computer 54. The pipeline processor 110 also includes a general-purpose serial RS232 port 158 and a general-purpose parallel (ie, printer) port 160. As shown in FIG. 4, uplink transfer module 140 includes a communication interface 142 for sending processed data from pipeline 100 to host computer 56. Receiver module 152 and communication modules 142, 156 are preferably fiber-optical based links to provide a high speed communication link with very wide bandwidth. Receiver interface module 152 is used to receive output images from camera subsystem 52. The two-way communication interface 156 is used to receive control commands and status requests from the control computer 54. The uplink communication interface 142 is used to send the results of the segmentation and feature extraction generated by the pipeline processor 100 to the classification module of the host computer 56. Referring to FIG. 6, a hardware mechanism 200 for a pipeline processor 100 according to the present invention is shown. This hardware mechanism 200 allows the computing elements to be quickly reconfigured or modified for use in another type of image processing. As shown in FIG. 6, this hardware arrangement 200 for the pipeline processor 100 includes a back surface 202 and a set of printed circuit cards that plug into the back surface 202. These printed circuit cards include a processor and input card 204, an uplink communication card 206, and four pipeline module cards 208, shown as 208a, 208b, 208c, 208d, respectively. The flow of data between the cards inserted into the back 202 passes through four basic parallel data buses 203, namely a B-bus 203a, an S-bus 203b, an L-bus 203c, and an F-bus 203d. The back 202 further has two serially connected data buses, a video-out bus 205a and a video-in bus 205b. The layout of these parallel buses 203 and serial buses 205 on the back 202 is shown in more detail in FIG. The pipeline module 208 comprises a "quad" module card that can accommodate up to four smaller pipeline modules 209. Advantageously, this configuration allows for rapid prototyping, reconfiguration and modification of the pipeline processor 100. As shown in FIG. 8, the quad module card 208 is a circuit for controlling the direction of data flow between the back 202 of the card 208 and the plug-in module 209 without the need for external jumpers. The device 300 is included. The circuit 300 includes a field programmable gate array (FPGA) 301 and a set of transceivers 302, individually illustrated as 302a, 302b, 302c. The first transceiver 302 connects the quad module card 308 to the F-bus 203d. The second transceiver 302b connects the quad module card 208 to the S-bus 203b. The third transceiver 303c connects the card 208 to the L-bus 203c. In response to the control signals, the FPGA 301 appropriately sets the direction of the data flow to enter or exit the back 202 and the plug-in module 209. Referring to FIG. 7, six data buses 203a-203d and 205a-205b on the back 202 provide a means for distributing information to or from the control processor card 204, uplink communication card 206, quad module card 208. ing. On the back 202, the six buses are arranged in a pair of 96-pin DIN connectors as a 26-bit signal bus. In addition, the back side 202 distributes power and a small set of global signals to all of the cards 204-208. The back 202 also includes a mechanism for identifying each card slot through the use of 4-bit slot identification during reset. Video out bus 205a and video in bus 205b each comprise a 26-bit signal bus. These video buses 205a and 205b are connected in series via a card inserted into the rear surface 202, for example, a control processor card 204 and a quad module card 208a as shown in FIG. This serial connection scheme means that the control processor 204 and the quad module card 208 should be placed next to each other in the back 202 to avoid breaking the serial link. Referring to FIG. 7, a B-bus 203a, an S-bus 203b, an L-bus 203c and an F-bus 203d provide a data bus for the back surface 202. These four data buses 203a to 203d are connected in parallel so that any one of the cards 204 to 208 inserted into the back surface 202 is connected to the bus for data transmission to or from the card. The leveling image bus or L-bus 203c is driven by the input leveling or conditioning circuit 150 (FIG. 4). The L-bus 203c provides normalized image data for each module in the back 202. The L-bus 203c is synchronized with the divided data bus, that is, the S-bus 203b. The split bus 203b is driven by a split output stage 121 in a split pipeline 120 (FIG. 4) residing on the quad card 209. The split output module 121 provides a split map generated in the split pipeline 120 as well as a set of binary images of two label maps (one cytoplasmic and the other nuclear). The feature bus or F-bus 203d carries the smoothed image information from the input leveling module during each image frame. During this time, the frame synchronization and line synchronization bus lines are synchronized with the split bus 203b. At the end of each image frame, feature bus 203 d is used by each feature module in feature extraction pipeline 130 and feature extraction pipeline 130 sends feature information to uplink communication module 140. The operation of the data buses 203a to 203d will be further described with reference to the timing diagram of FIG. The timing for transmitting an image from the CCDs 62 is a timing signal T. CCD Indicated by The time to transmit the image, ie I1, I2 or I3 (FIG. 5), is t1. After the first image is sent to the image processing section (ie, the high-speed receiver module 152), the input leveling module 150 performs calculations to level the image I1 (I2, I3) and the video for the split pipeline 120 The leveled image is output to the out bus 205a. The time required for the input leveling module to complete its operation is t2, which is shorter than t1. This difference provides the data buses 203a-203d with a gap in the data stream that does not require any transmission, ie, the window shown at time t3. (This interval t3 is approximately 15% of the time t2). Split bus 203b transmits the split result and feature bus 203d transmits the smoothed image result. When the operation of the division pipeline 120 is completed, the division results are provided to the S-bus 203b and the L-bus 203c together with the leveled and smoothed images, respectively. Since no data is transmitted during the timing window t3, the result from the feature extraction pipeline 130 is sent to the next operation without interfering with the normal data flow. Its amount reaches a multiple of the feature on the F-bus 203d. Each of the 26-bit buses 203a-203d and 205a-205b has 24 data bits and two synchronization bits. One of the two synchronization bits is for an image frame and the other is for an image line. In the case of the back control bus B-bus 203a, the frame synchronization signal is used as a data strobe signal and the line synchronization signal is used as a data direction signal, that is, a read / unwrite signal. In the video feedback mode, the back control bus B-bus 203a monitors the output of any stage of the split pipeline 120, and can be used without interrupting the operation of the split pipeline. The pipeline control CPU 110 and the input conditioning / leveling module 150 are conveniently stored on the same printed circuit card 204. The control CPU 110 controls the camera subsystem 52, the divided pipeline 120, the feature extraction pipeline 130, and the uplink transfer module 140. The control CPU 110 includes a processor, port memory, instruction and data memory, control ports, rear interface, and monitor reset (not shown). Control CPU 110 receives instructions (eg, commands and initialization data) from control computer 54 via bidirectional interface 156 (FIG. 4) and returns status information. Following start-up, the control CPU 110 scans, initializes, tests, and returns status information to the control computer 54 for various elements of the pipeline processor 100. Only after a successful start-up is the control computer 54 instructing the pipeline processor 100 to begin capturing images with the camera 52. Control CPU 110 preferably uses a highly integrated RISC-based microcontroller and includes various on-board support functions, such as functions for ROM and DRAM, serial ports, parallel printer ports, and a set of peripheral strobes. A suitable device for this control CPU is Advanced Micro Designs, Inc. AMD 29200 RISC microcontroller manufactured by Sunnyvale, California. The fiber optic bidirectional interface 156 to the control computer 54, the analog control interface 154 for the camera subsystem 52, the control bus interface for the image capture (CCD) control and leveling circuitry and the back 202 are preferably one field programmable. -Configured as a gate array (Field Programmable Gate Array) (FPGA). This FPGA further controls another FPGA in the system 50. The monitoring circuit is embodied as a single chip. The configuration of the FPGA and monitoring circuitry is within the knowledge of a person skilled in the art. The control CPU 110 preferably integrates a controller (not shown) for the boat memory, a serial port 158 and a parallel port 160. In addition, control CPU 110 decodes the six strobe signals for off-chip peripherals. In the preferred embodiment, the control CPU 110 uses an 8-bit wide ROM (Read Only Memory) as the port memory and is configured to be able to directly control this memory. A single SIMM (single in-line memory module) or a dual-bank SIMM is used for command and data memory. Serial port 158 is a pin compatible with a 9-pin PC serial port (an additional serial control line is connected to the on-chip I / O line). The control line for parallel port 160 is connected to a bidirectional latch (not shown) to drive a PC compatible 25-pin parallel port. Some additional control lines can be handled by on-chip I / O lines. This control port drives two dual control channels. Each of these channels can be used in series via interface 154 (FIG. 4) to send data to an analog device such as camera subsystem 52. Referring now to FIG. 10, the input conditioning module 150 is shown in further detail. The input conditioning module 150 is connected between the high-speed receiver module 152 and the split pipeline 120. Input conditioning circuit 150 first receives a set of three material images I1, I2, I3 from camera subsystem 52. To ensure high-speed operation, camera data is transferred over the fiber-optic data link in the receiver module 152 (FIG. 4). This has the added advantage of being relatively immune from electronic noise generated by the surroundings of the automation system 50. The primary function of the input conditioning module 150 is to condition the set of three images I1, I2, I3 before they are sent to the split pipeline 120. Conditioning refers to correcting the images I1, I2, I3 for local variations in illumination level across the field of view and variations in illumination density. The input module 152 includes an input buffer 170, a leveling pipeline function 171, a background level buffer 172, a background level detector 173, and a focus calculator 174. The output of the leveling function pipeline 171 is connected to the input of the split pipeline 170. The output of the leveling pipeline 171 is connected to the F-bus 203d via the delay buffer 175 and the smoothing function filter 176. Furthermore, the output of the leveling pipeline 171 is also connected to the leveling bus 203c via two delay buffers 175 and 177. Each of the set of three images I1, I2, I3 is stored in the input data buffer 170 and is ready for processing by the leveling pipeline function 171 and other computational tasks required by the system 50. The second set of fiber-optic links is used to receive image information from camera subsystem 52 via analog interface 154. While each image I1, I2, I3 is received and stored, a histogram calculator 173 calculates background information and a focus calculator 174 calculates level information. A background leveling buffer 172 stores the background correction values for each of the three images I1, I2, I3. Once calculated, the background correction data remains unchanged and is called repeatedly for each new image entering the input conditioning module 150. The control CPU 110 transmits the focus information to the control computer 54. After each image I 1, I 2, I 3 has been stored in the input buffer 170, they are sent to a leveling (ie, normalization) pipeline function 171 with the background level values stored in the background buffer 172. This leveling pipeline function 171 levels images I1, I2, I3 to derive a cytoplasmic binary map and a nuclear binary map. The background illumination (flash) level detector 173 uses a histogram technique to locate and measure the intensity peak of each image I1, I2, I3. While the intrinsic background can be easily corrected in the pixel pipeline, the variation in illumination levels of the strobe flash in the camera subsystem 52 needs to be examined and corrected to derive the maximum dynamic range from the leveled image. The use of background level information allows the image to be optimally corrected for variations in strobe flash level intensity. The histogram peak detection interface catches the most frequent pixel input values for each image frame and each image channel. This information is used to level (normalize) the input image. Further, this information is used in a feedback path via an analog control line to control and stabilize the flash intensity of the strobe flash lamp. Focus calculator 174 is used to calculate the optimal focus position. The optimal focus position is not generally required in image processing routines, but if the focus position is not yet known, it will be useful at the beginning of the sample analysis. That is, during this early stage, the input conditioning module 150 receives the material images I1, I2, I3, levels them, and then calculates the so-called focus number (based on the Laplacian measurement of image sharpness). Execute The result of the focus accuracy measurement is returned to the control computer 54, whereby the optimum focus position is found in the normal algorithm of movement and measurement. Leveling pipeline function 171 includes a pipelined computing system that receives a single pixel for each of the three image channels and performs leveling operations on them. In the first stage, the leveling pipeline 171 uses the material image and background correction data to correct the image for inherent heterogeneity associated with the imaging system 50. This is done by dividing the source image pixels by the appropriate background image pixels and can therefore be implemented with single pixel pipeline construction techniques. It is implemented using an FPGA (in combination with a look-up table for division) at the logic or gate level and includes the first of the multiple fine pipelines of processor 100. The leveled image from the leveling pipeline 171, the binary map of cytoplasm and nucleus, is then sent to the segmentation pipeline 120. Further, the frame synchronization signal and the line synchronization signal are sent to the divided pipeline 120. These synchronization signals simplify the detection of the edges of the images I1, I2, I3 for special handling. The first stage of the split pipeline 120 is a nucleus detection (NetCalc) function. This stage 122 (FIG. 4) uses a neutral network based approach to determine whether each pixel is nuclear or cytoplasmic. The neutral network is implemented as a look-up table stored in memory and accessed by decoding addresses consisting of pixel density values. This configuration allows the neutral network (or scheme for this type of determination) to be quickly updated and changed when needed. It also allows real-time adjustment of the nucleus detection function based on preliminary measurements of image quality and properties. This configuration of a neutral network is described in co-pending application Ser. No. CA96 / 00619, filed Sep. 18, 1996 under the name of the same applicant. The next stage in the split pipeline 120 includes the Sobel function and the cytoplasm threshold function. The Sobel function includes known algorithmic techniques for detecting the edges of a grayscale image. The Sobel function is required by the split pipeline 120 to guide the purification following the split. For efficiency purposes, this Sobel function is implemented by processing 3x3 blocks of pixels. The cytoplasm detection function uses, in a preliminary step, a threshold routine to identify cytoplasmic regions from background cell debris based on the integrated optical density. The leveled image from leveling pipeline 171 also passes through delay buffer 175. This delay buffer 175 delays the leveled image to hold until the feature extraction pipeline 130 begins processing and all of the images generated by the various pipeline operations are simultaneously present. The smoothing function filter 176 smoothes the leveled images before they are output to the feature bus 203d. The smoothing function uses a standard image smoothing operation that requires 3x3 pixel blocks in a wide pipeline. The smoothing operation is based on averaging neighboring pixels with two different weights. As shown in FIG. 10, another delay 177 is applied to the leveled images before they are output to the leveling bus 203c. The total delay along this path is set so that the images appearing on the L-bus 203c and F-bus 203d are synchronized with the output of the split pipeline 120. The result of the operation of the input conditioning module 150 is the output of a binary image of the preliminary nuclear position and the preliminary cytoplasmic position output to the video-out bus 205a, and the smoothing result of the Sobel operation is output to the feature data bus 203d. Is done. These three data streams are received in the next step of the split pipeline implemented in the modules on quad module card 208. Referring again to FIG. 6, the quad module card 208 is designed to hold up to four pipeline boards 209 to perform the partitioning and feature extraction tasks. Quad module card 208 is designed to provide line drive functionality, time doubling of feature bus and control data bus, and power distribution. It consists of four parallel buses 203a-203d and two serial buses 205a-205b, as described above for the custom back. These buses are driven by bus transceivers and the necessary logic is implemented in a small FPGA. These configurations are within the ordinary skill in the art. Quad module card 208 is central to the general design of the image processing system. The quad module card 208 makes it possible to arrange various modules for performing the dividing operation and the feature extracting operation with appropriate hardware (ie, FPGA). This provides flexibility in the operation of the components, which can improve the accuracy of the segmentation results or add additional features as required by subsequent classification algorithms. Each of the filters 122 generally processes a 3x3 pixel block (8-bit or 1-bit) that is fed to the filters after leveling and input conditioning preparation has been performed as described above. The sequence of operations in the split pipeline 120 includes a global nozzle reduction operation, followed by labeling of the resulting cytoplasmic region, followed by another global noise reduction operation followed by labeling of the nuclear region, and After the final noise reduction is performed, the result is supplied to the S-bus 203b. Referring to FIG. 11, the filter stage 122 for the split pipeline 120 is shown in more detail. As will be appreciated, the filter stage 122 does not include a microprocessor incorporating some kind of software or a set of general purpose adders. The configuration that includes such a processor is a coarse-grained pipeline approach and cannot adequately exploit the power of this type of computational construction technology. Instead, the pipeline processor 100 according to the present invention employs a particulate pipeline approach. Thus, each filter unit 122 includes a number of logical elements, which are arranged in a serial pipeline and perform their functions quickly, thus waiting for the next line in the line. Pass data blocks at high speed. As shown in FIG. 11, the filter stage 122 includes a filter pipeline function module 180. The filter pipeline module 180 has an input 181 and an output 182 for the pixel stream. Also, the pixel stream is connected to input 183 via column delay buffer 184 and to another input 185 via another column delay buffer 186. Filter stage 122 includes a mask stream input 188, a frame synchronization input 189, and a line synchronization input 190. The frame synchronization input is provided via delay buffer 192 to another input 191 and the line synchronization input 190 is provided via delay buffer 194 to another input 193. In operation, the input pixel stream 181 is provided directly to the filter pipeline function 180. Before the pipeline 180 is activated (corresponding to a 3x3 processing element), there is a latency of two full image columns plus three pixels of the third column. The pixel stream 181 is delayed by one column buffer 184 until the second pixel block column is full and the pixel stream is further delayed by the next column buffer 186 until the final 3x3 block column is full. However, it will be appreciated that this total in-out delay time for the pipeline (as opposed to latency) is only one row and three clocks. A mask stream 188 stored in memory is available for logic functions. The frame sync signal 189 and the line sync signal 190 together with the delayed inputs 191 and 193 form the input to the filter pipeline function 180. Noise reduction elements in the pipeline include a combination of specialized erosion and expansion operations. The basic result of these tasks is that the state of the central pixel in the 3x3 block is changed based on the state of one or more neighboring pixels. In the case of erosion, the center pixel is turned "off" provided that the neighbor is correct. In the case of expansion, the pixel is turned "on". Extension functions work on binary pixel maps to correct irregularities. The 3x3 matrix is examined to determine if the center pixel should be turned on based on the number of neighboring pixels that are on ("order"). If the pixel is already on, leave it on. The erosion function is the opposite of the function of the expansion function by returning the boundaries of a block of pixels to their original dimensions. That is, the 3x3 matrix is examined to determine if the center pixel should be turned off based on the number of neighboring pixels that are on ("order"). If the pixel is already off, leave it off. Extended special functions work on source binary maps and edge binary maps to correct irregularities. The 3x3 matrix is examined to determine if the center pixel should be turned on. If the pixel is already on, leave it on. The center pixel of the edge map allows the use of alternative rules for modifying the center pixel of the source map. The extended not join function works on binary maps to correct irregularities without putting neighboring objects in the way. The 3x3 input matrix and the four precomputed result pixels are examined to determine if the result of the center pixel should be turned on. If the pixel is already on, leave it on. The extended special not join function works in the same way as the above extended not join function with the addition of a mask bit. The center pixel of the mask map allows the adoption of alternative rules for modification of the center pixel of the source map. The extended label not join function works on the source label map, the resulting label map and the edge map to correct irregularities without putting neighbors in the way. The 3x3 matrix of the source and the resulting map is examined to determine whether the center pixel should be turned on based on the neighboring pixel that is on. If the pixel is not already zero or the edge map is zero, its value is not changed. The center pixel of the mask map allows the adoption of alternative rules for modification of the center pixel of the source map. In addition to the above, the following tasks are performed in hardware as part of the noise reduction scheme in the split pipeline 120: Subadd 2 module—total input bits of 0, 1, or 2 and more return. Sub-ad 3 module--Returns the total number of input bits as 0, 1, 2, or 3 and more. Sub-ad 4 module--returns the total number of input bits as 0, 1, 2, 3, or 4. Subsum 3 Module—Returns the sum of the two inputs as 0, 1, 2 or 3 and more. Subsum 6 Module—Returns the sum of the two inputs as 0, 1, 2, 3, 4, 5, or 6. Subjoin module-returns the sub-sum of one edge and one corner together. Join Module-Return to true if the extension operation matches the two regions. Order 1 Module—Return to true if one or more nearest neighbors are on. Order 2 Module—Return to true if two or more nearest neighbors are on. Order 3 Module—Return to true if three or more nearest neighbors are on. Order 4 Module—Return to true if four or more nearest neighbors are on. Order 5 Module-Returns true if 5 or more nearest neighbors are on. Order 6 Module-Returns true if 6 or more nearest neighbors are on. Order 7 Module-Returns true if seven or more nearest neighbors are on. Order 8 Module—Return to true if the 8 nearest neighbors are on. After the noise reduction is completed, the pipeline processor 100 proceeds to a process for detecting a cytoplasmic substance or a nuclear substance in the image I. The "detect" function is also performed in the split pipeline 120 and may include both a nucleus detection operation and a cytoplasm detection operation, or may include only a nucleus detection operation. This module in the split pipeline 120 receives the Sobel, NetCal and BitCyt bit streams from the input conditioning module 150 (described above) via the video in bus 205b. These signals are processed in parallel and in a fine pipelined manner, resulting in an unfiltered Nuc, BinNuc, NucPlus and BinCyt bit stream. These results from the split pipeline 120 are used to calculate a feature set at various stages of the feature extraction module in the feature extraction pipeline 130. These feature sets are used for subsequent image classification. These signals to be labeled and the binary cytoplasmic image are sent to the labeling module via video out bus 205a. If only the nucleus detection function is performed, the unfiltered Nuc, BinNuc, NucPlus and BinCyt intermediates are sent to the cytoplasmic detection module using another set of pins on the video out bus 205a. The main task of labeling is to give the segmented regions of the image (nuclear or cytoplasmic material) a unique number so that they can be identified later when the classification is completed. This operation is performed before the feature extraction is started. Therefore, feature extraction can be performed on the labeled segmentation target. The location of a completely heterogeneous nucleus within any single cytoplasmic region can itself be an important feature when attempting to classify cytological material. This function can be performed at the gate level of a Field Programmable Gate Aray, or alternatively, an application specific integrated circuit (ASIC) can be used. Once both the nuclear material and the cytoplasmic material in the image have been segmented and their appropriate labeling completed, processing proceeds to the feature extraction pipeline 130. The main function of this pipeline 130 is to extract features based on mathematical or rationale to be used in classifying each segmented object in image I. The feature extraction pipeline 130 is shown in FIG. . . . 130m includes a number of feature extraction modules 132 individually indicated as 130m. FIG. 12 shows the feature extraction module 132 in more detail. The feature extraction module 132 includes a feature calculator 210 and a plurality of accumulator arrays 212, each indicated as 212a, 212b, 212c, 212d. One block of the accumulator array 212 is assigned to each one feature, and each accumulator in each accumulator block is assigned to one label. Each block is expected to have a total of over 21,000 accumulators. In image processing for the applications described herein, features that can be extracted fall into five categories: (1) morphological features; (2) organizational features; (3) chromatic features; ) Optical densitometer features, (5) features viewed from the context. Morphological features refer to the overall shape and size of the divided object. The organizational features refer to the distribution and interrelationship of the light and dark levels of the divided objects. Chromatic features refer to the spectral characteristics of the segmented object. Optical densitometric features relate to the light intensity within the segmented object. The features viewed from the context are features relating to the physical relationship between the respective divided objects. Referring back to FIG. 4, the uplink transfer module 140 includes an uplink buffer 141 and an uplink communication interface 142. The uplink buffer 141 stores the leveled image data from the image bus 203c and the divided bus 203b. Each image is written separately to separate banks of memory in buffer 141 as follows: all three leveled images, cytoplasmic label, nuclear label and binary image. Once the images have been stored, the image banks can be transferred as needed. At the end of each image frame, feature information is input from the feature bus 203a based on the frame synchronization signal 189 and the line synchronization signal 190. This data is written in the same block of the buffer memory 141 as the image. The feature memory start column and the number of columns are used to determine the end of feature storage. When all feature data from all feature cards has been saved, this data is automatically sent to the host computer 56 via the fiber-optic communication interface 142. The image data is transferred when requested by the host computer 56. The present invention may be embodied in many other forms without departing from its spirit and essential characteristics. Therefore, the above embodiments should be considered as non-limiting illustrative examples, and the scope of the present invention is indicated by the appended claims rather than by the foregoing description. It is therefore to be understood that all modifications that come within the meaning and range of equivalency of the claims are to be embraced within the scope of the invention.

【手続補正書】特許法第184条の8第1項 【提出日】平成10年12月23日(1998.12.23) 【補正内容】請求の範囲 1. 画像処理のためのパイプラインプロセッサーにおいて、 (a)画像を受け取るための入力段; (b)該入力段の出力に接続された分割パイプライン段、この分割パイプライ ン段は画像を選択された複数の部分に分割するための手段を含み、そして該分割 するための手段は微細粒子処理エレメントからなり; (c)該分割パイプライン段の出力に接続された特徴抽出パイプライン段、該 特徴抽出パイプライン段は特徴を該選択された部分に関連させるための手段を含 み、そして該特徴を関連させる手段は微細粒子処理エレメントからなり; (d)該画像の処理に関連した情報を出力するための出力段;および (e)該パイプライン段の動作を制御するためのコントローラ、 からなる画像処理のためのパイプラインプロセッサー。 2. 画像がパパニコラウ・プロトコルによって調製された単分子層生物学的試 料のデジタル化画像からなる請求項1記載のパイプラインプロセッサー。 3. さらに該入力段の出力に接続された入力コンディショニング段、および該 分割パイプライン段による処理の前に該画像をコンディショニングするための手 段を包含する請求項2記載のパイプラインプロセッサー。 4. 該コンディショニング手段が該画像内の各別個の画像エレメントをレベリ ングするための手段を有するレベリングパイプラインファンクションからなる請 求項3記載のパイプラインプロセッサー。 5. さらに該コントローラに接続された手直しモジュールを包含し、該手直し モジュールは該パイプライン段の動作に対応する情報を保存するための手段を含 む請求項1記載のパイプラインプロセッサー。 6. 該コントローラが画像を発生するカメラシステムを制御するためのインタ ーフェースモジュールを包含する請求項1記載のパイプラインプロセッサー。 7. 該選択された部分に特徴を関連させる手段が特徴カルキュレータと複数の アキュムレータアレイとからなり、該アキュムレータアレイのそれぞれは予め定 められた特徴に対応しており、そして該特徴カルキュレータは該選択された部分 に基づいて該アキュムレータアレイのうちの1つを選択する手段を包含する請求 項1記載のパイプラインプロセッサー。 8. 生物学的試料の画像を受け取るための入力段、その入力段の出力に接続さ れた、該画像を選択された部分に分割するための分割パイプライン段、特徴を該 選択された部分に関連させるための特徴抽出パイプライン、および画像の処理に 関連した情報を出力するための出力段からなる画像処理のためのパイプラインプ ロセッサーにおいて、 (a)電子回路を有するカードを受け取るための複数のスロットを有する背面か らなり; (b)該カードは、 コントロールプロセッサーを保持するためのプロセッサーカード、パイプライン 段によって処理された情報を保存するためのメモリー回路と該情報を別のコンピ ュータに転送するための通信インターフェースとを保持するための出力カード、 1つまたはそれ以上のモジュールカードを含み、ここで各モジュールカードは複 数のパイプラインカードを受け取るための手段を含み、該パイプラインカードの それぞれは分割パイプライン段と特徴抽出パイプライン段のモジュールを含んで おり、該分割パイプライン段および該特徴抽出パイプライン段は微細粒子処理工 レメントからなり; (c)該背面はその背面のスロットに挿入されたカード間で情報と制御信号を伝 達するための母線手段を含んでいる、ことを特徴とするハードウエア機構。 9. 該母線手段が複数の並列データバスとビデオ画像バスからなり、該ビデオ 画像バスは該カードの間に直列に接続されている請求項8記載のハードウエア機 構。 10. 該モジュールカードのそれぞれがパイプラインカードのうちの4つを保 持しうる請求項8記載のハードウエア機構。 11. 該モジュールカードがカードと該背面との間のデータの流れの方向を制 御するための手段を含み、その制御手段は該コントロールプロセッサーによって 発せられるコマンド信号に応答する請求項8記載のハードウエア機構。[Procedure for Amendment] Article 184-8, Paragraph 1 of the Patent Act [Date of Submission] December 23, 1998 (December 23, 1998) [Details of Amendment] Claims 1. In a pipeline processor for image processing, (a) an input stage for receiving an image; (b) a divided pipeline stage connected to an output of the input stage, wherein the divided pipeline stage includes a plurality of selected image stages. And (c) a feature extraction pipeline stage connected to the output of said split pipeline stage, said feature extraction pipe comprising: The line stage includes means for associating a feature with the selected portion, and the means for associating the feature comprises a fine particle processing element; and (d) for outputting information related to processing of the image. A pipeline processor for image processing, comprising: an output stage; and (e) a controller for controlling the operation of the pipeline stage. 2. The pipeline processor of claim 1, wherein the image comprises a digitized image of a monolayer biological sample prepared according to the Papanicolaou protocol. 3. 3. The pipeline processor according to claim 2, further comprising an input conditioning stage connected to an output of said input stage, and means for conditioning said image prior to processing by said split pipeline stage. 4. 4. The pipeline processor according to claim 3, wherein said conditioning means comprises a leveling pipeline function having means for leveling each distinct image element in said image. 5. The pipeline processor of claim 1, further comprising a rework module connected to the controller, the rework module including means for storing information corresponding to operation of the pipeline stage. 6. The pipeline processor of claim 1, wherein the controller includes an interface module for controlling a camera system that generates images. 7. The means for associating a feature with the selected portion comprises a feature calculator and a plurality of accumulator arrays, each of the accumulator arrays corresponding to a predetermined feature, and wherein the feature calculator is the selected calculator. 2. The pipeline processor according to claim 1, further comprising means for selecting one of said accumulator arrays based on said portion. 8. An input stage for receiving an image of a biological sample, a split pipeline stage connected to an output of the input stage for dividing the image into selected portions, and associating features with the selected portions. A pipeline processor for image processing comprising an output stage for outputting information related to image processing, and a plurality of slots for receiving a card having electronic circuitry. (B) the card comprises a processor card for holding a control processor, a memory circuit for storing information processed by a pipeline stage, and a communication for transferring the information to another computer. An output card for holding an interface, including one or more module cards, where Wherein each module card includes means for receiving a plurality of pipeline cards, each of the pipeline cards including a module of a split pipeline stage and a feature extraction pipeline stage, wherein the split pipeline stage and the feature The extraction pipeline stage comprises a fine particle processing element; (c) the back surface includes busbar means for transmitting information and control signals between cards inserted in slots on the back surface. Hardware mechanism. 9. 9. The hardware mechanism of claim 8, wherein said bus means comprises a plurality of parallel data buses and a video image bus, said video image bus being serially connected between said cards. 10. 9. The hardware mechanism of claim 8, wherein each of said module cards is capable of holding four of said pipeline cards. 11. 9. The hardware mechanism of claim 8, wherein said module card includes means for controlling a direction of data flow between the card and said back surface, said control means responsive to command signals issued by said control processor.

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),OA(BF,BJ,CF ,CG,CI,CM,GA,GN,ML,MR,NE, SN,TD,TG),AP(GH,KE,LS,MW,S D,SZ,UG,ZW),EA(AM,AZ,BY,KG ,KZ,MD,RU,TJ,TM),AL,AM,AT ,AU,AZ,BA,BB,BG,BR,BY,CA, CH,CN,CU,CZ,DE,DK,EE,ES,F I,GB,GE,HU,ID,IL,IS,JP,KE ,KG,KP,KR,KZ,LC,LK,LR,LS, LT,LU,LV,MD,MG,MK,MN,MW,M X,NO,NZ,PL,PT,RO,RU,SD,SE ,SG,SI,SK,SL,TJ,TM,TR,TT, UA,UG,US,UZ,VN,YU────────────────────────────────────────────────── ─── Continuation of front page    (81) Designated countries EP (AT, BE, CH, DE, DK, ES, FI, FR, GB, GR, IE, IT, L U, MC, NL, PT, SE), OA (BF, BJ, CF) , CG, CI, CM, GA, GN, ML, MR, NE, SN, TD, TG), AP (GH, KE, LS, MW, S D, SZ, UG, ZW), EA (AM, AZ, BY, KG) , KZ, MD, RU, TJ, TM), AL, AM, AT , AU, AZ, BA, BB, BG, BR, BY, CA, CH, CN, CU, CZ, DE, DK, EE, ES, F I, GB, GE, HU, ID, IL, IS, JP, KE , KG, KP, KR, KZ, LC, LK, LR, LS, LT, LU, LV, MD, MG, MK, MN, MW, M X, NO, NZ, PL, PT, RO, RU, SD, SE , SG, SI, SK, SL, TJ, TM, TR, TT, UA, UG, US, UZ, VN, YU

Claims (1)

【特許請求の範囲】 1. 画像処理のためのパイプラインプロセッサーにおいて、 (a)画像を受け取るための入力段; (b)該入力段の出力に接続された分 割パイプライン段、この分割パイプライン段は画像を選択された複数の部分に分 割するための手段を含む; (c)該分割パイプライン段の出力に接続された特徴抽出パイプライン段、該 特徴抽出パイプライン段は特徴を該選択された部分に関連させるための手段を含 む; (d)該画像の処理に関連した情報を出力するための出力段;および (e)該パイプライン段の動作を制御するためのコントローラ、 からなる画像処理のためのパイプラインプロセッサー。 2. 画像がパパニコラウ・プロトコルによって調製された単分子層生物学的試 料のデジタル化画像からなる請求項1記載のパイプラインプロセッサー。 3. さらに該入力段の出力に接続された入力コンディショニング段、および該 分割パイプライン段による処理の前に該画像をコンディショニングするための手 段を包含する請求項2記載のパイプラインプロセッサー。 4. 該コンディショニング手段が該画像内の各別個の画像エレメントをレベリ ングするための手段を有するレベリングパイプラインファンクションからなる請 求項3記載のパイプラインプロセッサー。 5. さらに該コントローラに接続された手直しモジュールを包含し、該手直し モジュールは該パイプライン段の動作に対応する情報を保存するための手段を含 む請求項1記載のパイプラインプロセッサー。 6. 該コントローラが画像を発生するカメラシステムを制御するためのイン ターフェースモジュールを包含する請求項1記載のパイプラインプロセッサー。 7. 該選択された部分に特徴を関連させる手段が特徴カルキュレータと複数の アキュムレータアレイとからなり、該アキュムレータアレイのそれぞれは予め定 められた特徴に対応しており、そして該特徴カルキュレータは該選択された部分 に基づいて該アキュムレータアレイのうちの1つを選択する手段を包含する請求 項1記載のパイプラインプロセッサー。 8. 生物学的試料の画像を受け取るための入力段、その入力段の出力に接続さ れた、該画像を選択された部分に分割するための分割パイプライン段、特徴を該 選択された部分に関連させるための特徴抽出パイプライン、および画像の処理に 関連した情報を出力するための出力段からなる画像処理のためのパイプラインプ ロセッサーにおいて、 (a)電子回路を有するカードを受け取るための複数のスロットを有する背面か らなり; (b)該カードは、 コントロールプロセッサーを保持するためのプロセッサーカード、パイプライン 段によって処理された情報を保存するためのメモリー回路と該情報を別のコンピ ュータに転送するための通信インターフェースとを保持するための出力カード、 1つまたはそれ以上のモジュールカードを含み、ここで各モジュールカードは複 数のパイプラインカードを受け取るための手段を含み、該パイプラインカードの それぞれは分割パイプライン段と特徴抽出パイプライン段のモジュールを含んで おり; (c)該背面はその背面のスロットに挿入されたカード間で情報と制御信号を伝 達するための母線手段を含んでいる、ことを特徴とするハードウエア機構。 9. 該母線手段が複数の並列データバスとビデオ画像バスからなり、該ビデオ 画像バスは該カードの間に直列に接続されている請求項8記載のハードウエア機 構。 10. 該モジュールカードのそれぞれがパイプラインカードのうちの4つを保 持しうる請求項8記載のハードウエア機構。 11. 該モジュールカードがカードと該背面との間のデータの流れの方向を制 御するための手段を含み、その制御手段は該コントロールプロセッサーによって 発せられるコマンド信号に応答する請求項8記載のハードウエア機構。[Claims] 1. In a pipeline processor for image processing,   (A) an input stage for receiving an image; (b) an input stage connected to the output of the input stage. Split pipeline stage, which splits an image into selected portions Including means for breaking;   (C) a feature extraction pipeline stage connected to the output of the split pipeline stage; The feature extraction pipeline stage includes means for associating features with the selected portion. MU;   (D) an output stage for outputting information related to the processing of the image; and   (E) a controller for controlling the operation of the pipeline stage; Pipeline processor for image processing. 2. Monolayer biological assays where images were prepared by the Papanicolaou protocol 2. The pipeline processor according to claim 1, comprising a digitized image of the feed. 3. An input conditioning stage connected to the output of the input stage; and Steps to condition the image prior to processing by the split pipeline stage 3. The pipeline processor of claim 2, including a stage. 4. The conditioning means levels each separate image element in the image. A contract comprising a leveling pipeline function having means for performing The pipeline processor according to claim 3. 5. And a rework module connected to the controller. The module includes means for storing information corresponding to the operation of the pipeline stage. The pipeline processor according to claim 1. 6. An input for controlling the camera system that generates the image by the controller; The pipeline processor according to claim 1, further comprising an interface module. 7. The means for associating a feature with the selected portion comprises a feature calculator and a plurality of features. Accumulator array, each of the accumulator arrays being predetermined. Corresponding to the selected feature, and the feature calculator corresponds to the selected portion. Means for selecting one of the accumulator arrays based on Item 4. The pipeline processor according to item 1. 8. An input stage for receiving an image of the biological sample, connected to the output of the input stage; A divided pipeline stage for dividing the image into selected portions, For feature extraction pipelines to correlate selected parts and image processing Pipeline pipeline for image processing consisting of output stages for outputting related information In the processor, (A) a rear side having a plurality of slots for receiving a card having electronic circuits; Become; (B) the card Processor card, pipeline to hold control processor A memory circuit for storing the information processed by the stage and another An output card for holding a communication interface for transferring to a computer, Includes one or more module cards, where each module card is Means for receiving a number of pipeline cards, wherein Each includes a module for the split pipeline stage and a feature extraction pipeline stage Yes; (C) The back side transmits information and control signals between cards inserted into the slots on the back side. A hardware mechanism comprising busbar means for reaching. 9. The bus means comprises a plurality of parallel data buses and a video image bus; 9. The hardware device according to claim 8, wherein an image bus is connected in series between said cards. Structure. 10. Each of the module cards holds four of the pipeline cards. 9. The hardware mechanism according to claim 8, which can be held. 11. The module card controls the direction of data flow between the card and the back. Control means, the control means of which is controlled by the control processor. The hardware mechanism of claim 8 responsive to a command signal issued.
JP52303598A 1996-11-21 1997-11-20 Pipeline processor for medical and biological image analysis Pending JP2001503897A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US3142396P 1996-11-21 1996-11-21
US60/031,423 1996-11-21
PCT/CA1997/000878 WO1998022909A1 (en) 1996-11-21 1997-11-20 Pipeline processor for medical and biological image analysis

Publications (1)

Publication Number Publication Date
JP2001503897A true JP2001503897A (en) 2001-03-21

Family

ID=21859381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP52303598A Pending JP2001503897A (en) 1996-11-21 1997-11-20 Pipeline processor for medical and biological image analysis

Country Status (5)

Country Link
EP (1) EP1025546A1 (en)
JP (1) JP2001503897A (en)
AU (1) AU741705B2 (en)
CA (1) CA2271868A1 (en)
WO (1) WO1998022909A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100992169B1 (en) 2008-07-25 2010-11-04 한국생명공학연구원 bio information analysis process auto design system and thereof.
KR100995127B1 (en) 2008-05-28 2010-11-18 한국생명공학연구원 bio information analysis process auto design system and thereof.
WO2011146994A2 (en) * 2010-05-28 2011-12-01 Magnepath Pty Ltd. Procedure, platform and system for the analysis of medical images

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000227316A (en) 1999-02-04 2000-08-15 Keyence Corp Inspection device
SG125948A1 (en) 2003-03-31 2006-10-30 Asml Netherlands Bv Supporting structure for use in a lithographic apparatus
US7889233B2 (en) * 2005-08-26 2011-02-15 Nvidia Corporation Video image processing with remote diagnosis and programmable scripting
EP1969992B1 (en) * 2005-12-28 2012-05-02 Olympus Medical Systems Corp. Image processing device and image processing method in the image processing device
CA2947817C (en) * 2014-05-05 2022-05-24 Horticulture Innovation Australia Limited Methods, systems, and devices relating to real-time object identification
CN114324927B (en) * 2021-12-30 2023-03-24 精匠诊断技术(江苏)有限公司 Pipeline starting method, system, electronic equipment and medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100995127B1 (en) 2008-05-28 2010-11-18 한국생명공학연구원 bio information analysis process auto design system and thereof.
KR100992169B1 (en) 2008-07-25 2010-11-04 한국생명공학연구원 bio information analysis process auto design system and thereof.
WO2011146994A2 (en) * 2010-05-28 2011-12-01 Magnepath Pty Ltd. Procedure, platform and system for the analysis of medical images
WO2011146994A3 (en) * 2010-05-28 2012-03-29 Magnepath Pty Ltd. Procedure, platform and system for the analysis of medical images

Also Published As

Publication number Publication date
AU741705B2 (en) 2001-12-06
CA2271868A1 (en) 1998-05-28
EP1025546A1 (en) 2000-08-09
AU5044998A (en) 1998-06-10
WO1998022909A1 (en) 1998-05-28

Similar Documents

Publication Publication Date Title
US5315700A (en) Method and apparatus for rapidly processing data sequences
US7489834B2 (en) Method and apparatus for image processing
CN1267855C (en) Red eye correction method and apparatus for implementing said method
US5432865A (en) Method and apparatus for generating a plurality of parameters of an object in a field of view
EP0543629A1 (en) Defect detection
JP4038442B2 (en) Image processing device for visual inspection
WO1995017736A1 (en) Real-time line scan processor
WO1999004361A1 (en) Method for acquiring, storing and analyzing crystal images
JP2001503897A (en) Pipeline processor for medical and biological image analysis
WO2002086804A9 (en) Image processing system for multi-beam inspection
CA2287947A1 (en) Multi-spectral imaging system and method for cytology
CN105915813A (en) Image acquisition frame rate adaptive adjustment device
Shipley et al. Processing and analysis of neuroanatomical images
JP2010064531A (en) White line detection device
CA2505782C (en) Particle extraction for automatic flow microscope
CN107454328B (en) Image processing method, device, computer readable storage medium and computer equipment
JP3516786B2 (en) Face area extraction method and copy condition determination method
CN211741094U (en) Surface defect detection device for transparent mirror printing and gold stamping process
Suder Parameters evaluation of cameras in embedded systems
CN112748110A (en) Surface defect detection device for transparent mirror printing and gold stamping process
CN113822838A (en) Base recognition apparatus and base recognition method
US20030231354A1 (en) Image input device
Tasto Parallel array processors for digital image processing
Pang et al. Scale invariant feature transform–gauss mosaic method for blood cell microscopic images
KR20160102980A (en) Machine vision system with device-independent camera interface