JP4046161B2 - Sample image data processing method and sample inspection system - Google Patents

Sample image data processing method and sample inspection system Download PDF

Info

Publication number
JP4046161B2
JP4046161B2 JP2002314878A JP2002314878A JP4046161B2 JP 4046161 B2 JP4046161 B2 JP 4046161B2 JP 2002314878 A JP2002314878 A JP 2002314878A JP 2002314878 A JP2002314878 A JP 2002314878A JP 4046161 B2 JP4046161 B2 JP 4046161B2
Authority
JP
Japan
Prior art keywords
image data
specimen
image
layer
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002314878A
Other languages
Japanese (ja)
Other versions
JP2004150895A (en
Inventor
仲宏 安田
ベントン エリック
均 石井
須実子 高山
伸介 稲垣
勲 小林
義浩 本間
洋介 梅島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Precision Inc
National Institute of Radiological Sciences
Original Assignee
Seiko Precision Inc
National Institute of Radiological Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Precision Inc, National Institute of Radiological Sciences filed Critical Seiko Precision Inc
Priority to JP2002314878A priority Critical patent/JP4046161B2/en
Priority to US10/696,627 priority patent/US7593556B2/en
Priority to KR1020030075423A priority patent/KR20040038743A/en
Priority to DE60314711T priority patent/DE60314711T2/en
Priority to EP03024944A priority patent/EP1422648B1/en
Publication of JP2004150895A publication Critical patent/JP2004150895A/en
Priority to KR1020050062023A priority patent/KR100897674B1/en
Application granted granted Critical
Publication of JP4046161B2 publication Critical patent/JP4046161B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Sampling And Sample Adjustment (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、標本深さが異なる複数の層毎に撮像した標本画像データの処理方法及び標本検査システムに関する。
【0002】
【従来の技術】
病院等の医療機関や大学の研究所等においては、顕微鏡による細胞や組織等の標本検査等が頻繁に行われている。ところで標本検査は、膨大な数の細胞を顕微鏡で拡大して広大な検査領域になった状態で検査をするため多大な労力と負担を要していた。このため、細胞や組織等の標本検査においては、検査の全体効率を向上させるために、顕微鏡等で悪性細胞の有無を検査して、悪性細胞が発見された場合には、その部分を撮像してマーキング等により特定する検査部門と、この特定された部分について医学的な診断を行う診断部門との分業が行われている。そして、分業された各部門間を繋ぐものとして、近年、電話回線等の公衆回線やインターネット専用回線等のデータ伝送媒体が利用されはじめ、標本画像をデータ化しデータ伝送媒体により標本画像を各部門間でやり取りするようになっている。このため、本願出願人等は、標本画像のデータ化の仕方として、顕微鏡で拡大した細胞や組織等の標本を、ラインセンサでライン画像として撮像し、このライン画像をコンピュータによる画像処理によって、標本全体の広大な領域の鮮明な撮像画像を迅速に作成する手段を提案している(特許願2002−097495号、特許願2002−097497号、特許願2002−097498号、特許願2002−097499号)。
【0003】
【発明が解決しようとする課題】
しかし細胞や組織等の標本検査においては、一定の焦点位置の標本深さ平面のみを観察して悪性細胞や悪性を考慮すべき細胞と判断できるとは限らず、その標本深さとは異なる標本深さの細胞の形状等を観察しなければ判断できない場合も多い。したがって細胞や組織の検査を的確に行うためには、顕微鏡の焦点位置を変えて、立体的に細胞や組織を検査することが重要になっている。
【0004】
しかるに上述した出願に係る発明では、広大な撮像領域について、鮮明な画像を迅速に作成することができるものの、広大な撮像領域を持つ撮像画像であるためにモニタ等の表示手段でその撮像画像を原寸大で全て表示することは不可能になっている。また、標本深さの異なる画像を複数用意している場合、1つの画像が広大な撮像領域を持つため、画像データ量が大変多く別の標本深さの画像を迅速に表示することが困難であった。
【0005】
そこで本発明の目的は、標本深さの異なる複数の層の画像データを迅速に表示することができる標本画像データ処理方法及び標本検査システムを提供することにある。
【0006】
【課題を解決するための手段】
上記課題を解決すべく、本発明による標本画像データの処理方法は、標本深さが異なる複数の層の画像データを表示して、立体的に細胞や組織等を検査する標本検査において、標本の検査領域において、複数のラインセンサを介して標本深さが異なる複数の層毎のライン画像を同時に撮像する工程と、上記ライン画像を合成して上記検査領域の全体について上記層毎の標本画像データを生成し記録する工程と、上記各標本画像データから抽出すべき平面領域を指定する工程と、上記指定された平面領域の上記層毎の画像データを、上記検査領域の全体についての層毎の標本画像データから抽出し、ひとまとまりのものとして記憶する工程と、上記ひとまとまりのものとして記憶された平面領域の層毎の画像データから、この平面領域の選択した層の画像を抽出して表示手段に表示する工程とを含む標本画像データ処理方法としている。また、本発明による標本検査システムは、標本深さが異なる複数の層の画像データを表示して、立体的に細胞や組織等を検査する標本検査システムであって、標本の検査領域において、複数のラインセンサを介して標本深さが異なる複数の層毎のライン画像を同時に撮像する手段と、上記ライン画像を合成して上記検査領域の全体について上記層毎の標本画像データを生成し記録する手段と、上記各標本画像データから抽出すべき平面領域を指定する手段と、上記指定された平面領域の上記層毎の画像データを、上記検査領域の全体についての層毎の標本画像データから抽出し、ひとまとまりのものとして記憶する手段と、上記ひとまとまりのものとして記憶された平面領域の層毎の画像データに基づいて、この平面領域の層毎の画像を択一的に又はその複数の組み合わせを同時的に表示手段に表示させる画像処理装置とを含む標本検査システムとしている。また好ましくは、上記平面領域の層毎の画像を表示するときは選択された複数の抽出画像を並列的に又は重畳して表示可能としてあるほうがよい。
【0007】
【発明の実施の形態】
発明の実施の形態を実施例に基づき図面を参照して説明する。図1に示す標本検査システムは、画像作成部門3の端末605と、検査部門4の端末41と、診断部門5の端末51とを備えた細胞診用標本検査システムである。各端末は電話回線等の公衆回線やインターネット専用回線等のデータ伝送媒体によりデータの送受信が可能になっている。ここで画像作成部門3では、標本である細胞や組織を顕微鏡装置6で拡大して撮像して画像を作成し、検査部門4では、この画像から悪性細胞や悪性を考慮すべき細胞を特定し、診断部門5では、この特定された細胞について診断を行う。また端末605、41、51は、それぞれ記憶部653、42、52を備えており、これらの記憶部には、標本深さ(焦点位置)が異なる3つの層毎に撮像した、細胞や組織の画像データ32a〜32c、42a〜42c、52a〜52cがそれぞれ記憶してある。ここでいう標本深さは、顕微鏡装置6で標本を撮像するときの標本の深さ方向の焦点位置の違いを示す。つまり、上述した3つの層は層32aが対物レンズに一番近い最上層であり、層32cは対物レンズから一番遠い最下層であり、層32bは層32aと層32cとの中間層である。
【0008】
次に図2〜図7を参照しつつ、画像作成部門3における細胞や組織の画像データの作成手順について説明する。まず最初に、この画像データの作成手順を概説する。標本601の細胞や組織の3つの標本深さが異なる位置を、標本601との高さを異ならして配列した電子撮像装置であるラインセンサ631a、631b、631cにそれぞれ同時に結像させる。本実施例では、図4に示すように階段状に各ラインセンサ631a、631b、631cを配置することによって標本601との高さを異ならせている。そして、3個のラインセンサ631a、631b、631cによって、3つの異なる標本深さの画像をライン画像データとして読み取る。そして、図2〜図4に示す移動手段604によって、標本601を水平移動させ、図3に示す端末605によって、このライン画像データを記憶部651に記憶していく。次に画像処理装置内の演算処理部651によって、この記録したライン画像から、標本601の標本深さが異なる3つの層毎の画像データを生成する。以下詳述する。
【0009】
まず、図2と図3とを参照しつつ、顕微鏡602の全体構成を概説する。本発明の実施例で使用する顕微鏡602は光学顕微鏡である。細胞や組織等の検査では、焦点の合っている部分のみを見ただけでは、悪性細胞と判断することは難しい場合があり、焦点の合っていないぼんやりと写った(焦点ぼけした)部分を注目することがある。光学顕微鏡である顕微鏡602で撮像するとこの焦点の合っていない情報も画像データとして残せるので細胞や組織等の検査には、好適である。顕微鏡602は、鏡筒625と、この鏡筒に装着した目視観察用接眼レンズ623、標本601のある程度の2次元的な広がりを撮像する2次元CCDセンサ部627、対物レンズ621等からなる光学レンズを備えている。また鏡筒625は、この鏡筒を上下移動させるラックアンドピニオン機構661を介して、L字型の架台606に支持されている。そして、標本601を裏面から照射するために、外部に設けたハロゲンランプ(図示せず。)からの光を導入する光ファイバー607が、L字型の架台606の下部に接続してある。
【0010】
ところで光学レンズは、図4に示すように、2個のレンズ621a、621bで構成される複合レンズからなる対物レンズ621と、互いに平行に高さを異ならして配置した3個のラインセンサ631a、631b、631c毎に設置された3個の蒲鉾型の収差補正レンズ622a、622b、622cとから構成してある。収差補正レンズ622a、622b、622cは、図4の破線と、実線と、一点破線とで示したように、X軸方向にそれぞれ互いにラインセンサの素子間分ずれた位置にあってかつ異なる標本深さの層(表層601b、中間層601b、下層601c)を、それぞれラインセンサ631a、631b、631cに結像するような光学的形状に形成したものである。なお対物レンズ621は、倍率の異なるものが3個、レボルバ624に装着してあり、相互に手動切り替え可能になっている。
【0011】
さて図4に示すように、3個のラインセンサ631a、631b、631cと、収差補正レンズ622a、622b、622cとは、カメラケース632に収納されており、このカメラケース632は、図2に示すように顕微鏡602の鏡筒625の先端に着脱可能に装着してある。なおこの装着部の形状は、レンズ取り付け部分についての、一眼レフカメラの標準取り付け形状である、Fマウントを採用している。ラインセンサ631a等は、1辺が7μmの荷電結合素子を1個ずつ、直線状に4000個配列して構成してある。したがって、撮像倍率が100倍の場合は、幅が、7μm ÷ 100 =0.07μm、長さが、7μm× 4000個 ÷ 100 = 0.28mmの範囲を、一度に撮像することができる。
【0012】
L字型の架台606の水平部の上には、移動手段604が設置されている。移動手段604は、標本601を載せるチルティングテーブル642と、このチルティングテーブルを左右および前後方向に水平移動させるリニアモータ641とを備えている。リニアモータ641は公知の技術であって、帯状に配列した永久磁石の上を、電機子が移動するものであり、高速駆動、高応答性、そして高精度位置決めが可能である。そして、リニアモータ641は、後述するようにコンピュータによってリモートコントロールされ、所定の位置に標本601を移動させる。
【0013】
チルティングテーブル642は、平面視にて正三角形を構成するように配置した3個の超音波モータ642aと、この超音波モータの垂直の出力軸642cの先端で3点支持される平板形状のテーブル部642dと、この超音波モータの相互の位置を固定する固定部材642bとから構成してある。そして、垂直の出力軸642cの先端は、テーブル部642dの裏面上に形成した窪みに当接しており、相互の水平方向位置がずれないようにしている。
【0014】
超音波モータ642aは公知の技術であって、電圧を加えると変形する圧電セラミックス上に弾性部材を当設し、この圧電セラミックスに超音波領域の電圧をかけて弾性部材に屈曲振動を発生させ、これにより出力軸を回転させるものであり、高い応答性と制御性とを有し、作動音が小さい等の特性を有している。ここで使用する超音波モータ642aは、出力軸642cがネジ構造になっており、この出力軸が回転して上下に可動する。そしてチルティングテーブル642は、コンピュータからの指示によって、標本601の傾きと、焦点距離とを調整する。
【0015】
ランプ部626には、ハロゲンランプ(図示せず。)が収納してあり、このハロゲンランプからの光を、ハーフミラーにより、顕微鏡602の光軸に沿うように直角に曲げて標本601に照射し、この標本からの反射光を増強して、鮮明な撮像を得ている。この落射光源であるランプ部626を使用するときは、標本601が光の透過性が低い物質のときである。また標本601の裏面からも照射できるように透過光源として、外部に設けたハロゲンランプ(図示せず。)からの光を導入する光ファイバー607が、L字型の架台606の下部に接続してある。細胞や組織等のように光の透過性が高いものを見るときはこちらからの光源を主光源とすることが多く、本実施例でも標本601の裏面から照射させている。
【0016】
また2次元CCDセンサ部627内には、ある程度2次元的な広がりを撮像可能な2次元CCDセンサ(図示せず。)を備えている。すなわち細胞検査においては、顕微鏡602によって拡大した画像を、直接表示手段に表示して、この表示画面を見ながら悪性細胞が存在する特定の部位や範囲等を確認することが必要になる場合もある。しかるに撮像素子がラインセンサ631a等のみだった場合、一時に撮像できるライン画像は極めて幅が狭いため、この幅が狭いライン画像の表示画面を見ながら、悪性細胞が存在する特定の部位や範囲を確認することは困難である。一方、ある程度2次元的な広がりを撮像可能な2次元CCDセンサを備えて、これによる表示画面を見ながら、細胞や組織等の特定の部位や範囲を確認することは容易である。そこで、2次元CCDセンサを備えることにより、標本601内の特定の部位や範囲を容易に確認できるようにしている。
【0017】
この2次元CCDセンサは、一般的なCCDカメラに使用されている、一辺が21μmの電荷結合素子を、縦横600 × 600 = 約35万個、平面的に配置したものであり、標本601の所定の範囲を、ハーフミラーを介して撮像する。
【0018】
さて端末605は、市販用のコンピュータ、いわゆるパソコンを使用するものであって、演算処理部651、表示手段652、及びライン画像データを記憶する記憶部653とから構成される。この演算処理部651は、画像処理装置内に設けられ、後述するように、標本601の撮像領域の設定、移動手段604の移動、この移動手段のエンコーダからフィードバックされた移動量を基にしたラインセンサ631a等の撮像実行指示、このラインセンサで撮像したライン画像データの取り込み、およびこのライン画像データを合成して撮像領域の全体的な平面画像の作成を行なう。
【0019】
次に上述した構成部品によって、細胞や組織の画像データ32a〜32cを作成する手順を説明する。図2に示すように、まず検査対象である細胞や組織片を、スライドガラスとカバーガラスとの間に挟んだ標本601を、チルティングテーブル642のテーブル部642dの上面にセットし、移動しないようにバキューム手段等によって、この標本をこのテーブル部642dに吸着等して固定する。次に図7に示すように、標本601の検査領域611をパソコンの入力手段からの入力により設定する。
【0020】
ところで検査領域611を設定する理由は、後述するようにラインセンサ631a等で順次撮像するライン画像の撮像の、始点611aと終点611bとを設定するためである。なお検査領域611の設定には、ある程度の2次元的な広がりを有する撮像画像が必要になるため、2次元CCDセンサからの撮像データを、端末605の表示手段652に表示させ、その表示画面を見ながら、移動手段604をXY方向に移動調整して行う。これにより、対角線上の位置611a、611bのXY座標が、移動手段604のリニアモータ641の移動始点と終点位置に対応する情報として、演算処理部651に記憶される。したがって後述するように、ラインセンサ631a等によって撮像する場合には、演算処理部651からの指示によって、リニアモータ641を、最初の撮像位置である内側位置611aから、最後の撮像位置である水平方向位置611bまで順次移動させる。
【0021】
なお検査領域611の設定の際には、標本601の焦点距離と、傾きとの調整を同時に行なう。すなわち検査領域611を設定する際に、まず始点位置611aにおいて、表示手段652に表示された、2次元CCDセンサからの表示画像を見ながら、標本601の表層601aに焦点を合わせ、次にリニアモータ641をX軸方向に移動させて、検査領域611の右端部位置で焦点を合わせる。そしてこの焦点位置のずれから、X軸方向の傾きを算出して、チルティングテーブル642の傾きを調整する。そして次に同様な手段によって、検査領域611の右上部位置611bで焦点を合わせて、Y軸方向の傾きを調整する。
【0022】
ここで2次元CCDセンサの焦点位置と、標本601の表層601aを撮像するラインセンサ631aの焦点位置とが一致するように構成しておけば、直ちにこの標本の表層601aに、ラインセンサ631aの焦点を合わせることができる。そして、他のラインセンサ631b、631cはラインセンサ631aと同時にそれぞれの焦点深さの位置に焦点が合うように収差補正レンズ622a、622b、622cが設計されているので、2次元CCDセンサの焦点を合わせた段階で、3つのラインセンサ全てに焦点が合うこととなる。
【0023】
次いで、図7、図8を参照しつつ、ラインセンサ631a等で標本601を撮像する手順を説明する。この撮像は、演算処理部651に内蔵してあるプログラムによって制御される。演算処理部651は先ず最初に、エンコーダによって検査位置j=0、k=0を設定し、この検査位置を、座標X=0、Y=0として認識する。そしてこのXY座標(0、0)位置に、リニアモータ641によって標本601を移動させる。このXY座標(0、0)位置は、図7に示す検査領域611の左下隅611aであり、この点が撮像を開始する始点となる。図8では、(a)の位置となり、ラインセンサ631aが左下隅611aと重なる位置に配置される。
【0024】
さて検査領域611の左下隅611a位置に、撮像位置の始点が設定されると、演算処理部651は、X軸に移動量dxを設定し、検査位置(0、0)におけるラインセンサ631a、631b、631cで撮像したそれぞれのライン画像を、記憶部653に記憶すると共に、X軸方向に一定の速度で、リニアモータ641の移動を開始させる。(図8(a)〜(c))移動手段604の移動量は、エンコーダにより計測されて、演算処理部651にそのデータが送られる。そして、移動手段604によって検査領域611が、X軸方向にラインセンサ631a等の1計測幅分だけ移動されたと演算処理部651により判断されたときに、2番目の検査位置X=1dx、Y=0、すなわち座標(1dx、0)におけるこのラインセンサからのライン画像を記憶部653に記憶する。
【0025】
そして演算処理部651は、1ライン画像を記録する毎に、kに1を加えていき、リニアモータ642が一定の速度でX軸方向に移動し、検査位置が図7に示す検査領域611の右下隅に至るまで、(図8の(d)〜(f)の動きに相当)X軸方向長さLの1列の範囲について、順次ライン画像を記憶部653に記憶する。
【0026】
そして検査領域611の最下段、すなわちY軸座標=0の撮像の取り込みが完了すると、演算処理部651は、エンコーダにj=1を設定し、検査位置X=L、Y=1dy、すなわちXY座標(L、1dy)位置に、リニアモータ641によって検査位置を移動させる。この位置は、図7に示す検査領域611の左下隅611aから、X軸方向にLだけ右であって、ラインセンサ631a等の長さ分だけY軸方向に移動した位置である。そして、Y=1dyの位置において、検査領域611の右端から左端まで、順次ライン画像を取り込む。
【0027】
このようにして、ラインセンサ631a等の走査方向を、右から左へ、又は左から右へと変更しつつ、ラインセンサ631a等が新たな撮像範囲に移動した瞬間に、演算処理部651は、順次ライン画像を計測座標と共に記憶部653に記録する。そして、J>nまでに達すると、演算処理部651は、検査領域611の全領域を撮像したと判断し、記録したライン画像を合成して、3つの異なる標本深さの層601a、601b、601cにおける全検査領域の平面画像データを、それぞれ記憶部653に層画像データ32a、32b、32cとして記憶する。
【0028】
なお演算処理部651は、ラインセンサ631a等で撮像する際に、上述した検査領域611におけるXY座標と、標本深さすなわちZ軸座標とを、個々の撮像したライン画像データに付加する。すなわち図4に示すように、ラインセンサ631a、631b、631cで同時に撮像する標本深さが異なる層601a、601b、601cは、互いにX軸方向にラインセンサの素子間分ずれているが、このズレ量は、ラインセンサ631aで撮像されるライン画像を基準とするとラインセンサ631bで撮像されるライン画像の座標のXの値はこのズレ量が加算され、X座標値は1素子間分ずらして付加される。さらにラインセンサ631cで撮像されるライン画像の座標のXの値はさらに1素子間分ずらして付加されることになる。そして、層601a、601b、601cは、互いにZ軸方向にラインセンサの設けられる高さ分ずれているが、このズレ量は、ラインセンサ631aで撮像されるライン画像を基準とするとラインセンサ631bで撮像されるライン画像の座標のZの値はこのズレ量が加算され、Z座標値は1高さ分ずらして付加される。さらにラインセンサ631cで撮像されるライン画像の座標のZの値はさらに1高さ分ずらして付加されることになる。このように端末605の演算処理部651によって、個々のライン画像を撮像する際に、標本601の全検査領域611における撮像位置のXYZ座標を、このライン画像データに付加される。
【0029】
また、ラインセンサ631a〜631cの撮像の仕方は、上述のように全てのラインセンサを常に撮像状態にしておいてもよいし、標本の端部(図8の(a)〜(c)に相当)では、図8(a)では、ラインセンサ631cのみで撮像し、図8(b)では、ラインセンサ631cと631bとで撮像し、図8(c)以降では、全てのラインセンサで撮像し、標本の他の端部(図8の(d)〜(f)に相当)では、図8(d)までは全てのラインセンサで撮像しており、図8(e)では、ラインセンサ631bと631aとで撮像し、図8(f)では、ラインセンサ631aのみで撮像するように、演算処理部651により制御して撮像してもよい。つまり、このように標本の存在しない位置を撮像することになるラインセンサでは撮像しないように制御すれば、画像データから標本の存在しない場所の撮像データをなくすことができるようになる。
【0030】
次にこの全検査領域の画像データ32a〜32cを表示手段652に表示させる方法を説明する。端末605に表示すべき層画像例えば32aを選択する。端末605の演算処理部651は、選択された層画像32aの全領域のサムネイル(縮小画像)を表示手段652に表示する。そして、サムネイル上に縮小ではない画像を表示すべき所望の平面領域を指定されると、演算処理部651は、記憶部653に記憶されている画像データから層画像データ32aを選択し、そこから指定された平面領域に相当する画像データを抽出する。そして、他の層画像データ32b、32cからも指定された平面領域に対応した位置の平面領域に相当する画像データを演算処理部651は抽出する。そして、この各層画像データ32a〜32cから抽出された各平面領域の画像データをひとまとまりのものとして演算処理部651は画像処理装置内にある画像保存メモリに記憶する。その後、演算処理部651は、表示手段652に選択された層画像32aの指定された平面領域の画像を表示させる。
【0031】
このように、演算処理部651は、表示手段652に表示された平面領域の各層画像データを抽出して画像保存メモリに別に記憶しているので、作業者が表示されている層画像を見て、焦点が合ってなくぼんやりと写っている部分に注目したく、この表示されている層画像とは違う位置に焦点が合った標本深さの他の層画像を見たくなったときに、この画像保存メモリに別に記憶してある画像データを使って時間をかけずに他の層画像を表示装置652に表示させることができる。このため、作業者は、端末605のみを使用してあたかも顕微鏡602の接眼レンズ623を覗きながら、3つの焦点位置の標本深さを観察しているかのように、表示手段652に指定した任意の平面領域の画像を表示することができる。つまり、抽出した平面領域に対応する各層画像データを別に演算処理部651が記憶することにより、端末605のみで、仮想的に顕微鏡で見た視野を再現することができることになる。
【0032】
なお、図4に示すように、ラインセンサ631a等毎にそれぞれ収差補正レンズ622a等を設ける場合に限らず、図5に示すように、複数(実施例では3つ)の曲率半径を持つ収差補正レンズ722によって、標本深さの異なる層701a、701b、701cを、ラインセンサ731a、731b、731cに結像させてもよい。またラインセンサ631a等の構成は、CCDを1個づつ4000個配列する場合に限らず、数個ずつを更に長く配列してもよい。また、ラインセンサ631a等を構成する各々のCCDのサイズは、小さい方が解像度の良い画像を撮像できるが、大きいサイズのCCDを使用する場合には、撮像の拡大率を大きくすれば、解像度の良い画像を撮像することができる。
【0033】
また標本601の焦点位置や傾き調整は、上述した手動ではなく、レーザ投光 手段を有する合焦手段を顕微鏡602に組み込み、コンピュータからの指示に基づいてチルティングテーブル642を移動させることによって、自動化することも容易にできる。さらに、ラインセンサ631a等の数は、上述したような3個に限らず、2個でもあるいは4個以上にすることも可能であり、それぞれの数に相当する標本深さの検査領域を同時に撮像することができる。
【0034】
さて次に、細胞検査システムについて説明する。まず演算処理部651は、それぞれ記憶部653に記憶した、3つの標本深さの層601a、601b、601cにおける全検査領域の画像データ32a〜32cを、画像作成部門3の記憶部653に記憶すると共に、大容量記録媒体であるDVDに記録する。そして、このDVDは、検査部門4と、診断部門5に送付され、それぞれ端末41、51を介して記憶部42、52に記憶される。これにより、検査対象となる細胞や組織について、標本深さの異なる層601a、601b、601cにおける全検査領域の同一画像データ42a〜42c、52a〜52cが、検査部門4と診断部門5の端末41、51にも、存在することとなる。
【0035】
ここで各部門毎に記憶部653,42,52を備え、細胞や組織の全撮像領域の画像データを記録させた理由は、この画像データが、標本毎に1Gバイト程度またはそれ以上の膨大な容量となるためである。すなわち、この画像データを1つの共通サーバ等に記録しておき、各部門の端末から、データ伝送媒体を利用してアクセスやダウンロード等させるシステムも考えられるが、画像のデータ容量が大きすぎるため、現在の伝送速度では、送受信に時間が掛かりすぎて実用に適さないからである。
【0036】
そこでまず検査部門4では、記憶部42に記憶した画像データ42a〜42cから、細胞や組織の3つの層の中から所望の層の所定の平面領域の画像を端末41に表示させ、悪性細胞や悪性を考慮すべき細胞の有無を検査する。画像データ42a〜42cは端末41の第1の画像表示手段としての表示手段41aで表示可能な面積よりも広い面積の画像データであるため、端末41で表示させるには、所望の層の画像データから表示させる所定の平面領域を指定することになる。
【0037】
そして悪性細胞や悪性を考慮すべき細胞があれば、その範囲を表示画面上で特定する。この特定方法としては、表示画面上で、その細胞が見られる範囲を、枠線や色分けで区分するもの、表示画像中に矢印や記号やコメントを挿入するものが準備されている。
【0038】
複数の部門で同時に検査等をする場合はまず、検査部門4と診断部門5と画像作成部門3との間を電話回線等の公衆回線やインターネット専用回線等のデータ伝送媒体により通信可能状態とする。検査部門4の作業者が端末41を操作し、端末41に表示すべき層画像例えば42aを選択する。端末41は、選択された層画像を指定する標本深さ情報を第1条件として設定する。そして、端末41は設定された層画像42aの全体のサムネイル(縮小画像)を表示手段41aに表示する。
【0039】
作業者はそこから縮小ではない画像を表示すべき所望の平面領域を選択する。端末41は、この選択された平面領域を指定する座標情報等を第2条件として設定する。そして、端末41の演算処理部は、他の層画像データ42b、42cからも指定された平面領域に対応した位置の平面領域に相当する画像データを抽出する。そして、この各層画像データ42a〜42cから抽出された各平面領域の画像データをひとまとまりのものとして演算処理部は画像処理装置内にある画像保存メモリに記憶する。その後、端末41は、第1条件と第2条件とを用い記憶部42に記憶されている画像データから層画像データ42aを選択し、そこから選択された平面領域に相当する画像データを抽出し、表示手段41aに選択された平面領域の画像を表示させる。第1条件や第2条件は選択された平面領域の層画像データと違い、非常に小さなデータ量であるため、データ伝送媒体により送受信しても通信に時間がかかることはない。
【0040】
同時に端末41は、送信手段によりデータ伝送媒体を介して画像作成部門3と診断部門5との端末605、51に第1条件および第2条件を送信する。端末605、51は、受信した第1条件および第2条件とを用い記憶部653、52に記憶されている対応画像データから層画像データ32a、52aを選択し、そこから選択された平面領域に相当する画像データを抽出し、第2の画像表示手段としての表示手段652,51aに端末41に表示した画像に対応した対応画像を表示させる。もちろんこのとき、端末605、51も端末41と同様に、端末605、51の各演算処理部は、他の層画像データ32b、32c又は52b、52cから指定された平面領域に対応した位置の平面領域に相当する画像データを抽出する。そして、この各層画像データ32a〜32c又は52a〜52cから抽出された各平面領域の画像データをひとまとまりのものとして各演算処理部は画像処理装置内にある画像保存メモリに記憶している。
【0041】
以上により、第1条件と第2条件の2つの条件をデータ伝送媒体により送受信するだけで、検査部門4の端末41と画像作成部門3の端末605および診断部門5の端末51には同じ画像が表示されることとなる。
【0042】
そして、検査部門4の作業者が端末41に表示されている画像上に、マウスやキーボード等の入力装置から枠線や色分けで区分したり、表示画像中に矢印や記号やコメントを挿入する指標を表示すると、端末41は、その指標の種類や座標等を表す情報を第3条件として設定する。この第3条件も第1,2条件と同様に選択された平面領域の層画像データに比べるとデータ量が少なく通信に時間がかかることはない。そして同時に端末41は、送信手段によりデータ伝送媒体を介して画像作成部門3の端末605と診断部門5の端末51とに第3条件を送信する。端末605、51は、受信した第3条件を用い指標を表示手段652,51aに表示する。このため、端末605、51の表示手段652,51aにも端末41に表示される指標に対応した指標が表示される。
【0043】
このため、検査部門4と画像作成部門3と診断部門5とがデータ伝送媒体を介して第1〜3条件という少ないデータ量を送受信するのみで、広大な撮像領域を持つ画像の中の同じ平面領域を見ながら検討することが可能となり、例えば診断部門5では、悪性細胞を探す手間を必要としない。また、検査部門4で特定された悪性細胞や悪性を考慮すべき細胞以外においても、診断部門5で別に悪性を考慮すべき細胞を発見したり、さらに高倍率の撮像データ等が必要な場合には、診断部門5の作業者が端末51の表示画面上でその位置を特定したり、撮像条件の指示を付記すれば、すでに上記端末41で説明したことと同様に端末51がデータ伝送媒体を介して、第1〜3条件を検査部門4と画像作成部門3の端末605、41に送信し、その特定範囲や撮像条件等が直ちに表示され、その表示された指示に従って、迅速かつ的確に処理を行うことが可能になる。
【0044】
そして、例えば検査部門4の作業者が、現在表示されている画像の焦点が合っている部分のみでは、悪性細胞か判断がつかず、焦点が合っていない焦点ぼけしている部分を焦点の合っている別の標本深さの層画像で見たい場合、作業者が焦点の合っている別の標本深さの層の画像を端末41に指定すると、端末41の演算処理部は、表示している平面領域に対応する別の層画像データを画像保存メモリに記憶しているので、第1条件を変更するだけで全撮像領域から新たに対応する平面領域を抽出する必要なしにすぐに別な層画像を表示することができる。つまり、作業者が、現在表示されている層画像42aから42bに表示を切り換えたい場合、例えば作業者が層画像42bを選択すると、端末41は、選択された層画像を指定する標本深さ情報を第1条件として再設定し、表示手段41aに画像保存メモリの抽出された層画像42bを表示する。そして、端末41が他の端末605、51に変更した第1条件のみを送信するだけで、他の端末にも端末41と同じ変更された層画像が画像保存メモリから抽出され直ちに表示されることになる。
【0045】
上記実施例では、3部門で同時に同じ画像を見て検討をしていたが、これに限らず、2部門のみや4部門以上で同様に同じ画像を見ながら検討をしてもよい。このように、データ伝送媒体を介して、情報や意見の交換を行うことができるので、あたかも各部門が一堂に会したように、極めて的確な標本検査を効率的に行うことが可能になる。また本発明は、単に細胞や組織に限らず、血液やバクテリア等の標本検査にも利用できる。また、上記実施例では、各層の抽出画像を択一的に表示手段652に表示する構成としたが、これに限らず、各層の抽出画像の複数の組み合わせを同時的に表示手段652に表示するようにしてもよい。例えば、抽出された2つ以上の標本深さの画像を重畳して表示してもよく、また、抽出された2つ以上の画像を並列的に表示手段652に表示させてもよい。この場合、平面領域を画面の大きさの半分以下にすれば、2つ以上の画像を並列的に表示手段に表示させることができる。このようにすると、表示手段652に2つ以上の画像を表示するので、立体的に認識しやすくなり検査がよりしやすくなる。また、顕微鏡装置のラインセンサも3本に限らず、1本でもそれ以上でもよい。
【0046】
【発明の効果】
標本深さの異なる複数の層画像データを迅速に表示手段に表示させることができる。また、複数の画像を並列的に又は重畳して表示すれば、立体的に認識しやすくなる。
【図面の簡単な説明】
【図1】検査システムの全体構成図である。
【図2】顕微鏡装置の構成である。
【図3】顕微鏡装置の他の構成図である。
【図4】光学レンズの構成図である。
【図5】光学レンズの他の構成図である。
【図6】ラインセンサと収差補正レンズの拡大正面図である。
【図7】ライン画像の撮像手順の説明図である。
【図8】ラインセンサの撮像に関する説明である。
【符号の説明】
601 標本
602 顕微鏡
631 ラインセンサ(電子撮像装置)
651 演算処理部(画像処理装置)
652 表示手段
653 記憶部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a processing method and a specimen inspection system for specimen image data captured for each of a plurality of layers having different specimen depths.
[0002]
[Prior art]
In medical institutions such as hospitals and research laboratories in universities, specimen inspection of cells and tissues with a microscope is frequently performed. By the way, the specimen inspection requires a great amount of labor and burden since the inspection is performed in a state where a vast number of cells are enlarged by a microscope and become a vast inspection area. Therefore, in specimen inspection of cells and tissues, in order to improve the overall efficiency of the inspection, the presence or absence of malignant cells is examined with a microscope or the like, and if malignant cells are found, the part is imaged. There is a division of labor between an inspection department specified by marking and the like and a diagnostic department that performs medical diagnosis on the specified part. In recent years, data transmission media such as public lines such as telephone lines and dedicated Internet lines have begun to be used as connections between divisional divisions, and sample images are converted into data using data transmission media. It comes to communicate with. For this reason, the applicant of the present application, for example, takes a sample of a cell or tissue magnified with a microscope as a line image with a line sensor as a method for converting the sample image into data, and the line image is processed by computer image processing. Means for quickly creating a clear captured image of the entire large area has been proposed (Japanese Patent Application Nos. 2002-097495, 2002-097497, 2002-097498, and 2002-097499). .
[0003]
[Problems to be solved by the invention]
However, in specimen inspection of cells, tissues, etc., it is not always possible to determine malignant cells or cells that should be considered malignant by observing only the specimen depth plane at a certain focal position. In many cases, the cell shape cannot be determined without observing the shape of the cell. Therefore, in order to accurately inspect cells and tissues, it is important to inspect cells and tissues in three dimensions by changing the focal position of the microscope.
[0004]
However, in the invention according to the application described above, although a clear image can be quickly created for a large imaging region, the captured image is displayed on a display unit such as a monitor because the image has a large imaging region. It is impossible to display everything at full size. Also, when multiple images with different sample depths are prepared, one image has a vast imaging area, so it is difficult to quickly display an image with a large amount of image data and another sample depth. there were.
[0005]
Accordingly, an object of the present invention is to provide a sample image data processing method and a sample inspection system capable of quickly displaying image data of a plurality of layers having different sample depths.
[0006]
[Means for Solving the Problems]
In order to solve the above problems, a sample image data processing method according to the present invention includes: In specimen inspection that displays image data of multiple layers with different specimen depths and inspects cells, tissues, etc. three-dimensionally, In the specimen inspection area, plural Line images for multiple layers with different specimen depths via line sensors at the same time A step of imaging, a step of synthesizing the line images to generate and record the sample image data for each layer for the entire inspection region, a step of designating a plane region to be extracted from each sample image data, The image data for each layer in the designated plane area is extracted from the sample image data for each layer for the entire inspection area. As a group Memorizing process and The step of extracting the image of the selected layer of the plane area from the image data for each layer of the plane area stored as a unit and displaying it on the display means The sample image data processing method includes: Moreover, the specimen inspection system according to the present invention includes: A specimen inspection system that displays image data of a plurality of layers with different specimen depths and inspects cells, tissues, etc. in a three-dimensional manner, In the specimen inspection area, means for simultaneously capturing line images for a plurality of layers having different specimen depths via a plurality of line sensors, and the specimen for each layer for the entire inspection area by synthesizing the line images Means for generating and recording image data; means for designating a plane area to be extracted from each specimen image data; and image data for each layer of the designated plane area for the entire inspection area. Extracted from each sample image data As a group Means for storing and above Remembered as a unit Based on the image data for each layer of the planar region, the specimen inspection system includes an image processing apparatus that alternatively displays an image for each layer of the planar region or a combination thereof on the display means. . In addition, preferably, when displaying an image for each layer of the planar area, it is preferable that a plurality of selected extracted images can be displayed in parallel or superimposed.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described based on examples with reference to the drawings. The specimen inspection system shown in FIG. 1 is a cytological specimen inspection system provided with a terminal 605 of the image creation department 3, a terminal 41 of the examination department 4, and a terminal 51 of the diagnosis department 5. Each terminal can transmit and receive data through a data transmission medium such as a public line such as a telephone line or a dedicated Internet line. Here, in the image creation department 3, a cell or tissue as a specimen is magnified and imaged by the microscope device 6 to create an image, and the examination department 4 identifies malignant cells or cells that should be considered malignant from this image. In the diagnosis department 5, the identified cell is diagnosed. The terminals 605, 41, and 51 have storage units 653, 42, and 52, respectively. In these storage units, cells and tissues captured for each of the three layers having different specimen depths (focal positions) are stored. Image data 32a to 32c, 42a to 42c, and 52a to 52c are stored. The specimen depth here indicates a difference in focal position in the specimen depth direction when the microscope apparatus 6 images the specimen. That is, in the three layers described above, the layer 32a is the uppermost layer closest to the objective lens, the layer 32c is the lowermost layer farthest from the objective lens, and the layer 32b is an intermediate layer between the layers 32a and 32c. .
[0008]
Next, a procedure for creating image data of cells and tissues in the image creation department 3 will be described with reference to FIGS. First, the procedure for creating the image data will be outlined. The positions at which the three specimen depths of the cells and tissues of the specimen 601 are different from each other are imaged simultaneously on line sensors 631a, 631b, and 631c, which are electronic imaging devices arranged at different heights from the specimen 601. In the present embodiment, as shown in FIG. 4, the line sensors 631 a, 631 b, 631 c are arranged in a stepped manner to make the height different from that of the sample 601. The three line sensors 631a, 631b, and 631c read images having three different sample depths as line image data. Then, the specimen 601 is horizontally moved by the moving means 604 shown in FIGS. 2 to 4, and this line image data is stored in the storage unit 651 by the terminal 605 shown in FIG. Next, the arithmetic processing unit 651 in the image processing apparatus generates image data for each of the three layers having different specimen depths of the specimen 601 from the recorded line image. This will be described in detail below.
[0009]
First, an overall configuration of the microscope 602 will be outlined with reference to FIGS. 2 and 3. The microscope 602 used in the embodiment of the present invention is an optical microscope. In the examination of cells and tissues, it may be difficult to judge malignant cells only by looking at the in-focus part, and pay attention to the part that is blurred (not in focus). There are things to do. When an image is taken with a microscope 602 which is an optical microscope, this out-of-focus information can be left as image data, which is suitable for examination of cells and tissues. The microscope 602 includes an optical lens including a lens barrel 625, a visual observation eyepiece 623 attached to the lens barrel, a two-dimensional CCD sensor unit 627 that captures a certain two-dimensional extent of the sample 601, an objective lens 621, and the like. It has. The lens barrel 625 is supported by an L-shaped gantry 606 via a rack and pinion mechanism 661 that moves the lens barrel up and down. An optical fiber 607 for introducing light from a halogen lamp (not shown) provided outside is connected to the lower part of the L-shaped gantry 606 in order to irradiate the specimen 601 from the back surface.
[0010]
As shown in FIG. 4, the optical lens includes an objective lens 621 composed of a composite lens composed of two lenses 621a and 621b, and three line sensors 631a arranged parallel to each other at different heights. It is composed of three saddle-shaped aberration correction lenses 622a, 622b, and 622c installed for each of 631b and 631c. The aberration correction lenses 622a, 622b, and 622c are located at positions shifted from each other in the X-axis direction by the distance between the line sensor elements as shown by the broken line, the solid line, and the one-dot broken line in FIG. These layers (surface layer 601b, intermediate layer 601b, lower layer 601c) are formed in optical shapes so as to form images on line sensors 631a, 631b, and 631c, respectively. Note that three objective lenses 621 having different magnifications are attached to the revolver 624, and can be manually switched with each other.
[0011]
As shown in FIG. 4, the three line sensors 631a, 631b, 631c and the aberration correction lenses 622a, 622b, 622c are housed in a camera case 632, which is shown in FIG. In this manner, the microscope 602 is detachably attached to the tip of the barrel 625. In addition, the shape of this attachment part employ | adopts F mount which is the standard attachment shape of a single-lens reflex camera about a lens attachment part. The line sensor 631a and the like are configured by arranging 4000 charge coupled devices each having a side of 7 μm in a straight line. Accordingly, when the imaging magnification is 100 times, a range of 7 μm ÷ 100 = 0.07 μm in width and 7 μm × 4000 pieces / 100 = 0.28 mm in length can be captured at a time.
[0012]
A moving means 604 is installed on the horizontal portion of the L-shaped frame 606. The moving means 604 includes a tilting table 642 on which the specimen 601 is placed, and a linear motor 641 that horizontally moves the tilting table in the left-right and front-back directions. The linear motor 641 is a known technique in which an armature moves on a permanent magnet arranged in a strip shape, and can be driven at high speed, high responsiveness, and highly accurate positioning. The linear motor 641 is remotely controlled by a computer as will be described later, and moves the sample 601 to a predetermined position.
[0013]
The tilting table 642 is a flat table that is supported at three points by three ultrasonic motors 642a arranged so as to form an equilateral triangle in plan view and a vertical output shaft 642c of the ultrasonic motor. It is comprised from the part 642d and the fixing member 642b which fixes the mutual position of this ultrasonic motor. The tip of the vertical output shaft 642c is in contact with a recess formed on the back surface of the table portion 642d so that the horizontal positions of the vertical output shaft 642c do not shift.
[0014]
The ultrasonic motor 642a is a known technique, and an elastic member is placed on a piezoelectric ceramic that deforms when a voltage is applied, and a voltage in an ultrasonic region is applied to the piezoelectric ceramic to generate a bending vibration in the elastic member. This rotates the output shaft, and has characteristics such as high responsiveness and controllability and low operating noise. In the ultrasonic motor 642a used here, the output shaft 642c has a screw structure, and this output shaft rotates to move up and down. The tilting table 642 adjusts the inclination and focal length of the sample 601 according to instructions from the computer.
[0015]
The lamp unit 626 accommodates a halogen lamp (not shown), and the light from the halogen lamp is bent at a right angle along the optical axis of the microscope 602 by a half mirror and applied to the specimen 601. The reflected light from this specimen is enhanced to obtain a clear image. The lamp unit 626 that is the epi-illumination light source is used when the specimen 601 is a substance having low light transmittance. Further, an optical fiber 607 for introducing light from a halogen lamp (not shown) provided externally as a transmissive light source so as to be irradiated from the back surface of the specimen 601 is connected to the lower portion of the L-shaped frame 606. . When viewing a light-transmitting object such as a cell or tissue, the light source from here is often used as the main light source. In this embodiment, the light is irradiated from the back surface of the specimen 601.
[0016]
In the two-dimensional CCD sensor unit 627, a two-dimensional CCD sensor (not shown) capable of capturing a two-dimensional extent to some extent is provided. That is, in the cell examination, it may be necessary to display an image magnified by the microscope 602 directly on the display means and confirm a specific part or range where malignant cells are present while viewing this display screen. . However, when the image sensor is only the line sensor 631a or the like, the line image that can be captured at a time is extremely narrow, and therefore, while viewing the display screen of the narrow line image, the specific region or range where malignant cells are present It is difficult to confirm. On the other hand, a two-dimensional CCD sensor that can image a two-dimensional extent to some extent is provided, and it is easy to confirm a specific part or range such as a cell or tissue while viewing the display screen. Therefore, by providing a two-dimensional CCD sensor, a specific part or range in the sample 601 can be easily confirmed.
[0017]
This two-dimensional CCD sensor is a flat-type arrangement of 600 × 600 = about 350,000 charge-coupled devices having a side of 21 μm, which is used in a general CCD camera. Is imaged through a half mirror.
[0018]
The terminal 605 uses a commercially available computer, a so-called personal computer, and includes an arithmetic processing unit 651, a display unit 652, and a storage unit 653 that stores line image data. The arithmetic processing unit 651 is provided in the image processing apparatus and, as will be described later, is a line based on the setting of the imaging region of the sample 601, the movement of the moving unit 604, and the amount of movement fed back from the encoder of the moving unit. An imaging execution instruction from the sensor 631a and the like, capturing of line image data captured by the line sensor, and synthesis of the line image data to create an overall planar image of the imaging region.
[0019]
Next, a procedure for creating cell and tissue image data 32a to 32c using the above-described components will be described. As shown in FIG. 2, first, a specimen 601 in which a cell or tissue piece to be examined is sandwiched between a slide glass and a cover glass is set on the upper surface of the table portion 642d of the tilting table 642 so as not to move. The sample is fixed to the table portion 642d by suction or the like by vacuum means or the like. Next, as shown in FIG. 7, the inspection area 611 of the sample 601 is set by input from the input means of the personal computer.
[0020]
The reason for setting the inspection area 611 is to set the start point 611a and the end point 611b of the line image picked up sequentially by the line sensor 631a and the like as will be described later. The setting of the inspection area 611 requires a picked-up image having a certain two-dimensional extent, so that picked-up data from the two-dimensional CCD sensor is displayed on the display means 652 of the terminal 605 and the display screen is displayed. While moving, the moving means 604 is moved and adjusted in the XY directions. Accordingly, the XY coordinates of the diagonal positions 611a and 611b are stored in the arithmetic processing unit 651 as information corresponding to the movement start point and end point position of the linear motor 641 of the moving unit 604. Therefore, as will be described later, when imaging is performed by the line sensor 631a or the like, the linear motor 641 is moved from the inner position 611a that is the first imaging position to the horizontal direction that is the last imaging position in accordance with an instruction from the arithmetic processing unit 651. Move sequentially to position 611b.
[0021]
When setting the inspection region 611, the focal length and inclination of the sample 601 are adjusted simultaneously. That is, when setting the inspection area 611, first, at the start position 611a, while focusing on the surface layer 601a of the sample 601 while viewing the display image from the two-dimensional CCD sensor displayed on the display means 652, the linear motor 641 is moved in the X-axis direction to focus at the right end position of the inspection region 611. Then, the tilt in the X-axis direction is calculated from this focal position shift, and the tilt of the tilting table 642 is adjusted. Then, the focus is adjusted at the upper right position 611b of the inspection area 611 by the same means, and the inclination in the Y-axis direction is adjusted.
[0022]
Here, if the focal position of the two-dimensional CCD sensor and the focal position of the line sensor 631a for imaging the surface layer 601a of the sample 601 coincide with each other, the focal point of the line sensor 631a immediately follows the surface layer 601a of the sample. Can be combined. The other line sensors 631b and 631c are designed so that the aberration correction lenses 622a, 622b and 622c are focused on the respective focal depths simultaneously with the line sensor 631a. At the combined stage, all three line sensors are in focus.
[0023]
Next, a procedure for imaging the sample 601 with the line sensor 631a and the like will be described with reference to FIGS. This imaging is controlled by a program built in the arithmetic processing unit 651. First, the arithmetic processing unit 651 sets inspection positions j = 0 and k = 0 by the encoder, and recognizes the inspection positions as coordinates X = 0 and Y = 0. Then, the sample 601 is moved to the XY coordinate (0, 0) position by the linear motor 641. This XY coordinate (0, 0) position is the lower left corner 611a of the inspection area 611 shown in FIG. 7, and this point is the starting point for starting imaging. In FIG. 8, the line sensor 631a is located at the position (a) and overlaps the lower left corner 611a.
[0024]
When the start point of the imaging position is set at the position of the lower left corner 611a of the inspection area 611, the arithmetic processing unit 651 sets the movement amount dx on the X axis, and the line sensors 631a and 631b at the inspection position (0, 0). , 631c are stored in the storage unit 653, and the movement of the linear motor 641 is started at a constant speed in the X-axis direction. (FIGS. 8A to 8C) The moving amount of the moving unit 604 is measured by an encoder, and the data is sent to the arithmetic processing unit 651. Then, when the arithmetic processing unit 651 determines that the inspection area 611 has been moved in the X-axis direction by one measurement width such as the line sensor 631a by the moving unit 604, the second inspection position X = 1dx, Y = A line image from this line sensor at 0, that is, at coordinates (1dx, 0) is stored in the storage unit 653.
[0025]
Then, each time one line image is recorded, the arithmetic processing unit 651 adds 1 to k, the linear motor 642 moves in the X-axis direction at a constant speed, and the inspection position is in the inspection region 611 shown in FIG. Up to the lower right corner (corresponding to the movements of (d) to (f) in FIG. 8), the line image is sequentially stored in the storage unit 653 for the range of one column of the length L in the X-axis direction.
[0026]
When the capturing of the imaging at the bottom of the inspection area 611, that is, the Y-axis coordinate = 0 is completed, the arithmetic processing unit 651 sets j = 1 in the encoder, and the inspection position X = L, Y = 1dy, that is, the XY coordinate. The inspection position is moved by the linear motor 641 to the (L, 1dy) position. This position is a position which is right by L in the X-axis direction from the lower left corner 611a of the inspection region 611 shown in FIG. 7 and moved in the Y-axis direction by the length of the line sensor 631a and the like. Then, at the position of Y = 1dy, line images are sequentially captured from the right end to the left end of the inspection area 611.
[0027]
In this way, at the moment when the line sensor 631a or the like moves to a new imaging range while changing the scanning direction of the line sensor 631a or the like from right to left or from left to right, the arithmetic processing unit 651 The line images are sequentially recorded in the storage unit 653 along with the measurement coordinates. When J> n is reached, the arithmetic processing unit 651 determines that the entire region of the inspection region 611 has been imaged, and synthesizes the recorded line images to create three different sample depth layers 601a, 601b, The planar image data of all the inspection areas in 601c are stored as layer image data 32a, 32b, and 32c in the storage unit 653, respectively.
[0028]
Note that the arithmetic processing unit 651 adds the XY coordinates in the inspection region 611 and the sample depth, that is, the Z-axis coordinates, to each captured line image data when imaging with the line sensor 631a or the like. That is, as shown in FIG. 4, the layers 601a, 601b, and 601c having different sample depths simultaneously imaged by the line sensors 631a, 631b, and 631c are shifted from each other by the line sensor elements in the X-axis direction. When the line image captured by the line sensor 631a is used as a reference, the amount of X of the coordinates of the line image captured by the line sensor 631b is added to this amount, and the X coordinate value is added by shifting by one element. Is done. Further, the X value of the coordinates of the line image captured by the line sensor 631c is further shifted by one element. The layers 601a, 601b, and 601c are displaced from each other by the height at which the line sensor is provided in the Z-axis direction. This amount of deviation is determined by the line sensor 631b when the line image captured by the line sensor 631a is used as a reference. This shift amount is added to the Z value of the coordinates of the line image to be captured, and the Z coordinate value is added with a shift of one height. Further, the Z value of the coordinates of the line image picked up by the line sensor 631c is further shifted by one height. As described above, when each line image is captured by the arithmetic processing unit 651 of the terminal 605, the XYZ coordinates of the imaging positions in the entire examination region 611 of the sample 601 are added to the line image data.
[0029]
In addition, the line sensors 631a to 631c may be imaged by keeping all line sensors in the imaging state as described above, or corresponding to the end portions of the sample ((a) to (c) in FIG. 8). In FIG. 8A, the image is picked up by only the line sensor 631c, in FIG. 8B, the image is picked up by the line sensors 631c and 631b, and from FIG. 8C, the image is picked up by all the line sensors. At the other end of the specimen (corresponding to (d) to (f) in FIG. 8), all line sensors up to FIG. 8 (d) are imaged, and in FIG. 8 (e), the line sensor 631b is captured. And 631a, and in FIG. 8F, the arithmetic processing unit 651 may control the image so that only the line sensor 631a captures the image. That is, if the line sensor that captures the position where the sample does not exist is controlled so as not to capture the image, the image data of the place where the sample does not exist can be eliminated from the image data.
[0030]
Next, a method for displaying the image data 32a to 32c of all the inspection areas on the display means 652 will be described. A layer image to be displayed on the terminal 605, for example, 32a is selected. The arithmetic processing unit 651 of the terminal 605 displays thumbnails (reduced images) of the entire region of the selected layer image 32a on the display unit 652. When a desired plane area on which an image that is not reduced is to be displayed is designated on the thumbnail, the arithmetic processing unit 651 selects the layer image data 32a from the image data stored in the storage unit 653, and from there Extract image data corresponding to the specified plane area. Then, the arithmetic processing unit 651 extracts image data corresponding to the planar area at a position corresponding to the designated planar area from the other layer image data 32b and 32c. The arithmetic processing unit 651 stores the image data of each planar area extracted from each of the layer image data 32a to 32c as a group into an image storage memory in the image processing apparatus. Thereafter, the arithmetic processing unit 651 causes the display unit 652 to display an image of the designated plane area of the selected layer image 32a.
[0031]
In this way, the arithmetic processing unit 651 extracts each layer image data of the planar area displayed on the display unit 652 and stores it separately in the image storage memory, so that the operator can see the displayed layer image. If you want to focus on the part that is not in focus and blurry, or if you want to see another layer image of the sample depth that is in a different position from the displayed layer image, Other layer images can be displayed on the display device 652 without taking time using image data stored separately in the image storage memory. For this reason, the operator uses the terminal 605 alone and looks at the eyepiece 623 of the microscope 602, as if observing the sample depth at the three focal positions, and the arbitrary one designated on the display unit 652 An image of a planar area can be displayed. In other words, the image processing unit 651 stores each layer image data corresponding to the extracted plane area separately, so that the field of view viewed with the microscope can be virtually reproduced only by the terminal 605.
[0032]
As shown in FIG. 4, not only when the aberration correction lens 622a is provided for each line sensor 631a, etc., but also as shown in FIG. 5, the aberration correction has a plurality of (three in the embodiment) curvature radii. Layers 701a, 701b, and 701c having different specimen depths may be formed on the line sensors 731a, 731b, and 731c by the lens 722. Further, the configuration of the line sensor 631a and the like is not limited to the case where 4000 CCDs are arranged one by one, and several pieces may be arranged longer. Further, the smaller the size of each CCD constituting the line sensor 631a and the like, the better the resolution of the image. However, when a large size CCD is used, the resolution can be increased by increasing the imaging magnification. A good image can be taken.
[0033]
The focus position and tilt adjustment of the specimen 601 is not manually performed as described above, but is automated by incorporating focusing means having laser projection means into the microscope 602 and moving the tilting table 642 based on instructions from the computer. It is also easy to do. Further, the number of line sensors 631a and the like is not limited to three as described above, and may be two or four or more, and simultaneously image an inspection region having a sample depth corresponding to each number. can do.
[0034]
Next, the cell inspection system will be described. First, the arithmetic processing unit 651 stores, in the storage unit 653 of the image creation department 3, the image data 32a to 32c of all the examination regions in the three sample depth layers 601a, 601b, and 601c, respectively stored in the storage unit 653. At the same time, it is recorded on a DVD which is a large capacity recording medium. This DVD is sent to the examination department 4 and the diagnosis department 5 and stored in the storage units 42 and 52 via the terminals 41 and 51, respectively. As a result, the same image data 42a to 42c and 52a to 52c of all examination regions in the layers 601a, 601b, and 601c having different specimen depths for the cells and tissues to be examined are the terminals 41 of the examination department 4 and the diagnosis department 5. , 51 also exist.
[0035]
Here, the reason is that the storage units 653, 42, and 52 are provided for each department, and the image data of all the imaging regions of the cells and tissues are recorded. This image data is an enormous amount of about 1 Gbyte or more for each specimen. This is because it becomes capacity. That is, a system in which this image data is recorded on one common server and accessed from a terminal of each department using a data transmission medium is also conceivable, but the data capacity of the image is too large. This is because at the current transmission rate, transmission / reception takes too much time and is not suitable for practical use.
[0036]
Therefore, the examination department 4 first displays an image of a predetermined plane area of a desired layer among the three layers of cells and tissues from the image data 42a to 42c stored in the storage unit 42, and displays malignant cells and Check for cells that should be considered malignant. Since the image data 42a to 42c is image data having an area larger than the area that can be displayed by the display means 41a as the first image display means of the terminal 41, the image data of a desired layer is displayed on the terminal 41. A predetermined plane area to be displayed is designated.
[0037]
If there are malignant cells or cells that should be considered malignant, the range is specified on the display screen. As the specifying method, there are prepared a method in which the range in which the cell can be seen on the display screen is divided by a frame line or color coding, and a method in which an arrow, a symbol, or a comment is inserted in the display image.
[0038]
When performing inspections in a plurality of departments at the same time, first, the inspection department 4, the diagnostic department 5, and the image creation department 3 are made communicable by a data transmission medium such as a public line such as a telephone line or a dedicated Internet line. . An operator of the inspection department 4 operates the terminal 41 to select a layer image to be displayed on the terminal 41, for example, 42a. The terminal 41 sets the sample depth information specifying the selected layer image as the first condition. Then, the terminal 41 displays the entire thumbnail (reduced image) of the set layer image 42a on the display means 41a.
[0039]
The operator selects a desired planar area from which an image that is not reduced is to be displayed. The terminal 41 sets coordinate information or the like specifying the selected plane area as the second condition. Then, the arithmetic processing unit of the terminal 41 extracts image data corresponding to the planar area at a position corresponding to the designated planar area from the other layer image data 42b and 42c. Then, the arithmetic processing unit stores the image data of each planar area extracted from each of the layer image data 42a to 42c as a group in an image storage memory in the image processing apparatus. Thereafter, the terminal 41 selects the layer image data 42a from the image data stored in the storage unit 42 using the first condition and the second condition, and extracts the image data corresponding to the selected planar area from there. Then, the image of the selected planar area is displayed on the display means 41a. Unlike the layer image data of the selected planar area, the first condition and the second condition have a very small amount of data, so that communication does not take time even if data is transmitted and received.
[0040]
At the same time, the terminal 41 transmits the first condition and the second condition to the terminals 605 and 51 of the image creation department 3 and the diagnosis department 5 through the data transmission medium by the transmission means. The terminals 605 and 51 use the received first condition and second condition to select the layer image data 32a and 52a from the corresponding image data stored in the storage units 653 and 52, and then select the plane area selected therefrom. Corresponding image data is extracted, and a corresponding image corresponding to the image displayed on the terminal 41 is displayed on the display means 652 and 51a as the second image display means. Of course, at this time, similarly to the terminal 41, the calculation processing units of the terminals 605 and 51 each have a plane corresponding to the plane area designated by the other layer image data 32b, 32c or 52b, 52c. Image data corresponding to the region is extracted. Each arithmetic processing unit stores the image data of each planar area extracted from each of the layer image data 32a to 32c or 52a to 52c as a group and stored in an image storage memory in the image processing apparatus.
[0041]
As described above, the same image is displayed on the terminal 41 of the examination department 4, the terminal 605 of the image creation department 3, and the terminal 51 of the diagnostic department 5 only by transmitting and receiving two conditions of the first condition and the second condition by the data transmission medium. Will be displayed.
[0042]
Then, an index for an operator of the inspection department 4 to classify the image displayed on the terminal 41 by a frame line or color coding from an input device such as a mouse or a keyboard, or to insert an arrow, a symbol, or a comment in the display image Is displayed, the terminal 41 sets information indicating the type and coordinates of the index as the third condition. Similar to the first and second conditions, the third condition has a smaller data amount and does not take longer to communicate than the layer image data of the selected planar region. At the same time, the terminal 41 transmits the third condition to the terminal 605 of the image creation department 3 and the terminal 51 of the diagnosis department 5 via the data transmission medium by the transmission means. The terminals 605 and 51 display the indicator on the display means 652 and 51a using the received third condition. For this reason, the indicator corresponding to the indicator displayed on the terminal 41 is also displayed on the display means 652 and 51a of the terminals 605 and 51.
[0043]
Therefore, the examination plane 4, the image creation department 3, and the diagnosis department 5 only transmit and receive a small amount of data of the first to third conditions via the data transmission medium, and the same plane in an image having a vast imaging area. For example, the diagnosis department 5 does not need to search for malignant cells. In addition to malignant cells identified in the examination department 4 or cells other than those that should be considered malignant, cells that should be considered malignant in the diagnosis department 5 are required, or when high-magnification imaging data is required. If the operator of the diagnosis department 5 specifies the position on the display screen of the terminal 51 or adds an instruction for the imaging condition, the terminal 51 selects the data transmission medium in the same manner as described above for the terminal 41. The first to third conditions are transmitted to the terminals 605 and 41 of the examination department 4 and the image creation department 3, and the specific range, imaging conditions, etc. are immediately displayed, and processed promptly and accurately according to the displayed instructions. It becomes possible to do.
[0044]
Then, for example, the operator of the examination department 4 cannot determine whether it is a malignant cell only in a portion where the currently displayed image is in focus, and focus on a portion that is out of focus and is out of focus. When an operator wants to view a layer image of another sample depth, the operator designates the layer image of another sample depth in focus on the terminal 41, and the arithmetic processing unit of the terminal 41 displays the image. Since another layer image data corresponding to the plane area is stored in the image storage memory, it is possible to immediately change the first condition without having to extract a corresponding plane area from all the imaging areas. A layer image can be displayed. That is, when the worker wants to switch the display from the currently displayed layer image 42a to 42b, for example, when the worker selects the layer image 42b, the terminal 41 displays the sample depth information for designating the selected layer image. Are set as the first condition, and the extracted layer image 42b of the image storage memory is displayed on the display means 41a. Then, by transmitting only the changed first condition to the other terminals 605 and 51, the same modified layer image as the terminal 41 is extracted from the image storage memory and displayed immediately on the other terminals. become.
[0045]
In the above-described embodiment, the same image is simultaneously examined in three departments. However, the present invention is not limited to this, and the examination may be performed while viewing the same image in only two departments or four or more departments. As described above, since information and opinions can be exchanged via the data transmission medium, it is possible to perform highly accurate specimen inspection efficiently as if each department met together. The present invention is not limited to cells and tissues, but can be used for specimen inspection of blood, bacteria, and the like. In the above embodiment, the extracted image of each layer is alternatively displayed on the display unit 652. However, the present invention is not limited to this, and a plurality of combinations of the extracted images of each layer are simultaneously displayed on the display unit 652. You may do it. For example, two or more extracted sample depth images may be superimposed and displayed, or the two or more extracted images may be displayed on the display unit 652 in parallel. In this case, two or more images can be displayed in parallel on the display means if the plane area is made half or less of the screen size. In this way, since two or more images are displayed on the display means 652, it is easy to recognize three-dimensionally and the inspection becomes easier. Further, the number of line sensors of the microscope apparatus is not limited to three, and may be one or more.
[0046]
【The invention's effect】
A plurality of layer image data having different sample depths can be quickly displayed on the display means. Further, if a plurality of images are displayed in parallel or superimposed, it becomes easier to recognize in three dimensions.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram of an inspection system.
FIG. 2 is a configuration of a microscope apparatus.
FIG. 3 is another configuration diagram of the microscope apparatus.
FIG. 4 is a configuration diagram of an optical lens.
FIG. 5 is another configuration diagram of the optical lens.
FIG. 6 is an enlarged front view of a line sensor and an aberration correction lens.
FIG. 7 is an explanatory diagram of a procedure for capturing a line image.
FIG. 8 is a diagram related to imaging of a line sensor.
[Explanation of symbols]
601 specimens
602 microscope
631 Line sensor (electronic imaging device)
651 arithmetic processing unit (image processing apparatus)
652 Display means
653 storage unit

Claims (5)

標本深さが異なる複数の層の画像データを表示して、立体的に細胞や組織等を検査する標本検査において、
標本の検査領域において、複数のラインセンサを介して標本深さが異なる複数の層毎のライン画像を同時に撮像する工程と、
上記ライン画像を合成して上記検査領域の全体について上記層毎の標本画像データを生成し記録する工程と、
上記各標本画像データから抽出すべき平面領域を指定する工程と、
上記指定された平面領域の上記層毎の画像データを、上記検査領域の全体についての層毎の標本画像データから抽出し、ひとまとまりのものとして記憶する工程と、
上記ひとまとまりのものとして記憶された平面領域の層毎の画像データ
から、この平面領域の選択した層の画像を抽出して表示手段に表示する工程と
を含む標本画像データ処理方法。
In specimen inspection that displays image data of multiple layers with different specimen depths and inspects cells, tissues, etc. three-dimensionally,
In the specimen inspection region, a step of simultaneously capturing line images for a plurality of layers having different specimen depths via a plurality of line sensors;
Synthesizing the line images to generate and record the sample image data for each layer for the entire inspection region; and
Designating a planar area to be extracted from each of the specimen image data,
Extracting the image data for each layer of the specified plane area from the sample image data for each layer for the entire inspection area, and storing the data as a unit ;
Image data for each layer of the planar area stored as a unit
A sample image data processing method including a step of extracting an image of a selected layer of the planar region and displaying it on a display means .
請求項1において、上記標本は細胞診用標本である標本画像データ処理方法。 2. The specimen image data processing method according to claim 1, wherein the specimen is a cytological specimen. 標本深さが異なる複数の層の画像データを表示して、立体的に細胞や組織等を検査する標本検査システムであって、
標本の検査領域において、複数のラインセンサを介して標本深さが異なる複数の層毎のライン画像を同時に撮像する手段と、
上記ライン画像を合成して上記検査領域の全体について上記層毎の標本画像データを生成し記録する手段と、
上記各標本画像データから抽出すべき平面領域を指定する手段と、
上記指定された平面領域の上記層毎の画像データを、上記検査領域の全体についての層毎の標本画像データから抽出し、ひとまとまりのものとして記憶する手段と、
上記ひとまとまりのものとして記憶された平面領域の層毎の画像データに基づいて、この平面領域の層毎の画像を択一的に又はその複数の組み合わせを同時的に表示手段に表示させる画像処理装置と
を含む標本検査システム。
A specimen inspection system that displays image data of a plurality of layers with different specimen depths and inspects cells, tissues, etc. in a three-dimensional manner,
Means for simultaneously capturing line images of a plurality of layers having different sample depths via a plurality of line sensors in the specimen inspection region;
Means for synthesizing the line image to generate and record the sample image data for each layer for the entire inspection region;
Means for designating a planar region to be extracted from each specimen image data;
Means for extracting the image data for each layer of the specified plane area from the sample image data for each layer for the entire inspection area, and storing the data as a unit;
Based on the image data for each layer of the planar area stored as a group, the image processing for displaying the image for each layer of the planar area alternatively or a combination thereof on the display means A specimen inspection system comprising:
請求項3において、上記標本が細胞診用標本である標本検査システム。 The specimen inspection system according to claim 3, wherein the specimen is a cytological specimen. 請求項3または4において、上記平面領域の層毎の画像を表示するときは選択された複数の抽出画像を並列的に又は重畳して表示可能としてある標本検査システム。5. The specimen inspection system according to claim 3, wherein when displaying an image for each layer of the planar area, a plurality of selected extracted images can be displayed in parallel or superimposed.
JP2002314878A 2002-10-29 2002-10-29 Sample image data processing method and sample inspection system Expired - Fee Related JP4046161B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2002314878A JP4046161B2 (en) 2002-10-29 2002-10-29 Sample image data processing method and sample inspection system
US10/696,627 US7593556B2 (en) 2002-10-29 2003-10-28 Sample picture data processing method and sample inspection system and method
KR1020030075423A KR20040038743A (en) 2002-10-29 2003-10-28 Sample picture data processing method and sample inspection system and sample inspection method
DE60314711T DE60314711T2 (en) 2002-10-29 2003-10-29 System and method for inspection of sample images
EP03024944A EP1422648B1 (en) 2002-10-29 2003-10-29 System and method for inspection of pictures of a sample
KR1020050062023A KR100897674B1 (en) 2002-10-29 2005-07-11 Sample inspection system and sample inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002314878A JP4046161B2 (en) 2002-10-29 2002-10-29 Sample image data processing method and sample inspection system

Publications (2)

Publication Number Publication Date
JP2004150895A JP2004150895A (en) 2004-05-27
JP4046161B2 true JP4046161B2 (en) 2008-02-13

Family

ID=32459072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002314878A Expired - Fee Related JP4046161B2 (en) 2002-10-29 2002-10-29 Sample image data processing method and sample inspection system

Country Status (1)

Country Link
JP (1) JP4046161B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4667944B2 (en) * 2005-04-20 2011-04-13 シスメックス株式会社 Image creation device
JP4065893B1 (en) 2006-12-04 2008-03-26 東京エレクトロン株式会社 Defect detection device, defect detection method, information processing device, information processing method, and program thereof
JP4102842B1 (en) * 2006-12-04 2008-06-18 東京エレクトロン株式会社 Defect detection device, defect detection method, information processing device, information processing method, and program thereof
WO2013027399A1 (en) * 2011-08-23 2013-02-28 日本電気株式会社 Information processing system, information processing method, information processing device, and method and program for controlling same
JP2014238344A (en) * 2013-06-07 2014-12-18 富士ゼロックス株式会社 Image processing system, image processor and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60164236A (en) * 1984-02-07 1985-08-27 Hamamatsu Photonics Kk Cell measuring method
JPH03211682A (en) * 1990-01-17 1991-09-17 Hitachi Medical Corp Compressed picture data reproducing method
JP2886947B2 (en) * 1990-05-25 1999-04-26 スズキ株式会社 Aggregation pattern determination method and apparatus
JPH04142055A (en) * 1990-10-01 1992-05-15 Nec Yamagata Ltd Inspecting apparatus for appearance of semiconductor wafer
JP3257010B2 (en) * 1992-01-07 2002-02-18 株式会社日立製作所 Pattern inspection method and apparatus
JP3300791B2 (en) * 1993-02-04 2002-07-08 株式会社日立製作所 Pattern defect detection method and apparatus
JP2001242085A (en) * 2000-02-29 2001-09-07 Matsushita Electric Ind Co Ltd Image processing device and image processing method

Also Published As

Publication number Publication date
JP2004150895A (en) 2004-05-27

Similar Documents

Publication Publication Date Title
EP2910993B1 (en) Digital microscope
JP4937850B2 (en) Microscope system, VS image generation method thereof, and program
JP4970869B2 (en) Observation apparatus and observation method
JP2019056917A (en) Fully automatic rapid microscope slide scanner
JP2017194699A5 (en)
JP4878913B2 (en) Microscope system, microscope image synthesis method, and program
JP2017194700A5 (en)
JP4818592B2 (en) Microscope system, microscope image display system, observation object image display method, and program
JP5822345B2 (en) Hall slide image creation device
JP2011109644A (en) System and method for imaging with enhanced depth of field
US20160062101A1 (en) Method and apparatus for small and large format histology sample examination
JP2011085932A (en) System and method for imaging with enhanced depth of field
CN105004723A (en) Pathological section scanning 3D imaging and fusion device and method
US20080100703A1 (en) Microscope system, observation method and observation program
KR100897674B1 (en) Sample inspection system and sample inspection method
JP4346888B2 (en) Microscope equipment
JP4046161B2 (en) Sample image data processing method and sample inspection system
EP1918751A1 (en) Microscope system, observation method and observation program
JP2005266718A (en) Microscopic image photographing system
JP4231915B2 (en) Specimen inspection method and system
Weinstein et al. Reinvention of light microscopy: array microscopy and ultrarapidly scanned virtual slides for diagnostic pathology and medical education
JP2021021850A (en) Autofocus microscope and automatic imaging device of microscopic image
JP6068010B2 (en) Microscope system
JP6130650B2 (en) Diagnostic data management device and diagnostic data management system
DE FR System und Verfahren zur Inspektion von Probenbildern Système et procédé pour l’inspection d’images d’un échantillon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131130

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees