JP2004253261A - Image collection/analysis system - Google Patents

Image collection/analysis system Download PDF

Info

Publication number
JP2004253261A
JP2004253261A JP2003042693A JP2003042693A JP2004253261A JP 2004253261 A JP2004253261 A JP 2004253261A JP 2003042693 A JP2003042693 A JP 2003042693A JP 2003042693 A JP2003042693 A JP 2003042693A JP 2004253261 A JP2004253261 A JP 2004253261A
Authority
JP
Japan
Prior art keywords
image
score
sample
images
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003042693A
Other languages
Japanese (ja)
Other versions
JP4098644B2 (en
Inventor
Natsuko Nakamura
奈津子 中村
Takaaki Shinkawa
隆朗 新川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jeol Ltd
Original Assignee
Jeol Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jeol Ltd filed Critical Jeol Ltd
Priority to JP2003042693A priority Critical patent/JP4098644B2/en
Publication of JP2004253261A publication Critical patent/JP2004253261A/en
Application granted granted Critical
Publication of JP4098644B2 publication Critical patent/JP4098644B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Analysing Materials By The Use Of Radiation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically acquire numerous images from testpieces with mutually different fields of view, and in parallel with acquisition of the images, the acquired images are subjected to a prescribed image processing to distinguish whether or not there is a targeted structure in the images. <P>SOLUTION: A control means 4 acquires the images within a specified test range of testpieces (S3) by controlling (S2) the testpiece stage 2 of TEM1 when parameters are inputted (S1). Then, the acquired images are subjected to analytical processing immediately by the control means 4 (S6). In this way, acquisition of the images and analysis are simultaneously made in parallel. As for the analytical processing, as an index to express the probability that the targeted structure is reflected in the images, a processing which attaches brightness score based on the brightness of the images, a treatment which attaches profile score based on profile of figure in the images, a processing which attaches edge score based on linear figure in the images, and a processing which attaches comprehensive score based on these brightness score, profile score, and edge score are carried out. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、電子顕微鏡による試料画像の収集、及び収集した画像の分析を自動的に、同時並行して行う画像収集/分析システムに関する。
【0002】
【従来の技術】
透過型電子顕微鏡(TEM)で試料の種々の位置の拡大画像を取得し、その取得した画像を分析することは広く行われている。例えば、特開平1−97359号公報には、試料のある視野の画像を所定の倍率で取得し、次に試料を移動して、直前に取得した画像の視野に隣接する視野の画像を前記所定の倍率で取得する動作を繰り返して、試料の種々の視野の画像を連続的に次々と取得することが開示されている。また、取得した画像に対して適宜な画像処理を施して分析を行うことも行われている。
【0003】
【特許文献1】特開平1−97359号公報
【0004】
【発明が解決しようとする課題】
ところで、互いに異なる視野の試料画像を多数収集して分析を行う場合、従来では試料画像の分析は試料画像の収集が全て終了してから行うのが通常であったが、これでは試料画像の取得を開始してから、全ての試料画像の分析が終了するまで非常な長時間を要し、望ましいものではないものであった。
【0005】
例えば、今、試料の大きさが直径2mmとし、この試料の全面について隙間無く画像を取得しようとした場合には、画像の枚数は膨大な数となり、画像を取得するだけでも長時間を要する。これは、TEMの倍率を高くする程顕著であり、また、試料の数が多い程顕著である。そして、従来においては、それに加えて、取得した画像の分析のための時間がかかるので、分析が終了するまで非常な時間を要していたのである。
【0006】
また、取得した画像の分析についても、試料が半導体や金属等の定形の構造を有しているものであればパターン認識も比較的容易に行うことができので、試料画像中に特定の構造があるか否かの分析の処理も比較的容易に行うことが可能であるが、試料が生物試料であり、その試料画像の中に目的とする構造があるか否かの分析を行う場合には、その目的とする構造が不定形のために、分析も難しく、時間も要するものである。このような分析の例としては、例えば、試料画像中にウィルスがあるか否かの分析、あるいは試料画像中にリポソーム(脂質二重膜)があるか否かの分析等がある。
【0007】
そこで、本発明は、互いに異なる視野で試料から多数の画像を自動的に取得すると共に、取得した画像に対しては、画像の取得と同時並行して、画像中に目的とする構造があるか否かを判別する所定の画像処理を施すことができる画像収集/分析システムを提供することを目的とするものである。
【0008】
【課題を解決するための手段】
上記の目的を達成するために、請求項1記載の画像収集/分析システムは、透過型電子顕微鏡と、透過型電子顕微鏡で拡大投影された試料の画像を撮像するカメラと、制御手段と、少なくとも備え、制御手段は、カメラで撮像された試料の画像の取得と、取得した画像の分析の処理とを同時並行して実行する動作を行うことを特徴とする。
請求項2記載の画像収集/分析システムは、請求項1記載の画像収集/分析システムにおいて、更に入力手段を備え、制御手段は、前記試料の画像の取得は、入力手段で試料の検査範囲と取得画像枚数が設定された場合には、当該設定された検査範囲内で設定された枚数の画像を取得することを特徴とする。
請求項3記載の画像収集/分析システムは、請求項1記載の画像収集/分析システムにおいて、制御手段は、画像の分析の処理においては、画像中に目的とする構造が写っている確からしさを表す指標として、画像の輝度に基づいて輝度得点を付ける処理、画像中の図形の形状に基づいて形状得点を付ける処理、画像中の線状の図形に基づいてエッジ得点を付ける処理、及びこれら輝度得点、形状得点、エッジ得点に基づいて総合得点を付ける処理を行うことを特徴とする。
請求項4記載の画像収集/分析システムは、請求項3記載の画像収集/分析システムにおいて、更に記憶手段を備え、制御手段は、入力手段によりデータを保存する条件として、前記輝度得点、形状得点、エッジ得点、総合得点の何れか一つと、得点の値が設定された場合には、当該設定された得点が当該設定された得点の値以上となった画像についてのみ、その画像データ及び当該画像に関する所定のデータを記憶手段に保存することを特徴とする。
請求項5記載の画像収集/分析システムは、請求項1乃至4の何れかに記載の画像収集/分析システムにおいて、更にモニタを備え、制御手段は、取得した全ての画像について分析が終了した場合には、分析結果をモニタに表示することを特徴とする。
【0009】
【発明の実施の形態】
以下、図面を参照しつつ発明の実施の形態について説明する。
図1は本発明に係る画像収集/分析システムの一実施形態を示す図であり、図中、1はTEM、2は試料ステージ、3はカメラ、4は制御手段、5は記憶手段、6は入力手段、7はモニタを示す。
【0010】
TEM1は周知の構成であるが、少なくとも、その倍率は制御手段4により制御可能となされている。このようなことは周知であるので詳細な説明は省略する。また、TEM1の試料ステージ2は、複数の試料を載置することができる試料ホルダを備えているものとする。また、試料ステージ2の電子ビームに対する位置、即ち、試料ホルダの何番目の試料のどの位置に電子ビームを照射するかは制御手段4により制御可能となされている。このような試料ステージは周知であるので、その構成の詳細については説明を省略する。
【0011】
カメラ3は、試料の拡大画像を取得するためのものであり、ここではTVカメラを用いるものとする。従って、以下ではTVカメラ3と記すことにする。
記憶手段5は、取得した画像、それらの画像の分析結果等の所定の情報を保存するためのものであり、ハードディスク装置等の大容量の記憶装置を用いるのがよい。
入力手段6は、キーボード、マウス等の周知の入力装置で構成される。なお、ここでは、マウスは左クリックと右クリックが可能なものとする。
モニタ7は、カラーCRT、カラー液晶表示装置等の画像表示が可能な表示装置で構成される。
そして、制御手段4、入力手段6、及びモニタ7はグラフィカル・ユーザ・インターフェース(GUI)を構成しており、後述するような種々のメニューを備えている。
【0012】
制御手段4は、当該画像収集/分析システムの各部の動作を統括して管理するものであり、TEM1の倍率や試料ステージ2の位置の制御、あるいは電源の制御を行うためのTEM制御用ソフトウェアモジュール(以下、ソフトウェアモジュールを単にモジュールと称す)、TVカメラ3からの画像データを取り込むためのビデオキャプチャ用モジュール、取得した画像データに対して所定の画像処理を施して分析、及びデータ保存を行うための画像処理用モジュール、画像取得中や画像処理中に設定された項目をモニタ7に表示するための検査中表示用モジュール、分析の結果をモニタ7に表示するための分析結果表示用モジュール等の種々のモジュールを搭載している。
【0013】
なお、この制御手段4は、コンピュータシステム1台だけで構成することも可能であるが、例えば、パーソナルコンピュータを2台用い、一つはビデオキャプチャ、及びTEM1の制御用のために用い、もう一つはそれ以外の画像処理及びその結果の表示のために用いるようにすることも可能である。
【0014】
従って、例えば、画像処理用モジュールとして、種々の画像分析を行うモジュールを用意しておけば、分析の目的に応じたモジュールを搭載することによって様々な分析に対応することができる。また、分析結果表示用モジュールとしても、種々の表示の態様としたものを用意しておけば、ユーザが所望する態様で分析結果の表示を行わせることも可能である。
このように、この画像収集/分析システムでは、モジュールを入れ替えることによって、種々の画像処理、種々の結果の表示を行うことが可能となされているのである。
【0015】
以下、動作について説明するが、ここでは、試料は生物試料とし、画像処理用モジュールとしては、取得した画像の中にリポソームが写っている可能性を判定する画像処理を行うモジュールを用いるものとする。
【0016】
動作の説明の前に、先ず、上記の、取得した画像の中にリポソームが写っている可能性を判定する画像処理を行う妥当性について概略説明しておく。
生物の細胞膜に存在する膜蛋白は、生物の活動において様々な役割を担っており、膜蛋白の構造を決定することは、生物学や医学、薬学において大きな意味を持つが、膜蛋白はそれぞれが単独の大きな分子であるので、その構造の高精度な決定のためには、まず結晶化する必要がある。
【0017】
しかし、膜蛋白は、その種類毎に結晶化させることのできる試料作成条件が異なり、結晶化させるためには様々な条件で膨大な試料を作成し、個々の試料について結晶の有無を確認しなければならない。
【0018】
試料中に膜蛋白の結晶があるか否かの判定方法としては、膜蛋白の三次元結晶を作成し、X線で結晶の有無を判定する方法が一般的であるが、三次元結晶では膜蛋白の構造の全てが必ずしも再現されず、より正確な調査のためには二次元結晶を作成する必要がある。
【0019】
しかし、二次元結晶の有無はX線では確認できない。そこで、膜蛋白の構造を二次元結晶を用いて解析する場合にはTEMを用いて試料の画像を取得し、画像中にリポソームがあるか否か、あるいはリポソームがあるらしいか否かを判定することを行うのである。これは、試料中に膜蛋白の結晶ができているとすれば、それは必ずリポソームの上にできているので、画像中にリポソームがある、あるいはリポソームがある可能性が高ければ、その試料の中には膜蛋白の結晶ができている可能性があるということに基づいたものである。
【0020】
即ち、この画像処理では、直接的に膜蛋白の結晶の有無を判定するものではないが、リポソームがあると判定された試料、あるいはリポソームがある可能性が高い試料、及びその試料中の位置を求めることができれば、その箇所を適宜な手法により、より詳細に検査することによって膜蛋白の結晶の有無を判定することができ、以て、膜蛋白の結晶を作成する条件を決定することができるのである。
【0021】
以下、動作について、図2に示す動作の流れを示すフローチャートを参照して説明する。なお、後述するところから明らかなように、図2において、ステップS1の下の2本の横線、及びステップS8の上の2本の横線は、これらの横線の間の2系列の処理、即ち、ステップS2〜S5の処理と、ステップS6、S7の処理が同時並行して行われることを示している。
【0022】
まず、オペレータは、TVカメラ3のゲインやフォーカスの調整を行い、GUIにより、当該分析に必要な所定のパラメータを入力する(ステップS1)。ここで入力するパラメータとしては、例えば、画像を取得する試料の指定、試料の画像の取得範囲の設定、倍率の設定、各試料について何枚の画像を取得するか、その枚数の設定、保存するデータの条件等があるが、以下詳述する。なお、TVカメラ3のゲインやフォーカスの調整はTVカメラにより画像を取得する場合に通常行われる事項である。
【0023】
図3はパラメータ入力を行う際に表示されるウインドウの例を示す図である。なお、図3では当該ウインドウのタイトルバー等は図示を省略している。この点については以下、同様である。
検査試料の欄10は、画像を取得する試料を指定する欄であり、試料ステージ2の全ての試料ホルダに試料を載置し、それら全ての試料の画像を取得する場合には「全て」の項目を選択すればよく、試料ステージ2の試料ホルダの中の特定のホルダに載置されているのみの画像を取得する場合には「ホルダ指定」の項目を選択して、そのホルダの番号を入力する。図では「ホルダ指定」が選択され、「2,3」と入力されているが、これは、試料ホルダの2番目と、3番目のホルダに載置されている試料のみから画像を取得することを示している。
【0024】
検査範囲の欄11は、試料のどの範囲から画像を取得するかを設定する欄であり、「全て」の項目は、試料の全面に渡って画像を取得する場合に選択する項目であり、試料の中の所望の範囲からのみ画像を取得する場合には「範囲指定」の項目を選択して、その範囲の中心座標(x,y)と、中心座標からの半径を入力する。図では半径はmmの単位となされている。図では、座標(0,0)を中心として、その中心から半径が 0.1mmの範囲内で画像を取得するように設定されている。そして、この検査範囲の欄11で設定された事項は、その右側の12で示された円に反映される。外側の円は試料の全視野を示し、内側の円は、検査範囲の欄11の「範囲指定」の項目で設定された範囲を表示している。
【0025】
検査中の表示項目の欄13は、画像取得の動作を行っている最中、及び取得した画像の分析を行っている最中にどのような項目を表示するかを設定する欄であり、オペレータは検査中に表示したい項目を選択することができるようになされている。
現画像番号の項目は、現在画像取得の対象となっている試料について、現在取り込んでいる画像が何番目の画像であるかを表示するための項目である。
トータル画像枚数は、当該試料について取得する画像のトータル枚数を表示するための項目である。
試料番号は、現在画像取り込みの対象となっている試料の番号、即ち、当該試料が載置されている試料ホルダの番号を表示するための項目である。
座標は、現在取り込んでいる画像が当該試料中のどの位置にあるか、その座標を表示するための項目である。
保存得点は、取得した画像データ及び分析結果等のデータを保存する条件として得点が設定された場合に、その設定された得点を表示するための項目である。得点については後述する。
ライブ画像は、現在TVカメラ3で撮像している画像を表示するための項目である。
【0026】
データ保存条件の欄14は、取得した画像に対して後述する画像処理を行って分析を行った結果、当該画像、及びその分析結果等のデータを保存するか否か、保存する場合にはどのような条件を設けるかを設定する欄である。
以下に説明するように、画像処理では、取得した画像毎に、輝度得点、形状得点、エッジ得点という3つの得点を付け、更に、それら3つの得点の線形和を取って総合得点を付けるのであるが、総合得点が何点以上の場合に上記データを保存するという設定を行う場合には、「総合得点」を選択して、右側の矩形欄にその閾値となる得点値を入力するようになされている。「輝度得点」、「形状得点」、「エッジ得点」の項目についても同様である。「全て」の項目は、上記得点の如何に関わらず、取得した画像、及びその分析結果等のデータを全て保存することを設定する項目である。図では「総合得点」が選択され、「0.45」という得点が入力されており、この場合には、画像の分析の結果得られた総合得点が 0.45点以上の画像データが、その分析結果等と共に保存されることになる。
【0027】
倍率の欄15は、TEM1の倍率を設定するための欄であり、オペレータは所望の倍率を入力することができる。
取得画像枚数の欄16は、検査試料の欄10で設定された各試料について、何枚の画像を取得するかを設定するための欄であり、各試料について、検査範囲の欄11で設定した範囲内の全領域の画像を隙間無く取得したい場合には「自動」の項目を選択すればよく、検査範囲の欄11で設定した範囲内において所望の枚数だけ取得したい場合には、「枚数設定」の項目を選択して、その下の矩形欄に取得枚数を数値入力すればよい。
【0028】
高圧設定の欄17は、図2のステップS3の画像取り込みの処理が終了した場合に、TEM1への高電圧の供給を停止するか、それとも供給した状態のままとするかを設定する欄であり、OFFを選択するとTEM1への高電圧の供給は停止され、ONを選択すると高電圧が供給され続ける。
【0029】
OKボタン18は入力したパラメータを確定するためのボタンであり、登録ボタン19は、入力したパラメータ値を登録するためのボタンであり、読み込みボタン20は、これまで登録したパラメータ値を用いる場合に操作するボタンであり、キャンセルボタン21は、入力したパラメータ値を取り消すためのボタンである。
【0030】
これらのパラメータを入力し、OKボタン18で確定すると、各パラメータ値は対応するモジュールに反映される。例えば、図3に示すパラメータ入力のウインドウにおいて、検査試料の欄10、検査範囲の欄11、倍率15の欄、取得画像枚数の欄16、及び高圧設定の欄17で設定された各パラメータ値はTEM制御用モジュールに反映され、データ保存条件の欄14で設定されたパラメータは画像処理用モジュールに反映され、検査中の表示項目の欄13、データ保存条件の欄14、及び取得画像枚数の欄16で設定された各パラメータ値は検査中表示用モジュールに反映される。
【0031】
さて、所定のパラメータの入力が終了し、図3のOKボタン18が操作されて各パラメータ値が確定すると、制御手段4は全てのモジュールを起動する。そして、TEM制御用モジュールにより、TEM1の倍率を設定倍率に制御すると共に、試料ステージ2を制御して試料の移動を行い(ステップS2)、まず、電子ビームの光軸上に最初の試料の最初の画像取得位置を移動する。そして、制御手段4は、ビデオキャプチャ用モジュールによりTVカメラ3からの画像信号を取り込み、デジタル化して画像データとして記憶手段5に保存する(ステップS3)。なお、画像データの保存に際しては、当該試料の試料番号、画像番号、当該画像を取得した座標、当該画像を取得した日時等のデータを付して保存するようにする。なお、画像番号は、例えば、各試料毎に1からの通し番号を付すようにすればよい。
【0032】
ところで、試料ホルダには、試料を載置するために、銅の薄板に矩形状の開口が格子状に規則正しく開けられた銅グリッドが設けられており、試料の画像を取得しようとする場合、電子ビームが丁度銅グリッドの開口と開口の間の銅の部分に照射されることもあり、その場合には画像は真っ黒になり、無意味な画像となる。このように銅グリッドの開口部分以外の銅の部分を無意味な領域と称することにすると、一つの試料ホルダについての無意味な領域は80%以上であることが知られている。言い換えれば、銅グリッドにおいて、開口部分の面積は銅グリッド全体の面積の20%弱程度に過ぎないのである。
【0033】
そこで、図2には示していないが、ステップS2の直前において、図3に示すパラメータ入力のウインドウの検査試料の欄10で設定された試料ホルダの、検査範囲の欄11で設定された範囲について、どの領域が無意味な領域であるか、あるいは、どの領域が無意味でない領域であるかを調べ、図2のステップS3の画像の取り込みは無意味でない領域、即ち銅グリッドの開口部分について行うようにする。
【0034】
試料ホルダにおける無意味な領域、あるいは、無意味でない領域を調べるのは、自動で行うこともでき、オペレータが手動で行うこともできる。
無意味な領域を自動で調べる手法としては、銅グリッドの開口は規則正しく配列されているから、例えば、図3に示すパラメータ入力のウインドウの検査範囲の欄11で設定された範囲について、画像を制御手段4に取り込ませ、パターン認識により画像中の黒の部分のパターンを認識を行わせる手法がある。これによって、制御手段4は当該設定された検査範囲における無意味でない領域を認識することができる。
【0035】
また、手動で行う場合は、試料ホルダの無意味でない領域を指定する手法を用いる。例えば、パラメータ入力のウインドウの検査範囲の欄11で設定された範囲について画像を取り込んでモニタ7に表示し、オペレータがその画面を観察しながら、入力手段6により、オペレータが当該試料ホルダの銅グリッドの開口部分を指定する手法がある。これにより、制御手段4に対して、当該検査範囲における無意味でない領域以外の領域を認識させることができる。
【0036】
さて、設定された試料ホルダについて無意味な領域、または無意味でない領域を認識すると、制御手段4は図2のステップS2以降の処理を実行するのであるが、まず、電子ビームの光軸上に最初の試料の最初の画像取得位置を移動する。ここで、最初の試料とは、検査試料の欄10で設定された試料ホルダの番号の最小のものとすればよい。
【0037】
そして、制御手段4は、パラメータ入力のウインドウの検査範囲の欄11で設定された範囲であって、且つ当該試料ホルダの無意味でない領域について、次々と画像の取得を行っていく(ステップS3)のであるが、ここでステップS2の試料の移動について説明すると、概略次のようである。
【0038】
今、図3のパラメータ入力のウインドウの取得画像枚数の欄16で自動が選択されたとし、パラメータ入力のウインドウの検査範囲の欄11で設定された範囲内の、一つの無意味でない領域が図4(a)の太い実線で示す矩形のようであったとすると、制御手段4は、当該無意味でない領域内での画像取り込み位置を定める。図4(a)にその例を示している。図4(a)において、細い実線の矩形は、一つ一つの画像の取り込み範囲を示している。
【0039】
なお、制御手段4、具体的にはTEM制御用モジュールは、設定された検査範囲、及び当該無意味でない領域を認識しており、設定倍率における視野のサイズは定まっているから、TEM制御用モジュールは、図4(a)に示すように、当該無意味でない領域内で視野を隙間無く埋めるような画像取り込み位置を定めることができ、また、このとき、当該無意味でない領域についてトータルで何枚の画像を取得すべきかも求めることができるものである。
【0040】
従って、図4(a)に示す場合には、制御手段4は、試料の移動を行いながら、図4(a)の各画像取り込み位置で画像の取り込みを所定の順序で行うのであるが、この際の移動には、試料ステージ2を制御して実際に試料の移動を行う動作と、試料ステージ2は動かさずに、TEM1の偏向コイルを制御して電子ビームの照射位置を次の画像取り込み位置に変更する動作がある。
【0041】
即ち、試料ステージ2を制御して、実際に試料を動かすのは動作も遅く、精度が悪いので、偏向コイルにより電子ビームの照射位置を動かせる範囲内では、偏向コイルにより電子ビームの照射位置を変更して画像を取り込む位置を変更するようにし、偏向コイルによる電子ビームの一つの偏向可能範囲内について画像の取り込みが終了すると、試料ステージ2を制御して、実際に試料を、次の電子ビームの偏向可能範囲へ移動させ、その偏向可能範囲内において、偏向コイルにより電子ビームの照射位置を順次所定の順序で変更して、画像の取り込みを行うという動作を繰り返すのである。
このように、図2のステップS2の試料移動の動作には上記の2つの移動の動作を含んでいるのである。
【0042】
これを図4(a)に示す場合について説明すると次のようである。いま、例えば、図4(a)に示す無意味でない領域における偏向コイルによる電子ビームの偏向可能範囲が図4(b)の破線の矩形で示すようであったとする。図4(b)では、電子ビームの偏向可能範囲が6つ示されている。この場合には、制御手段4は、例えば、先ず、試料ステージ2を制御して、試料の位置を図4(b)の左下の電子ビームの偏向可能範囲の中心位置に移動させ、この電子ビームの偏向可能範囲内で電子ビームの照射位置を変更することによって、所定の順序で画像の取り込みを行う。図4(b)の場合には、当該電子ビームの偏向可能範囲内では34枚の画像が取り込まれる。
【0043】
そして、当該電子ビームの偏向可能範囲内での画像の取り込みが終了すると、制御手段4は、試料ステージ2を制御して、試料の位置を、次の電子ビームの偏向可能範囲、例えば右下の電子ビームの偏向可能範囲の中心位置に移動させ、この電子ビームの偏向可能範囲内で電子ビームの照射位置を変更することによって、所定の順序で画像の取り込みを行う。
【0044】
そして、当該電子ビームの偏向可能範囲内での画像の取り込みが終了すると、制御手段4は、試料ステージ2を制御して、試料の位置を、次の電子ビームの偏向可能範囲、例えば中段の左側の電子ビームの偏向可能範囲の中心位置に移動させ、この電子ビームの偏向可能範囲内で電子ビームの照射位置を変更することによって、所定の順序で画像の取り込みを行う。
以上の動作を繰り返すことにより、当該無意味でない領域内において隙間無く画像を取得することができる。
【0045】
なお、一つの電子ビームの偏向可能範囲内において、画像の取得をどのような順序で行うかは任意に定めることができる。図4(b)に示す場合について説明すると、例えば、電子ビームの偏向可能範囲の左下端から順次右側に画像を取得していき、当該電子ビームの偏向可能範囲の右端になったら、上の段の左端から右側へ、というように画像を取得していくことができる。
【0046】
以上が図2のステップS2の試料移動の動作の説明である。
なお、上記の説明ではパラメータ入力のウインドウの取得画像枚数の欄16で自動が選択された場合としたが、パラメータ入力のウインドウの取得画像枚数の欄16において取得枚数が設定された場合には、乱数を発生させる等して、検査範囲の欄11で設定された範囲内で設定枚数の数だけの座標を定め、それら定められた座標の位置を順次移動させて、それぞれの座標位置で画像を取得すればよい。なお、定められた座標が無意味な領域であった場合には、座標を定める処理を繰り返せばよい。また、座標の移動の動作には、上述した通りの2つの動作があることは当然である。
【0047】
そして、一つの試料について、設定された検査範囲の画像の取得が完了すると、制御手段4は、試料ステージ2を制御して、次の試料ホルダの試料を光軸上に移動させ、上記の動作を繰り返す(ステップS4)。以上の動作により、設定された試料について、設定された検査範囲の画像を所定枚数取得することができる。
【0048】
さて、画像の全ての取り込みが終了すると、制御手段4は、TEM制御用モジュールによりTEM1の高電圧の制御を行う(ステップS5)。即ち、制御手段4は、パラメータ入力のウインドウにおいて、高圧設定の欄17でONが設定されている場合には高圧をそのままの状態に保ち、OFFが設定されている場合には高圧を停止する。
【0049】
制御手段4は、一つの画像を取得すると、その画像に対して画像処理用モジュールにより所定の画像処理を施し、分析及び保存の処理を行う(ステップS6)。従って、このステップS6の処理は、ステップS2〜S5の動作と同時並行して実行されるのである。
【0050】
画像分析の処理は次のようである。
この実施形態では、上述したように、リポソームが写っている可能性のある画像を見出すようにするのであるが、試料の画像中には種々の構造が写っている。そのような画像の例を図5に示す。特許出願の図面の制約のため、分かり難くなっているが、図中、Aはリポソーム、Bは支持膜、Cは支持膜が破れて穴があいている部分、Dは銅グリッド、Eは薬品の析出物、Fはアグリゲートを示している。銅グリッドは試料を載置するための構造であり、支持膜は銅グリッドに試料を載置する際に銅グリッド上に貼る有機物質からなる薄膜であり、アグリゲートは蛋白質分子が無秩序に固まったものであり、何れも周知のものである。
【0051】
このような画像の中にリポソームがあるか否か、あるいは、ありそうか否かを判定しようとするのであるが、リポソームは不定形であり決まった形を持たず、また、決まった模様はないため、パターンマッチングによる識別は不可能である。しかし、本発明者は、リポソームという構造は画像中において次のような特徴を持つことを見出した。
(イ)輝度について:背景となる支持膜より黒っぽいが、アグリゲートや銅グリッドほど黒くはない。
(ロ)形について:形は不定形だが、丸っこくて縁はぎざぎざしていない。即ち、輪郭の凹凸は少ない。
(ハ)模様について:決まった模様はないが、大抵は内部に長い筋のような模様がある。
【0052】
そこで、上記の特徴を利用して、このような画像の中にリポソームがあるか否か、あるいは、ありそうか否かを判定するようにするのであり、そのために画像処理用モジュールでは、取得した画像に対して以下の順の処理を行う。
(1)画像中の黒い部分を分析範囲から除外する。
(2)残った範囲から、白い部分を除外する。
(3)残った領域の平均輝度、輝度の分散に基づいて輝度得点を計算する。
(4)画像中の閉領域の外形の形状に基づいて形状得点を計算する。
(5)その閉領域内の模様に基づいてエッジ得点を計算する。
(6)輝度得点、形状得点、エッジ得点を線形結合して、総合得点を計算する。
(7)上で得た4つの得点の情報を、画像に付して保存する。
【0053】
[黒い部分と白い部分を除外する処理]
本発明者の研究によると、リポソームが写っている画像、あるいは写っている可能性の高い画像について輝度のヒストグラムを作成すると、殆どの場合図6に示すように、2つのピークを有するものとなることが分かった。なお、ここでは画像の階調は 0〜 255の 256階調であり、全黒が階調 0、全白が階調 255とする。
【0054】
そして、図6のAで示す階調、即ち2つのピークの間の画素数が極小となる階調より階調が小さい部分はアグリゲートや銅グリッド等の黒の部分であり、画像分析の対象から除外してもよいことが分かった。このことから、輝度のヒストグラムを作成して、2つのピークの間の画素数が極小となる階調以下の画素を黒い部分として除外すればよいことが分かる。
【0055】
次に、画像中の白い部分、即ち、背景となる支持膜や支持膜が破れている部分等を分析対象から除外する方法については、例えば、予めある階調を閾値として定めておき、その閾値以上の階調を有する画素を白い部分とすることも可能であるが、研究によると、図6のCで示す階調、即ち階調の高い方のピークの位置は画像の内容によって異なっており、予め閾値を固定的に定めておくことは妥当ではないことが判明した。
【0056】
そこで、種々の研究の結果、画素数が 0となる最大の階調をB(図6)とし、その階調Bと、階調の高い方のピークの階調Cとの階調差dを求め、階調の高い方のピークの階調Cから、その階調差dだけ階調が低い側の階調Dを求め、この階調Dより階調が高い部分を白い部分と定義するのがよいことが判明した。
【0057】
そこで、制御手段4は、画像処理用モジュールにより、上記の処理を行って、画像の黒い部分と白い部分を分析対象から除外する。従って、図6のヒストグラムのAとDの間の階調を有するグレーの領域が残ることになる。このようにして得られたグレーの領域をブロブと称する。
【0058】
[輝度得点計算の処理]
以上のようにして得られたブロブには、リポソームか、アグリゲートのうちの色の薄いものが写っている可能性が高いが、支持膜上の何等かのシミである可能性もあり得る。そこで、ブロブの輝度、及び輝度の分散に基づいて、ブロブにリポソームが写っている確からしさを得点付けする。これが輝度得点である。
【0059】
さて、上述したように、リポソームは、一般にアグリゲートより色が白っぽく、支持膜より黒い。そして、本発明者の研究によると、支持膜の平均輝度は画像によって変化するが、リポソームの平均輝度と支持膜の平均輝度の比率はあまり変化しないことが判明した。ここで、支持膜の平均輝度としては、上記の白い部分を除外する処理で求めた白い部分の平均輝度を用いればよい。
【0060】
また、上述したように、リポソームは決まった模様はないが、大抵は内部に長い筋のような模様があるので輝度にバラツキがあり、リポソームの部分の輝度分布、即ちヒストグラムをとると、図7(a)に示すように、幅の広いピークが現れるのに対して、アグリゲートのうちの色の薄いものや、支持膜上の何等かのシミの輝度のヒストグラムは図7(b)に示すように幅の狭いピークとなることが研究の結果判明した。
【0061】
以上のことから、ブロブの平均輝度に基づいて得点付けを行うことでリポソームが写っている確からしさを判定することができ、更に、ブロブの輝度の分散に基づいて得点付けを行うことでリポソームが写っている確からしさ判定することができることが分かる。
【0062】
ブロブの平均輝度に基づく得点付けは、例えば、ブロブの平均輝度と、支持膜の平均輝度、即ち画像の白い部分の平均輝度を求め、その両者の比と、リポソームの平均輝度と支持膜の平均輝度の比率との差が小さいほど高得点、当該差が大きいほど低得点とすればよい。具体的には、ブロブの平均輝度をB、支持膜の平均輝度をH、リポソームの平均輝度と支持膜の平均輝度の比率をRとするとき、例えば、
1/|(B/H)−R|
の演算を行い、その値をそのままブロブの平均輝度に基づく得点とすることができる。なお、このRの値は、リポソームの平均輝度と支持膜の平均輝度の比率を実験により求め、その値を画像処理用モジュールに予め登録しておいて用いればよい。
【0063】
ブロブの輝度の分散に基づく得点付けは、ブロブの輝度のヒストグラムを作成して、そのピークの幅、例えばピークの半値幅が広いほど高得点とすればよい。どのようなピーク幅に対してどのような得点を付けるかは任意である。
【0064】
以上のようにして、ブロブの輝度に基づく2つの得点が得られるが、制御手段4は、その2つの得点の合計を当該画像の輝度得点とする。そして、輝度得点が高い程リポソームが写っている可能性が高いことになる。つまり、輝度得点は、画像中に、目的とするリポソームという構造が写っている確からしさを表す指標の一つなのである。
【0065】
[形状得点計算の処理]
上述したように、リポソームの形状は不定形だが、丸っこくて縁はぎざぎざしておらず、輪郭の凹凸は少ない。そこで、ブロブ中に閉領域を形成している構造があった場合、その閉領域の輪郭の凹凸の程度によって、ブロブにリポソームが写っている確からしさを判定することができる。即ち、ブロブ内の閉領域の輪郭の凹凸の程度に応じて得点付けを行うことによって、リポソームが写っている確からしさを判定することができるのであり、これが形状得点である。
【0066】
形状得点の計算の手法としては種々考えられるが、その一例を説明する。
まず、ブロブ内の画像について閉領域抽出の処理を施す。この処理は周知の手法を用いればよい。そして、抽出された閉領域について、凹んでいる部分が無く、その周長が最小となる外接図形を作る。このような外接図形は凸包外接図形として知られているものである。例えば、今、図8の実線で示す閉領域Lが抽出されたとすると、凹んでいる部分の両端を図の破線で示すように直線で結ぶ。これによって、閉領域Lに輪ゴムを掛けたような図形が得られる。これが凸包外接図形L’である。なお、凸包外接図形を得るための処理は周知であるので、詳細な説明は省略する。
【0067】
そして、抽出された閉領域Lの周長と、凸包外接図形L’の周長の比を求め、この比に応じて得点付けを行い、形状得点とする。この場合には、当該比が1に近い程高得点とする。リポソームの輪郭は凹凸が少ないので、輪郭の周長と、その輪郭の凸包外接図形の周長との比は1に近いと考えてよいからである。この際、閉領域の周長と、凸包外接図形の周長の比がどの程度の場合にどのような得点とするかは任意に定めることができる。
【0068】
以上のようにして、ブロブの閉領域の形状に基づく形状得点が得られる。従って、形状得点が高い程リポソームが写っている可能性が高いことになる。つまり、形状得点は、画像中に、目的とするリポソームという構造が写っている確からしさを表す指標の一つなのである。
【0069】
[エッジ得点計算の処理]
上述したように、リポソームの内部には決まった模様はないが、大抵は内部に長い筋のような模様がある。この長い筋のような模様、即ち線状の図形のうち、所定の長さ以上の長さを有するものを本明細書ではエッジと称する。このことから、ブロブの線状の図形の長さに応じた得点付けを行えば、この得点によってリポソームが写っている確からしさを判定することができる。これがエッジ得点である。
【0070】
エッジ得点の計算の手法としては種々考えられるが、その一例を説明する。
まず、ブロブ内の画像について閉領域抽出の処理を施し、更に、その抽出された閉領域内で線状図形を抽出の処理を施す。このよう閉領域を抽出する処理、及び線状図形を抽出する処理は周知であるので、詳細な説明は省略する。
【0071】
ところで、本発明者の研究では、抽出された線状図形の長さは種々であり、リポソームであれば比較的長いが、アグリゲートや支持膜のシミ、ノイズ等に基づく線状図形は一般に短く曲がっていることが確認されている。そこで、抽出した線状図形の長さが閾値以上のものだけをエッジとする。この閾値は実験に基づいて定め、その値を画像処理用モジュールに予め登録しておいて用いればよい。
【0072】
そして、閉領域内の全てのエッジの面積を求める。エッジの面積は、各エッジについて、エッジを構成する画素数を求め、その画素数の総和を全エッジの面積とすればよい。そして、抽出された閉領域の面積に対するエッジ面積の比を求め、この比が高い高得点となるように得点付けを行う。この際、どのような比に対してどのような得点を与えるかは任意に定めることができる。
【0073】
以上のようにして、ブロブの閉領域内のエッジに基づくエッジ得点が得られる。そして、エッジ得点が高い程リポソームが写っている可能性が高いことになる。つまり、エッジ得点は、画像中に、目的とするリポソームという構造が写っている確からしさを表す指標の一つなのである。
【0074】
[総合得点計算の処理]
以上のようにして、制御手段4は、取得した画像について、輝度得点、形状得点、エッジ得点という3種類の得点を求める。そして、次に、これら3種類の得点に基づいて総合得点を求める。この総合得点は、3種類の得点の線形和で定義することができ、輝度得点をI、形状得点をS、エッジ得点をEとし、α、β、γを係数として、例えば
A=α×I+β×S+γ×E …(1)
により、総合得点Aを求める。ここで、係数α、β、γをどのような値とするかは任意に定めることができ、重要視したい得点があれば、その得点の係数を大きな値とすればよい。これらの係数α、β、γの値は予め定めておき、制御手段4、より具体的には画像処理用モジュールに登録しておけばよい。この総合得点も画像中に、目的とするリポソームという構造が写っている確からしさを表す指標の一つとなる。
【0075】
[データ保存の処理]
以上のようにして、取得された画像のそれぞれに対して、輝度得点、形状得点、エッジ得点、及び総合得点が与えられる。そして、制御手段4は、一つの画像に対して、これら4種類の得点付けを行うと、パラメータ入力のウインドウのデータ保存条件の欄14で設定された条件に基づいて、当該画像の保存の要否を判定し、データ保存条件を満足する画像のみを保存する。データ保存条件を満足しない画像については、記憶手段5から削除する。
【0076】
例えば、ウインドウのデータ保存条件の欄14において、図3に示すように、総合得点が 0.45点以上のものを保存すると設定されている場合には、いま得点付けを行った画像の総合得点が 0.45点未満であれば保存を行わず、これまで記憶手段5に保存されていた当該画像に関するデータを削除するが、0.45点以上である場合には、これまで記憶手段5に保存されていた当該画像に関するデータに、4種類の得点値を付加して保存する。画像を取得した時点では、画像データ、当該試料の試料番号、画像番号、当該画像を取得した座標、当該画像を取得した日時等のデータが付されているので、これに更に上記の4種類の得点が付されて保存されることになる。
【0077】
しかし、データ保存条件の欄14で全ての画像の保存が設定されている場合には、上記4種類の得点の如何に関わらず、全ての画像が保存されることになる。このとき、上記4種類の得点も付加されることは当然である。
【0078】
以上のような保存の処理によれば、リポソームが写っている可能性が高い画像のみを保存し、その可能性の低い画像は記憶手段5から削除されるので、記憶手段5の有効利用を図ることができる。
【0079】
[検査中表示の処理]
制御手段4は、取得した全ての画像について、上述した図2のステップS6の処理を実行するのである(ステップS6、S7)が、ここで、画像の取得と画像分析を同時並行して行っているときに表示されるウインドウについて説明する。
【0080】
画像の取得と画像分析を同時並行して行っている時、制御手段4は検査中表示用モジュールにより、パラメータ入力の検査中の表示項目の欄13で選択された項目についてウインドウ表示を行う。そのウインドウ表示の例を図9に示す。図9に示す各項目については上述した通りである。なお、図9では座標はアスタリスクで示しているが、実際には数値が表示されることは当然である。また、保存得点は、パラメータ入力のウインドウのデータ保存条件の欄14で設定された得点である。データ保存条件の欄14で「全て」が選択された場合には、保存得点の項目には「All」と表示される。図9の右下の停止ボタンは、このウインドウ表示を終了させるためのボタンである。
【0081】
また、図9において、左側の円は、パラメータ入力の検査範囲の欄11で設定された視野範囲を示しており、これまで画像取得を行った位置には点が表示されている。
更に、検査中の表示項目の欄13でライブ画像が選択された場合には、制御手段4は、図9に示すウインドウ表示とは別にウインドウを表示し、そこに現在TVカメラ3から取り込んでいる画像を表示するようになされている。
【0082】
[結果表示の処理]
次に、制御手段4は、分析結果表示用モジュールにより分析結果を一覧表示する(ステップS8)。その一覧表示のウインドウの例を図10に示す。
【0083】
図10に示すウインドウは、分析番号表示欄30、データ表示欄31、画像表示欄32、及び視野表示欄33の4つの領域に分割されている。図11は分析番号表示欄30の例を示した図であり、図では、現時点で記憶手段5に保存されている分析の分析番号が表示され、今回終了した分析については試料番号が表示されている。図11では、これまで2回の分析が行われ、今回の分析が3回目の分析であり、今回の分析では試料番号が2と3の2つの試料について分析したことが示されている。
【0084】
ここで、1回の分析とは、図2のステップS1のパラメータ入力から、ステップS8の結果表示までの一連の動作を指すものとする。従って、今回が3回目の分析であり、パラメータ入力のウインドウの検査試料の欄10で図3に示すように設定した場合には、図11のような表示となる。
【0085】
図11において、各分析番号の項目、及び試料番号の項目は、入力手段6のマウスによる左クリックにより選択可能となされており、図10に示す一覧表示のウインドウが表示された時には、今回の分析の試料番号の最小のもの、図11の場合は「試料番号2」が自動的に選択されている。従って、図11において、分析番号2の分析結果を表示したい場合には、「分析2」を選択すれば、「分析2」の下に、当該分析2で分析した試料番号がツリー状に表示され、その中の試料番号が最小のものが自動的に選択されることになる。
【0086】
データ表示欄31には、分析番号表示欄30で選択された試料番号について取得し、画像処理用モジュールによる分析の結果保存された画像に関する種々のデータが一覧表示される。図12はデータ表示欄31の例を示す図であり、図12では、分析の結果保存された画像の画像番号、その画像の取得日時、その画像を取得した試料上の座標、その画像の輝度得点、その画像の形状得点、その画像のエッジ得点、及びその画像の総合得点が表示されるようになされている。このように、一つの画像に関するデータは1行に表示されるのである。そして、このデータ表示欄31は上下にスクロール可能となされている。
【0087】
画像表示欄32には、分析番号表示欄30で選択された試料番号について取得し、画像処理用モジュールによる分析の結果保存された画像がサムネイルとして表示される。この画像表示欄32は、上下左右にスクロール可能となされている。
【0088】
視野表示欄33には、分析番号表示欄30で選択された試料番号の視野が円で表示され、その中に、画像取得を行った位置が点で示される。
【0089】
以上のようであるので、この結果表示により、どの試料のどの位置からどのような画像が得られ、各得点がいくらであるかを知ることができる。
【0090】
そして、画像表示欄32に表示された一つ一つのサムネイル画像は、入力手段6のマウスによる左クリックにより選択可能となされており、あるサムネイル画像をマウスの左クリックにより選択すると、制御手段4は、視野表示欄33において、当該画像を取得した位置に十字マークを表示する。従って、当該選択した画像が試料中のどの位置で取得したものであるかを確認することができる。
【0091】
また、画像表示欄32において、マウスの左クリックによって、あるサムネイル画像を選択して、次いでマウスを右クリックすることにより、当該画像に関するデータの表示、あるいは当該画像に対して所望の操作を行うようになされている。
【0092】
その例を説明すると次のようである。
画像表示欄32の中の、あるサムネイル画像を選択して、マウスを右クリックすると、例えば、図13に示されるようなメニューウインドウが表示され、原画像を選択すると、当該画像の原画像がウインドウ表示される。視野再現を選択すると、制御手段4は、当該画像を取得した試料番号、及びその座標を認識し、試料ステージ2を制御して、当該座標がTEM1の光軸上に位置するように移動させる。ライブ画像は、現在TVカメラ3から取り込んでいる画像を表示するためのメニューである。なお、ライブ画像を観察するに際して、ステップS5の処理により高圧が停止されている場合にはTEM1に高圧を供給する必要があることは当然である。
【0093】
図13のメニューウインドウにおいて、プロパティを選択すると、当該画像を取得した座標、取得日時、倍率、上記の4種類の得点等、データ表示欄31に表示されているデータが表示される。
【0094】
図13のメニューウインドウのFFTは、当該画像に対して高速フーリエ変換を施すためのメニューである。これは、取得した画像中に膜蛋白の結晶があるか否かを判定するために用いることができるように用意されているメニューであり、FFTで得られるパワースペクトルによって膜蛋白の結晶の有無を判定することができる。
【0095】
ただし、FFTを行う場合、FFTの対象とする領域のサイズは2のべき乗の画素数でなければならないので、FFTの対象とする領域を設定する必要がある。また、当該画像の取得倍率が低い場合には、例え当該画像中に膜蛋白の結晶があったとしても、結晶があることを示すパワースペクトルが得られない。そこで、取得倍率が低い場合には、例えば、視野再現を選択して、倍率を高倍率に設定してライブ画像を取り込み、そのライブ画像中でFFTを施す領域設定を行って、FFTを実行するようにすればよい。
以上のようにしてステップS8の結果表示を行うと分析の完了となる。
【0096】
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、種々の変形が可能である。例えば、上記実施形態では、取得した画像中にリポソームが写っている確からしさを分析する場合について説明したが、本発明は、例えば試料中にウィルスがあるか否かの判定、あるいは試料中に蛋白質の分子があるか否かの判定等、生物試料中に目的とする構造があるか否かの判定に適用することができるものである。
また、上記実施形態ではTVカメラを用いるものとしたが、TVカメラに代えて、例えばスロースキャンカメラ等を用いてもよい。
【0097】
以上のようであるので、この画像収集/分析システムによれば、画像の取得と、取得した画像の分析が同時並行して実行されるので、1回当たりの分析の時間は従来より短縮することができる。
【0098】
また、画像の輝度、輝度の分散に応じて輝度得点を付け、また、画像中の構造の形状に応じて形状得点を付け、更に画像中の模様に応じてエッジ得点を付け、そして、これらの得点の線形和として総合得点を付けるので、リポソーム等の不定形の構造が取得画像中にあるか否かの判定を確実に行うことができる。
【0099】
また更に、画像及びその画像に関する所定のデータの保存は、取得した全ての画像について行うことができることは勿論であるが、得点の種類、その得点の値を満足するものだけを保存することも可能であるので、記憶手段を効率よく、有効利用することができる。
【0100】
また、分析を行うについては、オペレータはパラメータ入力の操作を行うだけでよく、その後、画像の取得、取得画像の分析、及び分析結果の表示は自動的に行われるので、オペレータの負担は軽減される。
【図面の簡単な説明】
【図1】本発明に係る画像収集/分析システムの一実施形態を示す図である。
【図2】動作の流れを示すフローチャートである。
【図3】図2のステップS1のパラメータ入力を行う際に表示されるウインドウの例を示す図である。
【図4】図2のステップS2の試料移動を説明するための図である。
【図5】取得画像中に写る種々の構造を説明するための図である。
【図6】図2のステップS6の画像分析の処理において行う、画像から黒い部分と白い部分を除外する処理を説明するための図である。
【図7】図2のステップS6の画像分析の処理において行う輝度得点の計算の処理を説明するための図である。
【図8】図2のステップS6の画像分析の処理において行う形状得点の計算の処理を説明するための図である。
【図9】画像の取得と画像分析を同時並行して行っているときに表示されるウインドウの例を示す図である。
【図10】分析結果を表示するウインドウの例を示す図である。
【図11】図10に示すウインドウの分析番号表示欄30の表示例を示す図である。
【図12】図10に示すウインドウのデータ表示欄31の表示例を示す図である。
【図13】図10に示すウインドウの画像表示欄32の中の、一つのサムネイル画像を選択した場合に表示されるメニューウインドウの例を示す図である。
【符号の説明】
1…TEM、2…試料ステージ、3…TVカメラ、4…制御手段、5…記憶手段、6…入力手段、7…モニタ。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image collection / analysis system that automatically and concurrently collects a sample image using an electron microscope and analyzes the collected image.
[0002]
[Prior art]
2. Description of the Related Art It is widely practiced to acquire enlarged images of various positions of a sample using a transmission electron microscope (TEM) and analyze the acquired images. For example, Japanese Patent Application Laid-Open No. 1-97359 discloses that an image of a certain field of view of a sample is acquired at a predetermined magnification, and then the sample is moved so that an image of a field of view adjacent to the field of view of the image acquired immediately before is obtained. It is disclosed that the operation of acquiring at a magnification of is repeated to continuously and successively acquire images in various fields of view of the sample. Also, analysis is performed by performing appropriate image processing on the acquired images.
[0003]
[Patent Document 1] Japanese Patent Laid-Open No. 1-97359
[0004]
[Problems to be solved by the invention]
By the way, when a large number of sample images with different fields of view are collected and analyzed, conventionally, the analysis of the sample images is usually performed after all the sample images have been collected. It took a very long time from the start of the analysis to the end of the analysis of all the sample images, which was not desirable.
[0005]
For example, if the size of a sample is 2 mm in diameter and an attempt is made to acquire images over the entire surface of the sample without any gaps, the number of images becomes enormous, and it takes a long time to acquire images. This is remarkable as the magnification of the TEM is increased, and is remarkable as the number of samples is large. In addition, in the related art, in addition to the above, it takes a long time to analyze the acquired image, so that it took a very long time to complete the analysis.
[0006]
In the analysis of the acquired images, pattern recognition can be performed relatively easily if the sample has a fixed structure such as a semiconductor or metal, so that a specific structure is included in the sample image. Although it is relatively easy to perform the process of analyzing whether there is a sample, if the sample is a biological sample and you want to analyze whether or not the target structure exists in the sample image, The analysis is difficult and time-consuming because the target structure is indefinite. Examples of such an analysis include, for example, an analysis of whether or not a virus is present in a sample image, and an analysis of whether or not a liposome (lipid bilayer) is present in a sample image.
[0007]
Therefore, the present invention automatically obtains a large number of images from a sample in mutually different fields of view, and for the obtained images, at the same time as the image acquisition, does the image have a target structure in the images? It is an object of the present invention to provide an image collection / analysis system capable of performing a predetermined image processing for determining whether or not the image collection is performed.
[0008]
[Means for Solving the Problems]
To achieve the above object, an image collection / analysis system according to claim 1 includes a transmission electron microscope, a camera that captures an image of a sample enlarged and projected by the transmission electron microscope, control means, The control means is characterized by performing an operation of simultaneously acquiring an image of a sample taken by a camera and analyzing the acquired image in parallel.
The image acquisition / analysis system according to claim 2 is the image acquisition / analysis system according to claim 1, further comprising an input unit, wherein the control unit acquires the image of the sample by using the input unit to determine an inspection range of the sample. When the number of acquired images is set, the set number of images is acquired within the set inspection range.
In the image acquisition / analysis system according to the third aspect, in the image acquisition / analysis system according to the first aspect, in the image analysis processing, the control unit determines whether or not a target structure is included in the image. As indices to be expressed, a process of giving a luminance score based on the luminance of an image, a process of giving a shape score based on the shape of a figure in an image, a process of giving an edge score based on a linear figure in an image, and these luminances It is characterized in that a process of giving a total score based on a score, a shape score, and an edge score is performed.
An image acquisition / analysis system according to a fourth aspect of the present invention is the image acquisition / analysis system according to the third aspect, further comprising a storage unit, and the control unit sets the brightness score and the shape score as conditions for storing data by the input unit. If any one of the edge score and the total score and the score value are set, only the image data and the image of the image in which the set score is equal to or more than the set score value are set. The data is stored in a storage means.
An image acquisition / analysis system according to a fifth aspect is the image acquisition / analysis system according to any one of the first to fourth aspects, further comprising a monitor, and wherein the control means is configured to complete analysis of all the acquired images. Is characterized in that an analysis result is displayed on a monitor.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an embodiment of an image acquisition / analysis system according to the present invention, wherein 1 is a TEM, 2 is a sample stage, 3 is a camera, 4 is control means, 5 is storage means, and 6 is Input means 7 indicates a monitor.
[0010]
Although the TEM 1 has a well-known configuration, at least the magnification thereof can be controlled by the control unit 4. Since such a thing is well known, detailed description is omitted. The sample stage 2 of the TEM 1 has a sample holder on which a plurality of samples can be placed. Further, the position of the sample stage 2 with respect to the electron beam, that is, the position of the sample of the sample holder and the position of the sample to be irradiated with the electron beam can be controlled by the control means 4. Since such a sample stage is well known, a detailed description of its configuration will be omitted.
[0011]
The camera 3 is for acquiring an enlarged image of the sample, and here a TV camera is used. Therefore, it will be referred to as a TV camera 3 below.
The storage unit 5 is for storing predetermined information such as acquired images and analysis results of those images, and is preferably a large-capacity storage device such as a hard disk device.
The input means 6 is composed of a well-known input device such as a keyboard and a mouse. Here, it is assumed that the mouse can be left-clicked and right-clicked.
The monitor 7 is configured by a display device capable of displaying images, such as a color CRT and a color liquid crystal display device.
The control means 4, the input means 6, and the monitor 7 constitute a graphical user interface (GUI), and have various menus as described later.
[0012]
The control means 4 is for controlling the operation of each part of the image acquisition / analysis system in a centralized manner, and controls a magnification of the TEM 1, a position of the sample stage 2, or a TEM control software module for controlling a power supply. (Hereinafter, a software module is simply referred to as a module), a video capture module for capturing image data from the TV camera 3, and a predetermined image process for the obtained image data for analysis and data storage. Image processing module, an inspection display module for displaying items set during image acquisition and image processing on the monitor 7, an analysis result display module for displaying analysis results on the monitor 7, and the like. Various modules are mounted.
[0013]
The control means 4 can be constituted by only one computer system. For example, two personal computers are used, one is used for video capture and control of the TEM 1, and the other is used. One can be used for other image processing and display of the result.
[0014]
Therefore, for example, if a module for performing various types of image analysis is prepared as an image processing module, it is possible to cope with various types of analysis by mounting a module according to the purpose of the analysis. Also, by preparing various types of display modes for the analysis result display module, it is possible to display the analysis result in a mode desired by the user.
As described above, in this image collection / analysis system, it is possible to perform various image processing and display various results by exchanging modules.
[0015]
Hereinafter, the operation will be described. Here, the sample is a biological sample, and a module for performing image processing for determining the possibility that liposomes are present in the acquired image is used as the image processing module. .
[0016]
Before describing the operation, first, the validity of performing the image processing for determining the possibility that the liposome is captured in the acquired image will be briefly described.
Membrane proteins present in the cell membrane of living organisms play various roles in the activities of living organisms, and determining the structure of membrane proteins has great significance in biology, medicine, and pharmacy. Since it is a single large molecule, it must first be crystallized for accurate determination of its structure.
[0017]
However, the sample preparation conditions that can be crystallized for each type of membrane protein differ, and in order to crystallize, a huge number of samples must be prepared under various conditions and the presence or absence of crystals in each sample must be confirmed. Must.
[0018]
As a method of determining whether or not there is a crystal of a membrane protein in a sample, a method of preparing a three-dimensional crystal of the membrane protein and determining the presence or absence of the crystal by X-rays is generally used. Not all protein structures are necessarily reproduced, and two-dimensional crystals must be prepared for more accurate investigations.
[0019]
However, the presence or absence of a two-dimensional crystal cannot be confirmed by X-rays. Therefore, when analyzing the structure of the membrane protein using a two-dimensional crystal, an image of the sample is acquired using a TEM, and it is determined whether or not liposomes are present in the image or whether or not liposomes are likely to be present. Do that. This is because, if the sample contains membrane protein crystals, they are always formed on liposomes, so if there are liposomes in the image, or if there is a high possibility that liposomes are present, the sample Is based on the possibility that crystals of membrane proteins may be formed.
[0020]
In other words, this image processing does not directly determine the presence or absence of the crystal of the membrane protein. However, the sample determined to have the liposome, or the sample in which the liposome is likely to exist, and the position in the sample are determined. If it can be obtained, the presence or absence of the crystal of the membrane protein can be determined by examining the place in more detail by an appropriate method, and the conditions for forming the crystal of the membrane protein can be determined. It is.
[0021]
Hereinafter, the operation will be described with reference to a flowchart showing the flow of the operation shown in FIG. As will be apparent from the description below, in FIG. 2, the two horizontal lines below step S1 and the two horizontal lines above step S8 are two-series processes between these horizontal lines, that is, This shows that the processes of steps S2 to S5 and the processes of steps S6 and S7 are performed simultaneously in parallel.
[0022]
First, the operator adjusts the gain and the focus of the TV camera 3, and inputs predetermined parameters required for the analysis via the GUI (step S1). The parameters to be input here include, for example, designation of a sample from which an image is to be acquired, setting of an acquisition range of an image of the sample, setting of a magnification, setting of the number of images to be acquired for each sample, setting of the number of images, and saving. There are data conditions and the like, which will be described in detail below. Adjustment of the gain and focus of the TV camera 3 is a matter that is usually performed when an image is acquired by the TV camera.
[0023]
FIG. 3 is a diagram showing an example of a window displayed when performing parameter input. In FIG. 3, the title bar and the like of the window are not shown. This is the same in the following.
The inspection sample column 10 is a column for designating a sample from which an image is to be obtained. When the samples are placed on all the sample holders of the sample stage 2 and the images of all the samples are obtained, “all” is set. An item may be selected. To acquire an image only placed on a specific holder among the sample holders on the sample stage 2, select the item of “holder specification” and change the number of the holder. input. In the figure, “Specify Holder” is selected and “2, 3” is input. This means that images are acquired only from the samples placed on the second and third holders of the sample holder. Is shown.
[0024]
The inspection range column 11 is a column for setting from which range of the sample an image is obtained. The item “All” is an item to be selected when obtaining an image over the entire surface of the sample. In the case of acquiring an image only from a desired range in the range, the item of "range designation" is selected, and the center coordinates (x, y) of the range and the radius from the center coordinates are input. In the figure, the radius is in units of mm. In the figure, the coordinates (0, 0) are set such that an image is acquired with a radius of 0.1 mm from the center. The items set in the inspection range column 11 are reflected on the circle indicated by 12 on the right side. The outer circle indicates the entire field of view of the sample, and the inner circle indicates the range set in the “range designation” item of the inspection range column 11.
[0025]
The column 13 of display items under inspection is a column for setting what items are displayed during the operation of acquiring images and during the analysis of the acquired images. Can select an item to be displayed during the examination.
The item of the current image number is an item for displaying the number of the currently acquired image of the sample for which the image is currently acquired.
The total number of images is an item for displaying the total number of images acquired for the sample.
The sample number is an item for displaying the number of the sample currently targeted for image capture, that is, the number of the sample holder on which the sample is placed.
The coordinate is an item for displaying the position of the currently acquired image in the sample, and the coordinate.
The stored score is an item for displaying the set score when the score is set as a condition for storing the acquired image data and data such as the analysis result. The score will be described later.
The live image is an item for displaying an image currently captured by the TV camera 3.
[0026]
The data storage condition column 14 indicates whether or not to store data such as the result of performing image processing, which will be described later, on the acquired image, the image, the analysis result, and the like. This is a column for setting whether such a condition is provided.
As described below, in the image processing, three points of a luminance score, a shape point, and an edge point are assigned to each acquired image, and further, a total sum is obtained by taking a linear sum of the three points. However, when setting to save the data when the total score is equal to or more than one, the user selects "total score" and inputs a score value which is the threshold value in the rectangular box on the right side. ing. The same applies to the items of “luminance score”, “shape score”, and “edge score”. The item “all” is an item for setting to save all data such as acquired images and their analysis results, regardless of the score. In the figure, “Total score” is selected and a score of “0.45” is input. In this case, the image data having a total score of 0.45 or more obtained as a result of the image analysis is displayed. It will be stored together with the analysis results.
[0027]
The magnification column 15 is a column for setting the magnification of the TEM 1, and the operator can input a desired magnification.
The column 16 for the number of acquired images is a column for setting the number of images to be acquired for each sample set in the column 10 for the inspection sample, and is set in the column 11 for the inspection range for each sample. To obtain images of all the areas in the range without any gaps, the "automatic" item may be selected. To obtain a desired number of images in the range set in the inspection range column 11, "number setting" ”, And numerically input the number of sheets to be obtained in the rectangular box below the item.
[0028]
The high voltage setting column 17 is a column for setting whether to stop the supply of the high voltage to the TEM 1 or to keep the supply of the high voltage to the TEM 1 when the image capturing process in step S3 of FIG. 2 is completed. , OFF, the supply of the high voltage to the TEM 1 is stopped, and when ON is selected, the supply of the high voltage is continued.
[0029]
The OK button 18 is a button for confirming the input parameters, the registration button 19 is a button for registering the input parameter values, and the reading button 20 is operated when using the parameter values registered so far. The cancel button 21 is a button for canceling the input parameter value.
[0030]
When these parameters are entered and confirmed with the OK button 18, each parameter value is reflected on the corresponding module. For example, in the parameter input window shown in FIG. 3, each parameter value set in the inspection sample column 10, the inspection range column 11, the magnification 15 column, the number of acquired images column 16, and the high pressure setting column 17 is The parameters set in the data storage condition column 14 are reflected in the TEM control module, and are reflected in the image processing module, and the display item under inspection column 13, the data storage condition column 14, and the number of acquired images are set. Each parameter value set in 16 is reflected on the display module under inspection.
[0031]
When the input of the predetermined parameters is completed and the OK button 18 in FIG. 3 is operated to determine each parameter value, the control means 4 activates all the modules. Then, the TEM control module controls the magnification of the TEM 1 to the set magnification and moves the sample by controlling the sample stage 2 (step S2). First, the first sample is placed on the optical axis of the electron beam. The image acquisition position of is moved. Then, the control means 4 takes in the image signal from the TV camera 3 by the video capture module, digitizes the image signal, and stores it in the storage means 5 as image data (step S3). When the image data is stored, data such as the sample number of the sample, the image number, the coordinates at which the image was obtained, the date and time when the image was obtained, and the like are stored. The image number may be, for example, a serial number from 1 for each sample.
[0032]
By the way, the sample holder is provided with a copper grid in which a rectangular opening is regularly opened in a lattice shape in a thin copper plate in order to mount a sample. The beam may illuminate the copper portion just between the openings in the copper grid, in which case the image will be black and a meaningless image. When a portion of copper other than the opening portion of the copper grid is referred to as a meaningless region, it is known that the meaningless region of one sample holder is 80% or more. In other words, in the copper grid, the area of the opening is only about 20% of the entire area of the copper grid.
[0033]
Therefore, although not shown in FIG. 2, immediately before step S2, the range set in the inspection range column 11 of the sample holder set in the inspection sample column 10 of the parameter input window shown in FIG. It is checked which region is a meaningless region or which region is a meaningless region, and the capture of the image in step S3 in FIG. 2 is performed on a nonsense region, that is, an opening portion of the copper grid. To do.
[0034]
Examining a meaningless region or a non-significant region in the sample holder can be performed automatically or manually by an operator.
As a method of automatically checking a meaningless region, since the openings of the copper grid are regularly arranged, for example, the image is controlled in the range set in the inspection range column 11 of the parameter input window shown in FIG. There is a method in which the image is taken into the means 4 and the pattern of the black portion in the image is recognized by pattern recognition. Thus, the control unit 4 can recognize a non-significant area in the set inspection range.
[0035]
In the case of manual operation, a method of designating a non-significant region of the sample holder is used. For example, an image of the range set in the inspection range column 11 of the parameter input window is captured and displayed on the monitor 7, and while the operator observes the screen, the operator operates the input unit 6 to input the copper grid of the sample holder. There is a method of designating the opening portion of the image. This allows the control unit 4 to recognize an area other than a non-significant area in the inspection range.
[0036]
When recognizing an insignificant area or an insignificant area with respect to the set sample holder, the control means 4 executes the processing after step S2 in FIG. 2. First, the control means 4 executes the processing on the optical axis of the electron beam. Move the first image acquisition position of the first sample. Here, the first sample may be the smallest one of the sample holder numbers set in the column 10 of the test sample.
[0037]
Then, the control unit 4 successively acquires images in a range set in the inspection range column 11 of the parameter input window and a non-significant region of the sample holder (step S3). Here, the movement of the sample in step S2 will be roughly described as follows.
[0038]
Now, it is assumed that automatic is selected in the column 16 of the number of acquired images in the parameter input window in FIG. 3, and one non-significant area in the range set in the inspection range column 11 of the parameter input window is shown in FIG. Assuming that the rectangle is a rectangle indicated by a thick solid line in FIG. 4A, the control unit 4 determines an image capturing position in the non-significant area. FIG. 4A shows an example thereof. In FIG. 4A, a thin solid line rectangle indicates a capture range of each image.
[0039]
The control means 4, specifically the TEM control module, recognizes the set inspection range and the non-significant area, and the size of the field of view at the set magnification is fixed. As shown in FIG. 4A, it is possible to determine an image capturing position such that the field of view is completely filled in the non-significant area as shown in FIG. Can also be obtained.
[0040]
Therefore, in the case shown in FIG. 4A, the control means 4 performs the image capturing in each image capturing position in FIG. 4A in a predetermined order while moving the sample. The movement is performed by controlling the sample stage 2 to actually move the sample, and by controlling the deflection coil of the TEM 1 without moving the sample stage 2 to set the irradiation position of the electron beam to the next image capture position. There is an operation to change to.
[0041]
That is, controlling the sample stage 2 to actually move the sample is slow and inaccurate, so that the irradiation position of the electron beam is changed by the deflection coil within a range in which the irradiation position of the electron beam can be moved by the deflection coil. When the image capturing is completed within one deflectable range of the electron beam by the deflecting coil, the sample stage 2 is controlled to actually move the sample to the next electron beam. The operation of moving to the deflectable range, changing the irradiation position of the electron beam by the deflecting coil sequentially in a predetermined order within the deflectable range, and taking in the image is repeated.
As described above, the operation of moving the sample in step S2 of FIG. 2 includes the above two operations of movement.
[0042]
This will be described below with reference to the case shown in FIG. Now, for example, it is assumed that the deflectable range of the electron beam by the deflecting coil in the non-significant area shown in FIG. 4A is as shown by a broken-line rectangle in FIG. 4B. FIG. 4B shows six possible deflection ranges of the electron beam. In this case, for example, the control means 4 first controls the sample stage 2 to move the position of the sample to the center of the deflectable range of the electron beam at the lower left of FIG. The image capturing is performed in a predetermined order by changing the irradiation position of the electron beam within the deflectable range. In the case of FIG. 4B, 34 images are captured within the deflectable range of the electron beam.
[0043]
Then, when the capture of the image within the deflectable range of the electron beam is completed, the control unit 4 controls the sample stage 2 to change the position of the sample to the next deflectable range of the electron beam, for example, the lower right position. By moving the electron beam to the center of the deflectable range of the electron beam and changing the irradiation position of the electron beam within the deflectable range of the electron beam, images are captured in a predetermined order.
[0044]
Then, when the capture of the image within the deflectable range of the electron beam is completed, the control unit 4 controls the sample stage 2 to change the position of the sample to the next deflectable range of the electron beam, for example, the left side of the middle stage. By moving the electron beam to the center position of the deflectable range of the electron beam and changing the irradiation position of the electron beam within the deflectable range of the electron beam, images are captured in a predetermined order.
By repeating the above operation, an image can be obtained without gaps in the non-significant area.
[0045]
Note that the order in which the images are acquired within the deflectable range of one electron beam can be arbitrarily determined. The case shown in FIG. 4B will be described. For example, an image is sequentially acquired from the lower left end of the deflectable range of the electron beam to the right side. From the left end to the right.
[0046]
The above is the description of the operation of moving the sample in step S2 in FIG.
In the above description, automatic is selected in the field 16 of the number of acquired images in the parameter input window. However, when the number of images is set in the field 16 of the number of acquired images in the parameter input window, By generating random numbers or the like, the coordinates of the set number are determined within the range set in the inspection range column 11, and the positions of the determined coordinates are sequentially moved, and the image is displayed at each coordinate position. You only need to get it. If the determined coordinates are a meaningless area, the process of determining the coordinates may be repeated. In addition, it is natural that there are two operations as described above in the operation of moving the coordinates.
[0047]
When the acquisition of the image of the set inspection range is completed for one sample, the control means 4 controls the sample stage 2 to move the sample of the next sample holder on the optical axis, and Is repeated (step S4). With the above operation, a predetermined number of images of the set inspection range can be acquired for the set sample.
[0048]
When all the images have been captured, the control means 4 controls the high voltage of the TEM 1 by the TEM control module (step S5). That is, in the parameter input window, when ON is set in the high voltage setting column 17 in the parameter input window, the control unit 4 keeps the high voltage as it is, and when OFF is set, stops the high voltage.
[0049]
When acquiring one image, the control means 4 performs predetermined image processing on the image by the image processing module, and performs analysis and storage processing (step S6). Therefore, the process of step S6 is performed simultaneously and in parallel with the operations of steps S2 to S5.
[0050]
The image analysis process is as follows.
In this embodiment, as described above, an image in which a liposome may be present is found, but various structures are shown in the image of the sample. An example of such an image is shown in FIG. In the figure, A is a liposome, B is a support membrane, C is a portion where the support membrane is broken and has holes, D is a copper grid, and E is a drug. And F indicates an aggregate. The copper grid is a structure for mounting the sample, the support film is a thin film made of an organic substance that is pasted on the copper grid when the sample is mounted on the copper grid, and the aggregate is a protein molecule that has been randomly disordered Which are all well-known.
[0051]
They try to determine whether or not liposomes are or are likely to be in such an image, but the liposomes are amorphous and do not have a fixed shape, and there is no fixed pattern Therefore, identification by pattern matching is impossible. However, the present inventors have found that the structure of liposome has the following characteristics in an image.
(B) Luminance: Although it is darker than the supporting film serving as the background, it is not as black as aggregates and copper grids.
(B) Shape: The shape is irregular, but round and not jagged. That is, there are few contour irregularities.
(C) Pattern: There is no fixed pattern, but usually there is a long streak-like pattern inside.
[0052]
Therefore, by utilizing the above characteristics, it is determined whether or not there is a liposome in such an image, or whether or not it is likely. For that purpose, the image processing module acquires The following processing is performed on the image.
(1) Black portions in the image are excluded from the analysis range.
(2) White portions are excluded from the remaining range.
(3) Calculate a luminance score based on the average luminance and the variance of the luminance in the remaining area.
(4) Calculate the shape score based on the shape of the outer shape of the closed area in the image.
(5) An edge score is calculated based on the pattern in the closed area.
(6) The total score is calculated by linearly combining the brightness score, shape score, and edge score.
(7) The information of the four scores obtained above is added to the image and stored.
[0053]
[Process to exclude black and white parts]
According to the research of the present inventor, when a luminance histogram is created for an image in which a liposome is captured or an image in which a liposome is likely to be captured, a peak having two peaks is almost always obtained as shown in FIG. I found out. In this case, the gradation of the image is 256 gradations from 0 to 255, and it is assumed that all black is gradation 0 and all white is gradation 255.
[0054]
Then, the gray scale indicated by A in FIG. 6, that is, the part where the gray scale is smaller than the gray scale where the number of pixels between two peaks is minimum is a black part such as an aggregate or a copper grid, and is a target of image analysis. It turned out that it may be excluded from. From this, it can be seen that it is sufficient to create a histogram of the luminance and exclude pixels having a gray scale at or below which the number of pixels between two peaks is minimum as a black portion.
[0055]
Next, a method for excluding a white portion in an image, that is, a support film serving as a background or a portion where the support film is broken from the analysis target is, for example, a method in which a certain gradation is set in advance as a threshold value, and the threshold value is determined. Although it is possible to make a pixel having the above gradation a white portion, according to research, the gradation shown by C in FIG. 6, that is, the position of the higher gradation peak differs depending on the content of the image. It has been found that it is not appropriate to fix the threshold value in advance.
[0056]
Therefore, as a result of various studies, the maximum gradation at which the number of pixels is 0 is defined as B (FIG. 6), and the gradation difference d between the gradation B and the gradation C of the higher gradation peak is calculated. Then, from the gradation C of the peak having the higher gradation, a gradation D whose gradation is lower by the gradation difference d is calculated, and a portion having a gradation higher than this gradation D is defined as a white portion. Turned out to be good.
[0057]
Therefore, the control unit 4 performs the above-described processing by using the image processing module, and excludes black and white portions of the image from the analysis target. Therefore, a gray area having a gradation between A and D in the histogram of FIG. 6 remains. The gray area obtained in this way is called a blob.
[0058]
[Process of calculating luminance score]
It is highly possible that the blob obtained as described above contains liposomes or aggregates having a light color, but it is also possible that some blobs are present on the support membrane. Therefore, based on the brightness of the blob and the dispersion of the brightness, the likelihood that the liposome is captured in the blob is scored. This is the luminance score.
[0059]
By the way, as described above, liposomes are generally whitish in color than aggregates and darker than the support membrane. According to the study of the present inventor, it has been found that the average luminance of the supporting film changes depending on the image, but the ratio of the average luminance of the liposome to the average luminance of the supporting film does not change much. Here, as the average luminance of the support film, the average luminance of the white part obtained by the above-described processing of excluding the white part may be used.
[0060]
As described above, the liposome does not have a fixed pattern, but usually has a long streak-like pattern inside, and thus has a variation in luminance. When the luminance distribution of the liposome portion, that is, a histogram is taken, FIG. As shown in FIG. 7 (a), while a broad peak appears, the histogram of the brightness of the aggregates having a lighter color and of some spots on the supporting film is shown in FIG. 7 (b). As a result of the study, it was found that the peak was as narrow as possible.
[0061]
From the above, it is possible to determine the likelihood that the liposome is captured by scoring based on the average brightness of the blob, and further, by scoring based on the dispersion of the blob brightness, the liposome It can be seen that it is possible to determine the certainty of the image.
[0062]
For scoring based on the average brightness of the blob, for example, the average brightness of the blob and the average brightness of the support film, that is, the average brightness of the white portion of the image is obtained, and the ratio of the two, the average brightness of the liposome and the average of the support film are obtained. The smaller the difference from the luminance ratio, the higher the score, and the larger the difference, the lower the score. Specifically, when the average brightness of the blob is B, the average brightness of the support membrane is H, and the ratio of the average brightness of the liposome to the average brightness of the support membrane is R, for example,
1 / | (B / H) -R |
, And that value can be used as a score based on the average luminance of the blob as it is. The value of R may be obtained by experimentally determining the ratio between the average luminance of the liposome and the average luminance of the support film, and registering that value in the image processing module in advance.
[0063]
The scoring based on the blob luminance variance can be achieved by creating a blob luminance histogram and obtaining a higher score as the width of the peak, for example, the half-width of the peak is wider. What kind of score is given to what kind of peak width is arbitrary.
[0064]
As described above, two scores based on the blob brightness are obtained, and the control unit 4 sets the sum of the two scores as the brightness score of the image. The higher the luminance score, the higher the possibility that the liposome is captured. In other words, the luminance score is one of the indices indicating the likelihood that the target liposome structure is shown in the image.
[0065]
[Process of shape score calculation]
As described above, the shape of the liposome is indefinite, but it is round and not jagged, and the contour is less uneven. Therefore, when there is a structure in which a closed region is formed in the blob, it is possible to determine the likelihood that the liposome is captured in the blob based on the degree of irregularity of the contour of the closed region. That is, by performing scoring according to the degree of unevenness of the contour of the closed region in the blob, it is possible to determine the likelihood that the liposome is captured, and this is the shape score.
[0066]
There are various methods for calculating the shape score, and an example will be described.
First, a process of extracting a closed region is performed on the image in the blob. This process may use a known method. Then, a circumscribed figure in which the extracted closed region has no concave portion and has a minimum perimeter is created. Such a circumscribed figure is known as a convex circumscribed figure. For example, if a closed region L indicated by a solid line in FIG. 8 is now extracted, both ends of the concave portion are connected by a straight line as indicated by a broken line in the drawing. As a result, a figure as if rubber bands were applied to the closed area L is obtained. This is the convex hull circumscribed figure L '. Since the process for obtaining the convex hull circumscribed figure is well known, detailed description is omitted.
[0067]
Then, the ratio of the circumference of the extracted closed region L to the circumference of the convex hull circumscribed figure L ′ is determined, and a score is given in accordance with the ratio to obtain a shape score. In this case, the closer the ratio is to 1, the higher the score. This is because the contour of the liposome has few irregularities, and the ratio of the circumference of the contour to the circumference of the convex circumscribed figure of the contour may be considered to be close to 1. At this time, it is possible to arbitrarily determine what kind of score is obtained when the ratio of the circumference of the closed region to the circumference of the convex hull circumscribed figure.
[0068]
As described above, a shape score based on the shape of the closed area of the blob is obtained. Therefore, the higher the shape score, the higher the possibility that the liposome is captured. In other words, the shape score is one of the indices indicating the likelihood that the target liposome structure is shown in the image.
[0069]
[Process of edge score calculation]
As described above, there is no fixed pattern inside the liposome, but usually there is a long streak-like pattern inside. In the present specification, a pattern having a length equal to or longer than a predetermined length among such long streak-like patterns, that is, linear figures is referred to as an edge. From this, if scoring is performed according to the length of the linear figure of the blob, it is possible to determine the likelihood that the liposome is captured by this score. This is the edge score.
[0070]
There are various methods for calculating the edge score, and an example will be described.
First, a process of extracting a closed region is performed on the image in the blob, and further, a process of extracting a linear figure is performed within the extracted closed region. Since the process of extracting a closed region and the process of extracting a linear figure are well known, detailed description will be omitted.
[0071]
By the way, in the study of the present inventor, the length of the extracted linear figure is various, and if it is a liposome, it is relatively long, but the linear figure based on the aggregate, the stain of the support membrane, noise, etc. is generally short. It is confirmed that it is bent. Therefore, only the extracted linear figure whose length is equal to or larger than the threshold value is set as an edge. This threshold may be determined based on experiments, and the value may be registered in advance in the image processing module and used.
[0072]
Then, the areas of all edges in the closed region are obtained. For the area of the edge, for each edge, the number of pixels constituting the edge may be obtained, and the sum of the numbers of pixels may be determined as the area of all edges. Then, the ratio of the edge area to the area of the extracted closed region is obtained, and scoring is performed so that the ratio is high and the score is high. At this time, what kind of score is given to what ratio can be arbitrarily determined.
[0073]
As described above, an edge score based on the edge within the closed area of the blob is obtained. Then, the higher the edge score, the higher the possibility that the liposome is captured. In other words, the edge score is one of the indices indicating the likelihood that the target liposome structure is shown in the image.
[0074]
[Total score calculation process]
As described above, the control unit 4 obtains three types of scores for the acquired image: a luminance score, a shape score, and an edge score. Then, a total score is obtained based on these three types of scores. This total score can be defined by a linear sum of three types of scores, and the brightness score is I, the shape score is S, the edge score is E, and α, β, γ are coefficients, for example,
A = α × I + β × S + γ × E (1)
To obtain the total score A. Here, the values of the coefficients α, β, and γ can be arbitrarily determined, and if there is a score to be regarded as important, the coefficient of the score may be set to a large value. The values of these coefficients α, β, and γ may be determined in advance and registered in the control unit 4, more specifically, in the image processing module. This total score is also one of the indices indicating the likelihood that the target liposome structure is shown in the image.
[0075]
[Process for saving data]
As described above, a luminance score, a shape score, an edge score, and a total score are given to each of the acquired images. When the control unit 4 performs these four types of scoring for one image, the control unit 4 determines whether to save the image based on the conditions set in the data storage condition column 14 of the parameter input window. It is determined whether or not the image is satisfied, and only the image satisfying the data storage condition is stored. Images that do not satisfy the data storage conditions are deleted from the storage unit 5.
[0076]
For example, as shown in FIG. 3, in the data storage condition column 14 of the window, when it is set that the total score is set to 0.45 or more, the total score of the image that has just been scored is set. If the value is less than 0.45 points, the data is not stored and the data relating to the image stored in the storage means 5 is deleted. If the value is 0.45 or more, the data is stored in the storage means 5 so far. Four types of score values are added to the stored data relating to the image and stored. At the time when the image is obtained, data such as image data, the sample number of the sample, the image number, the coordinates at which the image was obtained, the date and time at which the image was obtained, etc. are added. Scores will be added and saved.
[0077]
However, if all images are stored in the data storage condition column 14, all images are stored regardless of the above four types of scores. At this time, it is natural that the above four types of scores are also added.
[0078]
According to the above-described storage processing, only the image having a high possibility of liposome being stored is saved, and the image having a low possibility is deleted from the storage means 5, so that the storage means 5 is effectively used. be able to.
[0079]
[Processing of display during inspection]
The control means 4 executes the processing of step S6 in FIG. 2 described above for all the acquired images (steps S6 and S7). Here, the acquisition of the image and the image analysis are performed in parallel. The window that is displayed when the user is present will be described.
[0080]
When image acquisition and image analysis are performed simultaneously in parallel, the control means 4 causes the display module under inspection to display a window for the item selected in the display item under inspection column 13 of the parameter input. FIG. 9 shows an example of the window display. Each item shown in FIG. 9 is as described above. In FIG. 9, the coordinates are indicated by asterisks, but it goes without saying that numerical values are actually displayed. The storage score is a score set in the data storage condition column 14 of the parameter input window. When "all" is selected in the data storage condition column 14, "All" is displayed in the storage score item. The stop button at the lower right of FIG. 9 is a button for ending this window display.
[0081]
In FIG. 9, the circle on the left side indicates the visual field range set in the column 11 of the inspection range of the parameter input, and points are displayed at positions where image acquisition has been performed so far.
Further, when a live image is selected in the field 13 of the display item under inspection, the control means 4 displays a window separately from the window display shown in FIG. An image is displayed.
[0082]
[Result display processing]
Next, the control means 4 displays a list of analysis results by the analysis result display module (step S8). FIG. 10 shows an example of the list display window.
[0083]
The window shown in FIG. 10 is divided into four regions: an analysis number display column 30, a data display column 31, an image display column 32, and a visual field display column 33. FIG. 11 is a diagram showing an example of the analysis number display column 30. In FIG. 11, the analysis number of the analysis currently stored in the storage means 5 is displayed, and the sample number is displayed for the analysis completed this time. I have. FIG. 11 shows that two analyzes have been performed so far, and the present analysis is the third analysis, and in this analysis, two samples having sample numbers 2 and 3 have been analyzed.
[0084]
Here, one analysis refers to a series of operations from the parameter input in step S1 of FIG. 2 to the result display in step S8. Therefore, this is the third analysis, and if the setting is made as shown in FIG. 3 in the column 10 of the test sample in the parameter input window, the display is as shown in FIG.
[0085]
In FIG. 11, the item of each analysis number and the item of the sample number can be selected by left-clicking with the mouse of the input means 6, and when the list display window shown in FIG. In the case of FIG. 11, "sample number 2" is automatically selected. Therefore, in FIG. 11, when the analysis result of the analysis number 2 is to be displayed, if “analysis 2” is selected, the sample numbers analyzed in the analysis 2 are displayed in a tree shape under “analysis 2”. The sample with the smallest sample number is automatically selected.
[0086]
The data display column 31 displays a list of various data related to the image acquired for the sample number selected in the analysis number display column 30 and stored as a result of the analysis by the image processing module. FIG. 12 is a diagram showing an example of the data display column 31. In FIG. 12, the image number of the image stored as a result of the analysis, the date and time of acquisition of the image, the coordinates on the sample from which the image was acquired, and the brightness of the image The score, the shape score of the image, the edge score of the image, and the total score of the image are displayed. Thus, data relating to one image is displayed on one line. The data display column 31 can be scrolled up and down.
[0087]
In the image display column 32, images obtained for the sample number selected in the analysis number display column 30 and stored as a result of analysis by the image processing module are displayed as thumbnails. The image display field 32 is scrollable up, down, left, and right.
[0088]
In the visual field display column 33, the visual field of the sample number selected in the analysis number display column 30 is displayed as a circle, and the position where the image was obtained is indicated by a dot.
[0089]
As described above, by displaying the result, it is possible to know what kind of image is obtained from which position of which sample, and how much each score is.
[0090]
Each of the thumbnail images displayed in the image display section 32 can be selected by left-clicking the input unit 6 with the mouse. When a certain thumbnail image is selected by left-clicking the mouse, the control unit 4 sets the thumbnail image. In the visual field display field 33, a cross mark is displayed at the position where the image is obtained. Therefore, it is possible to confirm at which position in the sample the selected image is obtained.
[0091]
In the image display column 32, a certain thumbnail image is selected by left-clicking the mouse, and then right-clicking the mouse to display data relating to the image or perform a desired operation on the image. It has been made.
[0092]
An example is as follows.
When a certain thumbnail image in the image display column 32 is selected and the mouse is right-clicked, for example, a menu window as shown in FIG. 13 is displayed. When an original image is selected, the original image of the image is displayed in the window. Is displayed. When the reproduction of the visual field is selected, the control unit 4 recognizes the sample number from which the image has been obtained and the coordinates thereof, and controls the sample stage 2 to move the coordinates so that the coordinates are located on the optical axis of the TEM 1. The live image is a menu for displaying an image currently captured from the TV camera 3. When observing a live image, if the high pressure is stopped by the processing in step S5, it is natural that the high voltage needs to be supplied to the TEM1.
[0093]
When the property is selected in the menu window of FIG. 13, the data displayed in the data display column 31 such as the coordinates at which the image was acquired, the acquisition date and time, the magnification, and the above four types of scores are displayed.
[0094]
The FFT in the menu window in FIG. 13 is a menu for performing a fast Fourier transform on the image. This menu is prepared so that it can be used to determine whether or not crystals of the membrane protein are present in the acquired image. The presence or absence of the crystals of the membrane protein is determined by the power spectrum obtained by the FFT. Can be determined.
[0095]
However, when performing the FFT, the size of the region to be subjected to the FFT must be the number of pixels of a power of 2, so that the region to be subjected to the FFT needs to be set. Further, when the acquisition magnification of the image is low, even if crystals of the membrane protein are present in the image, a power spectrum indicating the presence of the crystals cannot be obtained. Therefore, when the acquisition magnification is low, for example, the field of view reproduction is selected, the magnification is set to a high magnification, a live image is captured, an area to be subjected to FFT in the live image is set, and the FFT is executed. What should I do?
When the result of step S8 is displayed as described above, the analysis is completed.
[0096]
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said Embodiment, A various deformation | transformation is possible. For example, in the above embodiment, a case was described in which the likelihood that a liposome was captured in an acquired image was analyzed. However, the present invention provides, for example, determination of whether a virus is present in a sample, or protein in a sample. Can be applied to the determination of whether or not the target structure is present in the biological sample, such as the determination of the presence or absence of the molecule.
In the above embodiment, the TV camera is used. However, a slow scan camera or the like may be used instead of the TV camera.
[0097]
As described above, according to this image collection / analysis system, the acquisition of an image and the analysis of the acquired image are performed simultaneously in parallel, so that the time of one analysis can be shortened compared to the related art. Can be.
[0098]
In addition, the luminance of the image, a luminance score is assigned according to the variance of the luminance, a shape score is assigned according to the shape of the structure in the image, and an edge score is assigned according to the pattern in the image. Since the total score is given as a linear sum of the scores, it can be reliably determined whether or not an amorphous structure such as a liposome is present in the acquired image.
[0099]
Still further, the image and the predetermined data relating to the image can be stored for all the acquired images, but it is also possible to store only the type of the score and those satisfying the value of the score. Therefore, the storage means can be used efficiently and effectively.
[0100]
Further, when performing analysis, the operator only needs to perform the operation of inputting parameters, and thereafter, the image acquisition, the analysis of the acquired image, and the display of the analysis result are automatically performed, so that the burden on the operator is reduced. You.
[Brief description of the drawings]
FIG. 1 is a diagram showing an embodiment of an image collection / analysis system according to the present invention.
FIG. 2 is a flowchart showing a flow of operation.
FIG. 3 is a diagram illustrating an example of a window displayed when performing parameter input in step S1 of FIG. 2;
FIG. 4 is a view for explaining a sample movement in step S2 of FIG. 2;
FIG. 5 is a diagram for explaining various structures appearing in an acquired image.
FIG. 6 is a diagram for explaining a process of excluding a black portion and a white portion from an image, which is performed in the image analysis process in step S6 of FIG. 2;
FIG. 7 is a diagram for explaining a process of calculating a luminance score performed in the image analysis process of step S6 in FIG. 2;
FIG. 8 is a diagram for explaining a process of calculating a shape score performed in the image analysis process in step S6 of FIG. 2;
FIG. 9 is a diagram illustrating an example of a window displayed when image acquisition and image analysis are performed simultaneously in parallel.
FIG. 10 is a diagram illustrating an example of a window that displays an analysis result.
11 is a diagram showing a display example of an analysis number display column 30 of the window shown in FIG.
12 is a diagram showing a display example of a data display column 31 of the window shown in FIG.
13 is a diagram showing an example of a menu window displayed when one thumbnail image is selected in the image display column 32 of the window shown in FIG.
[Explanation of symbols]
1 TEM, 2 sample stage, 3 TV camera, 4 control means, 5 storage means, 6 input means, 7 monitor.

Claims (5)

透過型電子顕微鏡と、
透過型電子顕微鏡で拡大投影された試料の画像を撮像するカメラと、
制御手段と、
を少なくとも備え、
制御手段は、カメラで撮像された試料の画像の取得と、取得した画像の分析の処理とを同時並行して実行する動作を行う
ことを特徴とする画像収集/分析システム。
A transmission electron microscope,
A camera for capturing an image of the sample enlarged and projected by the transmission electron microscope,
Control means;
At least,
An image collection / analysis system, wherein the control unit performs an operation of executing, in parallel, acquisition of an image of the sample captured by the camera and analysis of the acquired image.
請求項1記載の画像収集/分析システムにおいて、更に入力手段を備え、
制御手段は、前記試料の画像の取得は、入力手段で試料の検査範囲と取得画像枚数が設定された場合には、当該設定された検査範囲内で設定された枚数の画像を取得することを特徴とする画像収集/分析システム
2. The image acquisition / analysis system according to claim 1, further comprising an input unit.
The control unit acquires the image of the sample, when the inspection range of the sample and the number of acquired images are set by the input unit, acquires the number of images set within the set inspection range. Featured image acquisition / analysis system
請求項1記載の画像収集/分析システムにおいて、
制御手段は、画像の分析の処理においては、画像中に目的とする構造が写っている確からしさを表す指標として、画像の輝度に基づいて輝度得点を付ける処理、画像中の図形の形状に基づいて形状得点を付ける処理、画像中の線状の図形に基づいてエッジ得点を付ける処理、及びこれら輝度得点、形状得点、エッジ得点に基づいて総合得点を付ける処理を行うことを特徴とする画像収集/分析システム。
The image collection / analysis system according to claim 1,
In the image analysis processing, the control means assigns a luminance score based on the luminance of the image as an index indicating the likelihood that the target structure appears in the image, based on the shape of the figure in the image Image collection by performing a process of assigning a shape score, a process of assigning an edge score based on a linear figure in an image, and a process of assigning a total score based on the luminance score, the shape score, and the edge score. / Analysis system.
請求項3記載の画像収集/分析システムにおいて、
更に記憶手段を備え、
制御手段は、入力手段によりデータを保存する条件として、前記輝度得点、形状得点、エッジ得点、総合得点の何れか一つと、得点の値が設定された場合には、当該設定された得点が当該設定された得点の値以上となった画像についてのみ、その画像データ及び当該画像に関する所定のデータを記憶手段に保存することを特徴とする画像収集/分析システム。
The image collection / analysis system according to claim 3,
Further comprising storage means,
The control unit may set any one of the luminance score, the shape score, the edge score, and the total score as a condition for storing the data by the input unit, and when the value of the score is set, the set score is used as the condition. An image collection / analysis system characterized in that image data and predetermined data relating to the image are stored in a storage means only for an image having a score value or more.
請求項1乃至4の何れかに記載の画像収集/分析システムにおいて、
更にモニタを備え、
制御手段は、取得した全ての画像について分析が終了した場合には、分析結果をモニタに表示することを特徴とする画像収集/分析システム。
The image acquisition / analysis system according to any one of claims 1 to 4,
It also has a monitor,
An image collection / analysis system, wherein the control means displays an analysis result on a monitor when analysis of all acquired images is completed.
JP2003042693A 2003-02-20 2003-02-20 Image acquisition / analysis system Expired - Fee Related JP4098644B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003042693A JP4098644B2 (en) 2003-02-20 2003-02-20 Image acquisition / analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003042693A JP4098644B2 (en) 2003-02-20 2003-02-20 Image acquisition / analysis system

Publications (2)

Publication Number Publication Date
JP2004253261A true JP2004253261A (en) 2004-09-09
JP4098644B2 JP4098644B2 (en) 2008-06-11

Family

ID=33025904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003042693A Expired - Fee Related JP4098644B2 (en) 2003-02-20 2003-02-20 Image acquisition / analysis system

Country Status (1)

Country Link
JP (1) JP4098644B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7838829B2 (en) 2007-03-12 2010-11-23 Hitachi High-Technologies Corporation Charged particle beam device
JP2016061765A (en) * 2014-09-22 2016-04-25 日本電子株式会社 Information processing apparatus and information processing method
CN111613309A (en) * 2020-05-20 2020-09-01 深圳市妇幼保健院 Breast cancer ultrasonic screening ability assessment device and system
JP2021064446A (en) * 2019-10-10 2021-04-22 株式会社日立製作所 Image collection system
EP3779403A4 (en) * 2018-03-29 2021-11-17 Hitachi High-Tech Corporation Charged particle beam device
CN118583897A (en) * 2024-08-06 2024-09-03 深圳市艾兰特科技有限公司 System and method for detecting material defects by using X rays

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7838829B2 (en) 2007-03-12 2010-11-23 Hitachi High-Technologies Corporation Charged particle beam device
US8288725B2 (en) 2007-03-12 2012-10-16 Hitachi High-Technologies Corporation Charged particle beam device
JP2016061765A (en) * 2014-09-22 2016-04-25 日本電子株式会社 Information processing apparatus and information processing method
US10269535B2 (en) 2014-09-22 2019-04-23 Jeol Ltd. Information processing device and information processing method
EP3779403A4 (en) * 2018-03-29 2021-11-17 Hitachi High-Tech Corporation Charged particle beam device
JP2021064446A (en) * 2019-10-10 2021-04-22 株式会社日立製作所 Image collection system
JP7239438B2 (en) 2019-10-10 2023-03-14 株式会社日立製作所 image acquisition system
CN111613309A (en) * 2020-05-20 2020-09-01 深圳市妇幼保健院 Breast cancer ultrasonic screening ability assessment device and system
CN118583897A (en) * 2024-08-06 2024-09-03 深圳市艾兰特科技有限公司 System and method for detecting material defects by using X rays

Also Published As

Publication number Publication date
JP4098644B2 (en) 2008-06-11

Similar Documents

Publication Publication Date Title
JP6816196B2 (en) Systems and methods for comprehensive multi-assay histology analysis
EP3776458B1 (en) Augmented reality microscope for pathology with overlay of quantitative biomarker data
JP6810505B2 (en) Teacher data creation method and equipment and defect inspection method and equipment
EP3586181B1 (en) Augmented reality microscope for pathology
US7305109B1 (en) Automated microscopic image acquisition compositing, and display
US6529612B1 (en) Method for acquiring, storing and analyzing crystal images
US6975754B2 (en) Circuit pattern inspection method and apparatus
JP5481696B2 (en) Fertilized egg quality evaluation support system, fertilized egg quality evaluation support device, and fertilized egg quality evaluation support method
KR20220119447A (en) Method for supporting pathology diagnosis using AI, and supporting device
EP2544141A1 (en) Diagnostic information distribution device and pathology diagnosis system
Wright et al. The effect of quality control on accuracy of digital pathology image analysis
US20020114506A1 (en) Circuit pattern inspection method and apparatus
US20120122143A1 (en) Technique for determining maturity of a cell aggregation, image processing program and image processing device using the technique, and method for producing a cell aggregation
WO2017221592A1 (en) Image processing device, image processing method, and image processing program
US8249315B2 (en) System and method for improved viewing and navigation of digital images
WO2017150194A1 (en) Image processing device, image processing method, and program
JP4801025B2 (en) Cell image analysis apparatus and cell image analysis software
JP5066056B2 (en) Sample observation method and electron microscope
US20200311931A1 (en) Method for analyzing image of biopsy specimen to determine cancerous probability thereof
JP2011191222A (en) Mass analysis data processing method and apparatus
WO2013099045A1 (en) Image display device and image display method
US20040014165A1 (en) System and automated and remote histological analysis and new drug assessment
JP2004253261A (en) Image collection/analysis system
JP6343874B2 (en) Observation apparatus, observation method, observation system, program thereof, and cell manufacturing method
US20230230398A1 (en) Image processing device, image processing method, image processing program, and diagnosis support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070720

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070829

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071213

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080313

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110321

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110321

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120321

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130321

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130321

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140321

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees