JP2004138761A - Confocal microscope system - Google Patents

Confocal microscope system Download PDF

Info

Publication number
JP2004138761A
JP2004138761A JP2002302494A JP2002302494A JP2004138761A JP 2004138761 A JP2004138761 A JP 2004138761A JP 2002302494 A JP2002302494 A JP 2002302494A JP 2002302494 A JP2002302494 A JP 2002302494A JP 2004138761 A JP2004138761 A JP 2004138761A
Authority
JP
Japan
Prior art keywords
image
information
images
light
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002302494A
Other languages
Japanese (ja)
Inventor
Satoru Matsushita
松下 悟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2002302494A priority Critical patent/JP2004138761A/en
Publication of JP2004138761A publication Critical patent/JP2004138761A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a confocal microscope system equipped with a mode for manually connecting pictures without using an expensive motor-driven stage. <P>SOLUTION: Light from the surface of a sample within a measurement range decided according to optical magnification is received by a photodetector through a confocal optical system, the height information and the light quantity information of the surface of the sample are acquired based on the received light information, and the picture of the surface of the sample obtained by processing the acquired information is displayed on the screen of a display apparatus. The confocal microscopic system is equipped with the manually connecting mode for forming one composite picture by connecting a plurality of pictures 66 to 69 formed while shifting the measurement range by manual operation, and the screen display 60 of the display apparatus in the manually connecting mode has a 1st area 61 for displaying a plurality of pictures, a 2nd area 62 for displaying the composited picture formed by connecting a plurality of pictures 66 to 69 while moving them one by one by using a pointing device, and a 3rd area 63 for setting the connecting condition. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、試料からの光情報に基づいて試料の超深度画像や高さ分布等の情報を取得するための共焦点顕微鏡システムに関し、詳しくは、得られた画像のつなぎ合わせを手動で行うモードを備えた共焦点顕微鏡システムに関する。
【0002】
【従来の技術】
共焦点顕微鏡では、試料からの光が共焦点光学系を介して受光素子で受光され、その受光量に基づいて、試料の超深度画像(焦点深度が非常に深い画像)や高さ分布等の情報が取得される。ステージに載置された試料と対物レンズとの相対距離を光軸方向に変化させると、共焦点光学系を介して受光素子に入射する光の量、すなわち受光量が変化し、試料の表面にピントが合ったときに受光量が最大となる。したがって、最大受光量が得られるときの試料と対物レンズとの相対距離から試料の表面の高さ情報を算出し、試料の表面を光で走査することによって試料の表面の高さ分布を取得することができる。
【0003】
取得された高さ分布は、例えば三次元表示によって表示装置の画面上に表示される。あるいは、高さ分布を輝度分布や色分布に置き換えたものが画面上に表示される。表示装置としてCRT(陰極線管)やLCD(液晶表示装置)が使用され、共焦点顕微鏡に制御用のコントローラ、表示装置、コンソール等が接続されて共焦点顕微鏡システムが構成される。
【0004】
また、試料表面の各点(画素)でピントが合ったときの受光量の情報(すなわち各画素の最大輝度情報)をつなぎ合わせることにより、焦点深度の非常に深い試料表面の白黒画像を得ることができる。この画像がいわゆる超深度画像である。
【0005】
更に、白色光で照射された試料からの光を共焦点光学系から分離してカラー撮像素子で受光することにより、超深度画像と同じ範囲の試料表面のカラー画像を得ることができる。このカラー画像は超深度画像と異なり焦点深度の浅いものであるが、その輝度信号を超深度画像の輝度信号で置き換えるような合成処理を行うことにより、焦点深度の深いカラー画像(カラー超深度画像ということもある)を得ることも可能である。
【0006】
上記のような共焦点顕微鏡は顕微鏡の一種であり、試料の小さな範囲を拡大して観察できるようにする装置である点にかわりはない。したがって、その拡大倍率(測定精度)と観察できる範囲(測定範囲)とはトレードオフの関係にある。つまり、測定精度を上げる程、測定範囲は狭くなる。しかし、高い測定精度を維持しながら広い測定範囲を測定したいというユーザの要求がある。この要求に応えるために、1回の測定で得られる狭い範囲の画像を複数つなぎ合わせて広い範囲の画像に合成する機能を備えている機種がある。
【0007】
このような画像のつなぎ合わせ機能を有する共焦点顕微鏡として、高精度の電動ステージを用いたものがある。電動ステージによって所定のピッチで試料を移動させながら測定を繰り返して複数の画像を得、その移動ピッチの情報に基づいて複数の画像のつなぎ合わせを自動的に実行する。また、つなぎ合わせ部で互いに重なる部分の画像処理によってつなぎ合わせの微調整を行うものもある。
【0008】
【発明が解決しようとする課題】
しかしながら、上記のような従来の画像つなぎ合わせ機能を有する共焦点顕微鏡の短所として以下のような点があった。まず、高精度の電動ステージが非常に高価である。また、高精度の電動ステージであっても、その送りピッチの情報のみに頼って画像のつなぎ合わせを行う場合に、つなぎ目が目立ってしまうことがある。
【0009】
一方、互いに重なる部分の画像処理によってつなぎ合わせの微調整を行う場合は、画像のパターンによっては誤った位置で画像を合成してしまう場合がある。例えば、試料表面が繰り返しパターンを有するものであり、その繰り返し方向に2つの画像をつなぎ合わせるような場合に、画像認識によってつなぎ合わせ位置の修正を行った結果、誤った位置で画像を合成してしまうことがある。
【0010】
また、自動つなぎ合わせの対象となる複数の画像の一部に測定の失敗があると、すべての画像の測定を最初からやり直す必要があり、時間のロスが大きい。例えば、凹凸の大きい試料を測定した場合に、設定した高さ方向の範囲から試料の表面が外れてしまう画像が発生する場合がある。あるいは、表面の光反射率が大きく変化する試料を測定した場合に、一部の画像で受光量が飽和して正しい高さ情報や超深度画像が得られない場合がある。このような場合に、問題が生じた画像のみを測定し直して既に合成済みの部分とつなぎ合わせることができれば、測定時間のロスを大幅に低減することができる。
【0011】
本発明は、上記のような従来の課題に鑑み、高価な電動ステージを用いることなく画像のつなぎ合わせを手動で行うモードを備えた共焦点顕微鏡システムを提供することを目的とする。
【0012】
【課題を解決するための手段】
本発明の共焦点顕微鏡システムは、光学倍率によって決まる測定範囲内の試料表面からの光を共焦点光学系を介して受光素子で受光し、その受光情報に基づいて試料表面の高さ情報及び光量情報を取得し、取得した情報を処理して得られる試料表面の画像を表示装置の画面に表示する共焦点顕微鏡システムであって、測定範囲をずらしながら生成した複数枚の画像を手動操作によってつなぎ合わせて、1枚の合成画像を生成する手動つなぎ合わせモードを備え、手動つなぎ合わせモードにおける表示装置の画面表示が、複数枚の画像を表示する第1の領域と、ポインティングデバイスを用いて複数枚の画像を1枚ずつ移動させてつなぎ合わせた合成画像を表示する第2の領域と、つなぎ合わせの条件を設定するための第3の領域とを有することを特徴とする。
【0013】
このような構成によれば、ユーザは、あらかじめ測定範囲をずらしながら生成した複数枚の画像を記憶装置に保存しておき、画面上の第1の領域に表示された複数枚の画像を手動操作によって画面上の第2の領域でつなぎ合わせることができる。また、画面上の第3の領域でつなぎ合わせの条件をあらかじめ設定することができる。
【0014】
好ましい実施形態において、試料表面の高さ情報及び光量情報を含む複数の取得情報のうちのいずれを処理して得られた試料表面の画像を表示するかを第3の領域で選択可能である。高さ情報、光量情報、又は他の情報(例えばカラーCCDによるカラー画像)のいずれを処理して得られた画像を表示するかによって、手動によるつなぎ合わせの際の視認性が変化する。例えば、表面の模様パターンに現れにくい特徴的な凹凸形状を有する試料の場合は、高さ情報を処理して得られた画像を用いれば、視認性が良くつなぎ合わせの精度が高くなる。
【0015】
別の好ましい実施形態において、試料表面の高さ情報及び光量情報を含む複数の取得情報からそれぞれ生成された複数種類の画像のそれぞれについて合成画像を生成し保存するか否かを第3の領域で設定可能である。これにより、現在表示中の画像タイプだけでなく、他のタイプの画像についても同時に合成画像を生成し保存することができる。例えば、光量情報を処理して得られた画像を用いてつなぎ合わせた場合に、光量情報を処理して得られた画像の合成画像だけでなく、高さ情報を処理して得られた画像や他の画像の合成画像も一緒に生成し保存することができる。
【0016】
更に別の好ましい実施形態において、第2の領域に表示される合成画像を管理する情報テーブルが設けられ、情報テーブルは、合成画像を構成する元の画像を特定する情報及びその位置情報を含む。これにより、合成途中段階の画像の情報テーブルを保存しておき、読み出して再利用するといったことが可能になる。例えば、つなぎ合わせた複数の画像のうちの1枚だけが欠陥のある画像であることが分かった場合に、その1枚を除いた途中段階の合成画像を情報テーブルとして保存しておき、その1枚の画像を正しく再測定(再生成)した後に、情報テーブルを読み出して途中段階の合成画像を表示させ、再生成した画像をつなぎ合わせることが可能になる。従来の自動つなぎ合わせのように、1枚の画像だけに欠陥がある場合でも複数の画像を測定してつなぎ合わせる処理を初めからやり直す必要は無い。
【0017】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0018】
図1は、本発明の実施形態に係る共焦点顕微鏡システムの概略構成を示している。共焦点顕微鏡システム1は、共焦点光学系2及び非共焦点光学系3を有する共焦点顕微鏡と、共焦点顕微鏡のレーザ駆動回路44、受光素子からの信号処理回路41,42,43、対物レンズ移動機構40、マイクロコンピュータを用いた制御部46等を含むコントローラと、コントローラに接続された表示装置47及び入力装置48とを備えている。
【0019】
まず、共焦点顕微鏡の共焦点光学系2とその信号処理について説明する。共焦点光学系2は、試料wkに単色光(例えばレーザ光)を照射するための光源10、第1コリメートレンズ11、偏光ビームスプリッタ12、1/4波長板13、水平偏向装置14a、垂直偏向装置14b、第1リレーレンズ15、第2リレーレンズ16、対物レンズ17、結像レンズ18、ピンホール板9、受光素子19等を含んでいる。
【0020】
光源10には、例えば赤色レーザ光を発する半導体レーザが用いられる。レーザ駆動回路44によって駆動される光源10から出たレーザ光は、第1コリメートレンズ11を通り、偏光ビームスプリッタ12で光路を曲げられ、1/4波長板13を通過する。この後、水平偏向装置14a及び垂直偏向装置14bによって水平(横)方向及び垂直(縦)方向に偏向された後、第1リレーレンズ15及び第2リレーレンズ16を通過し、対物レンズ17によって試料ステージ30上に置かれた試料wkの表面に集光される。
【0021】
水平偏向装置14a及び垂直偏向装置14bは、それぞれガルバノミラーで構成され、レーザ光を水平及び垂直方向に偏向させることにより、試料wkの表面をレーザ光で走査する。説明の便宜上、水平方向をX方向、垂直方向をY方向ということにする。対物レンズ17は、対物レンズ移動機構40によりZ方向(光軸方向)に駆動される。これにより、対物レンズ17の焦点と試料wkとの光軸方向での相対位置を変化させることができる。
【0022】
ただし、対物レンズ17の焦点と試料wkとの光軸方向での相対位置は、他の方法で変化させることもできる。例えば、対物レンズ17をZ軸方向に駆動する代わりに試料ステージ30をZ軸方向に駆動してもよい。あるいは、対物レンズ17と試料wkとの間に屈折率が変化するレンズを挿入することにより、対物レンズ17の焦点をZ軸方向に移動させる構成も可能である。なお、試料ステージ30は、手動操作によってX、Y方向及びZ方向に変位可能である。
【0023】
試料wkで反射されたレーザ光は、上記の光路を逆に辿る。すなわち、対物レンズ17、第2リレーレンズ16及び第1リレーレンズ15を通り、水平偏向装置14a及び垂直偏向装置14bを介して1/4波長板13を再び通る。この結果、レーザ光は偏光ビームスプリッタ12を透過し、結像レンズ18によって集光される。集光されたレーザ光は、結像レンズ18の焦点位置に配置されたピンホール板9のピンホールを通過して受光素子19に入射する。受光素子19は、例えばフォトマルチプライヤチューブ(光電子増倍管)やフォトダイオードで構成され、受光量を電気信号に変換する。受光量に相当する電気信号は、出力アンプ及びゲイン制御回路(図示せず)を介して第1AD変換器41に与えられ、ディジタル値に変換される。
【0024】
上記のような構成の共焦点光学系2により、試料wkの高さ(深さ)情報を取得することができる。以下に、その原理を簡単に説明する。
【0025】
上述のように、対物レンズ17が対物レンズ移動機構40によってZ方向(光軸方向)に駆動されると、対物レンズ17の焦点と試料wkとの光軸方向での相対距離が変化する。そして、対物レンズ17の焦点が試料wkの表面に結ばれたときに、試料wkの表面で反射されたレーザ光は上記の光路を経て結像レンズ18で集光され、ほとんどすべてのレーザ光がピンホール板9のピンホールを通過する。したがって、このときに、受光素子19の受光量が最大になる。逆に、対物レンズ17の焦点が試料wkの表面からずれている状態では、結像レンズ18によって集光されたレーザ光はピンホール板9からずれた位置に焦点を結ぶので、一部のレーザ光しかピンホールを通過することができない。その結果、受光素子19の受光量は著しく低下する。
【0026】
したがって、試料wkの表面の任意の点について、対物レンズ17をZ方向(光軸方向)に駆動しながら受光素子19の受光量を検出すれば、その受光量が最大になるときの対物レンズ17のZ方向位置(対物レンズ17の焦点と試料wkとの光軸方向での相対位置)を高さ情報として一義的に求めることができる。
【0027】
実際には、対物レンズ17を1ステップ(1ピッチ)移動するたびに水平偏向装置14a及び垂直偏向装置14bによって試料wkの表面を走査して受光素子19の受光量を得る。対物レンズ17を測定範囲の下端から上端までZ方向に移動させたとき、走査範囲内の各点(画素)について、Z方向位置に応じて変化する受光量データが得られる。
【0028】
図2は、対物レンズ17のZ方向位置に応じて変化する受光量データの例を示すグラフである。このような受光量データに基づいて、最大受光量とそのときのZ方向位置が各点(画素)ごとに得られる。したがって、試料wkの表面高さのXY平面での分布が得られる。この処理は、マイクロコンピュータを用いた制御部46によって実行される。
【0029】
得られた表面高さの分布情報は、いくつかの方法で表示装置47のモニタ画面に表示することができる。例えば3次元表示によって試料の高さ分布(表面形状)を立体的に表示することができる。あるいは、高さデータを輝度データに変換することにより、明るさの二次元分布として表示できる。高さデータを色差データに変換することにより、高さの分布を色の分布として表示することもできる。
【0030】
また、XY走査範囲内の各点(画素)について得られた受光量を輝度データとする輝度信号から、試料wkの表面画像(白黒画像)が得られる。各画素における最大受光量を輝度データとして輝度信号を生成すれば、表面高さの異なる各点でピントの合った焦点深度の非常に深い超深度画像が得られる。また、任意の注目画素で最大受光量が得られた高さ(Z方向位置)に固定した場合は、注目画素の部分と高低差が大きい部分の画素の受光量は著しく小さくなるので、注目画素と同じ高さの部分のみが明るい画像が得られる。
【0031】
つぎに、共焦点顕微鏡に備えられた非共焦点光学系3とその信号処理について説明する。非共焦点光学系3は、試料wkに白色光(カラー画像撮影用の照明光)を照射するための白色光源20、第2コリメートレンズ21、第1ハーフミラー22、第2ハーフミラー23、カラーCCD(イメージセンサー)24等を含んでいる。また、非共焦点光学系3は共焦点光学系2の対物レンズ17を共用しており、2つの光学系1,2の光軸は部分的に一致している。
【0032】
白色光源20には例えば白色ランプが用いられるが、特に専用の光源を設けず、自然光又は室内光を利用してもよい。白色光源20から出た白色光は、第2コリメートレンズ21を通り、第1ハーフミラー22で光路を曲げられ、対物レンズ17によって試料ステージ30上に置かれた試料wkの表面に集光される。
【0033】
試料wkで反射された白色光は、対物レンズ17、第1ハーフミラー22、第2リレーレンズ16を通過し、第2ハーフミラー23で反射されてカラーCCD24に入射して結像する。カラーCCD24は、共焦点光学系2のピンホール板9のピンホールと共役又は共役に近い位置に設けられている。カラーCCD24で撮像されたカラー画像は、CCD駆動回路43によって読み出され、そのアナログ出力信号は第2AD変換器42に与えられ、ディジタル値に変換される。このようにして得られたカラー画像は、試料wkの観察用の拡大カラー画像として表示装置47のモニタ画面に表示される。
【0034】
また、共焦点光学系2で得られた超深度画像と非共焦点光学系3で得られた通常のカラー画像とを組み合わせて、すべての画素で略ピントの合った焦点深度の深いカラー超深度画像を生成し、表示することもできる。例えば、非共焦点光学系3で得られたカラー画像を構成する輝度信号を共焦点光学系2で得られた超深度画像の輝度信号で置き換えることにより、簡易的にカラー超深度画像を生成することができる。
【0035】
上記のようなカラー画像に関する処理についても、制御部46を含むコントローラが司る。コントローラにはコンソール(操作卓)のような入力装置48やCRT(陰極線管)又はLCD(液晶表示装置)のような表示装置47が接続されている。また、マウスのようなポインティングデバイスも入力装置48として接続される。
【0036】
また、本実施形態の共焦点顕微鏡システム1(のコントローラ)には、パーソナルコンピュータのような外部コンピュータシステムを接続するインターフェイスも備えられている。共焦点顕微鏡システム1の制御を行うための専用ソフトウェアをインストールした外部コンピュータシステムを共焦点顕微鏡システム1に接続することにより、取得された試料wkの画像情報や高さ分布情報等の加工をシームレスに行うことが可能になる。
【0037】
図3は、共焦点顕微鏡システム1のコントローラに外部コンピュータシステム50を接続したハードウェア構成例を示すブロック図である。外部コンピュータシステム50は、CRT又はLCD等の表示装置51、キーボード52、マウス(他のポインティングデバイスでもよい)53、RS232C又はUSB(ユニバーサルシリアルバス)等の通信インターフェイス54、処理装置(CPU)55、半導体記憶媒体である主メモリ56、補助記憶装置である固定ディスク装置57及びリムーバブルディスク装置58を備えている。
【0038】
共焦点顕微鏡システム1の制御を行うための専用ソフトウェアは、CD−ROMのような記憶媒体59に記憶された状態で供給され、CD−ROMドライブ装置のようなリムーバブルディスク装置58によって記憶媒体59から読み出され、固定ディスク装置57にインストールされる。固定ディスク装置57にインストールされたプログラムは、主メモリ56にロードされ、処理装置55によって実行される。
【0039】
このような専用ソフトウェアによって実行される処理には、共焦点顕微鏡システム1の測定パラメータの設定を行うための処理や、測定の結果得られた複数の画像をつなぎ合わせて合成画像を生成する処理が含まれている。以下、複数の画像を手動でつなぎ合わせて合成画像を生成する処理モード(手動つなぎ合わせモードという)について説明する。
【0040】
図4は、手動つなぎ合わせモードにおいて表示装置51に表示される画面表示の例を示す図である。画面表示60の右下の領域(第1の領域)61は、合成対象の複数枚の画像を表示する領域である。画面表示60の右上の領域(第2の領域)62は、ポインティングデバイスを用いて複数枚の画像を1枚ずつ移動させてつなぎ合わせた合成画像を表示する領域である。画面表示60の左側の領域(第3の領域)63は、つなぎ合わせの条件を設定するための領域である。
【0041】
図5は、図4の画面表示60におけるつなぎ合わせの条件を設定するための領域63の拡大図である。上側のブロック70では、パッチワークデータファイルの作成(すなわち合成画像ファイルの手動作成)の条件を設定する。サブブロック71では、基準データタイプ(すなわち画像の合成に使用する情報の種類)を選択する。光量データ、R、G、Bの4種類の中から選択可能である。光量データは前述の超深度画像を構成する各画素の受光量データを意味する。R、G、Bは前述の非共焦点光学系で得られたカラー画像を各画素のカラー成分である赤、緑、青をそれぞれ意味している。
【0042】
サブブロック72では、保存対象データ(すなわち合成画像の種類)を選択可能である。カラー生画、光量データ、カラーデータ、高さデータの4種類のデータについて、それぞれ保存するか否かを選択することができる。カラー生画は非共焦点光学系で得られたカラー画像を意味し、光量データは前述の超深度画像を意味し、カラーデータは前述のカラー超深度画像を意味し、高さデータは前述の表面高さの分布情報の画像を意味する。
【0043】
サブブロック73では、重ね位置自動補正を行うか(ON)否か(OFF)を選択することができる。この重ね位置自動補正は、2つの隣接画像の重なり部分が一致するように重ね位置の微調整を自動的に行う画像処理を意味する。このような画像処理は公知の技術である。
【0044】
サブブロック74では、上記のような設定条件を作成条件設定ファイルとして保存するか否かを選択することができる。「条件ファイル作成」ボタンをマウス53でクリックすると、作成条件設定ファイルが作成され保存される。以降、同一条件で合成画像の生成を行う場合は、該当する作成条件設定ファイルを読み出すことにより、簡単に条件設定を行うことができる。
【0045】
「ファイル作成」ボタン75は、後述する手順にしたがって合成画像のファイルを作成する際に最後に押下するボタンである。また、「終了」ボタン76は、パッチワークデータファイルの作成モードを終了する際に押下されるボタンである。
【0046】
下側のブロック77では、合成画像の生成に使用する複数の画像等(すなわち画面に表示される画像)の選択を行う。「フォルダ選択」ボタン78は、合成画像の生成に使用する複数の画像等が保存されているフォルダ(ディレクトリ)を指定する際に押下される。
【0047】
サブブロック79では、表示ファイル種別を選択することができる。通常測定データファイル、パッチワークデータファイル、作成条件設定ファイルの中から1つを選択することができる。通常測定データファイルは、合成画像の生成に使用する複数の画像である。パッチワークデータファイルは、生成された合成画像のファイルである。なお、目的の合成画像に至る途中段階の合成画像のファイルもパッチワークデータファイルに含まれる。作成条件設定ファイルは、上述のようにして保存された設定条件のファイルである。
【0048】
サブブロック80では、表示データタイプ(すなわち合成画像の生成に使用する複数の画像の種類)を選択可能である。カラー生画、光量データ、カラーデータ、高さデータの4種類のデータの中から1つを選択することができる。カラー生画は非共焦点光学系で得られたカラー画像を意味し、光量データは前述の超深度画像を意味し、カラーデータはカラー超深度画像を意味し、高さデータは表面高さの分布情報の画像を意味する。後述する操作によって手動で画像をつなぎ合わせる際に、最も視認性に優れた画像の種類(試料によって異なる)を選択することにより、手動によるつなぎ合わせの精度が高くなる。例えば、表面の模様パターンに現れにくい特徴的な凹凸形状を有する試料の場合は、高さデータを処理して得られた画像を用いれば、視認性が良くつなぎ合わせの精度が高くなる。
【0049】
図6は、画像の手動つなぎ合わせの手順の例を示すフローチャートである。このフローチャートでは、ユーザによる操作と処理装置55がプログラムにしたがって実行する処理の両方が含まれているが、以下の説明でその区別を明らかにする。
【0050】
ステップ#101において、ユーザは試料ステージをX方向及びY方向に適当なピッチで移動させながら測定を実行し、測定範囲の異なる複数の画像を取得、保存する。なお、隣接する画像の端部同士が互いに重なる部分ができるように、試料ステージの移動ピッチを定める必要がある。
【0051】
ステップ#102でユーザは手動つなぎ合わせモードを開始し、図4に示した画面表示の第3の領域63(図5参照)において、前述のようなつなぎ合わせ条件の設定を行う(ステップ#103)。続くステップ#104において、合成(つなぎ合わせ)に用いる複数の画像を図4に示した画面表示の第1の領域61に表示させる。図4の表示例では、第3の領域63で指定したフォルダに保存されているファイルのサブブロック80で指定された表示データタイプ(光量データ)の画像66〜69等が第1の領域61に表示されている。なお、サブブロック80で指定する表示データタイプは、つなぎ合わせの実行中も変更設定可能である。
【0052】
次のステップ#105において、ユーザは複数の画像を1枚ずつマウス53でドラッグして第2の領域62に移動し、つなぎ合わせる位置でドロップする。図4の表示例では、第1の領域61に表示されている3枚の画像66〜68をつなぎ合わせた合成画像64が第2の領域62に表示されている。そして、第1の領域61に表示されている第4の画像69を第2の領域62にドラッグし、画像65として合成画像64につなぎ合わせようとしている状態が表示されている。
【0053】
すべての画像を配置した後、次のステップ#106においてユーザは合成処理の実行を指示する。つまり、図5に示した「ファイル作成」ボタン75を押下する。
【0054】
合成処理の実行が指示されると、処理装置55は図5に示したサブブロック73で重ね位置自動補正がONになっているか否かをチェックし(ステップ#107)、ONになっている場合は重ね位置自動補正を実行する(ステップ#108)。最後のステップ#109で合成画像ファイルの生成、表示及び保存を実行する。図5に示したサブブロック72で選択された1又は複数の合成画像(データ)ファイルが生成され、保存される。また、第1の領域61に表示される画像の種類と同様に、サブブロック80で指定されたタイプの合成画像が第2の領域62に表示される。
【0055】
合成画像の生成の際に、使用した複数の画像のうちの1枚だけに欠陥があることが分かる場合がある。例えば、測定範囲が適当でなく、隣接画像との重なり分が無いような場合がある。あるいは、試料の表面の光反射率が場所によって大きく異なるために、受光量が飽和して高さ情報が取得できていない画像があるような場合がある。このような場合に、欠陥を有する1枚の画像を除いた合成途中段階の画像を保存しておき、その1枚の画像を正しく再測定(再生成)した後に、再生成した画像を合成途中段階の画像につなぎ合わせることができる。
【0056】
これを可能にするために、合成に使用したファイル名と合成したときの位置情報が記録された情報テーブル(パッチワーク情報テーブル)を使用する。合成途中段階の画像も情報テーブルとして保存しておき、後に読み出してその画像を画面(第2の領域62)に表示させ、再利用するとができる。
【0057】
図7は、パッチワーク情報テーブル81の構造の一例を示す図表である。パッチワーク情報テーブル81は、合成に使用した複数の画像のファイル名、各画像の位置関係、最終的に合成された画像の位置関係を記憶するためのテーブルである。
【0058】
図7において、自動/手動フラグは合成の手段を示し、手動の場合は「0」であり、自動の場合は「1」である。総合成画像数は、登録されている画像(合成に用いた画像)の数である。横合成画像数は、横方向につながれた画像の数である。縦合成画像数は、縦方向につながれた画像の数である。自動補正フラグは、前述の重ね位置自動補正の有無を示し、自動補正なしの場合は「0」であり、自動補正ありの場合は「1」である。合成ソースは、画像の合成に使用したデータのタイプ(図5のサブブロック71に対応する)を示す。輝度(光量データ)は「0」であり、R(赤色データ)は1であり、G(緑色データ)は2であり、B(青色データ)は3である。
【0059】
縮小フラグは縦方向又は横方向の画素数が4096を超えたときに「1」となり、それ以外は「0」である。合成画像のサイズ(X方向)及び合成画像のサイズ(Y方向)は、合成画像のX方向又はY方向の画素数である。合成画像のX位置及び合成画像のY位置は、左上端の画像の左上角から見た合成画像の左上角の位置情報である。ディレクトリ名格納位置は、この情報テーブル81の先頭から見たディレクトリ名の格納位置情報である。
【0060】
画像位置(X方向)及び画像位置(Y方向)は、左上端の画像の左上角から見た各画像の左上角の位置情報である。画像の位置と登録位置とは無関係である。単位はピクセル(画素)である。ファイル名格納位置は、この情報テーブル81の先頭から見た各画像のファイル名の格納位置情報である。ディレクトリ名に続いてファイル名が順に格納される。画像位置(X方向)、画像位置(Y方向)及びファイル名格納位置は、合成画像数(合成に用いた画像の数)分だけ繰り返される。ディレクトリ名、ファイル名のうちディレクトリ名はフルパスで格納される。ファイル名はそれに続いて、登録順に格納される。
【0061】
なお、上記の実施形態では外部コンピュータシステム50に共焦点顕微鏡システム1の制御を行うための専用ソフトウェアをインストールし、画像の手動つなぎ合わせの処理をコンピュータの画面で行う場合について説明したが、本発明はそのような実施形態に限られるわけではない。例えば共焦点顕微鏡システム1のコントローラに内蔵されるROM等の記憶媒体に記憶される制御プログラムに上記実施形態のような画像の手動つなぎ合わせのプログラムを組み込み、共焦点顕微鏡システム1に標準装備の表示装置47及び入力装置48を用いて画像の手動つなぎ合わせを実施するようにしてもよい。
【0062】
また、共焦点光学系2による試料wkの表面の高さ情報を取得するために、対物レンズ17をZ方向に移動(上下動)させる代わりに、試料ステージ30を上下動させてもよい。その他にも、本発明は種々の形態で実施することができる。
【0063】
例えば、光による試料の走査は、水平偏向及び垂直偏向による二次元走査に限らず、種々の走査方法が考えられる。例えば、シリンドリカルレンズを用いてX方向に細長い光(スリット光)を生成し、これをY方向に偏向すれば、二次元走査が可能である。
【0064】
また、上記の実施形態の共焦点顕微鏡は反射型の顕微鏡であるが、透過型の共焦点顕微鏡にも本発明を適用することができる。透過型の顕微鏡の場合は、試料の裏面から共焦点光学系のレーザ光及び非共焦点光学系の白色光が照射される。共焦点光学系の光源はレーザ光源を含む単色光源はもちろんのこと、複数波長を含むものであってもよい。非共焦点光学系の光源は自然光又は室内光で代用することもできる。
【0065】
【発明の効果】
以上に説明したように、本発明の画像の手動つなぎ合わせモードを備えた共焦点顕微鏡システムによれば、ユーザは、あらかじめ測定範囲をずらしながら生成した複数枚の画像を記憶装置に保存しておき、コンピュータの画面上の第1の領域に表示された複数枚の画像を手動操作によって画面上の第2の領域でつなぎ合わせることができる。
【0066】
また、共焦点顕微鏡特有の高さ情報を処理して得られる画像や光量情報を処理して得られる画像を用いてつなぎ合わせることができ、つなぎ合わせの条件は画面上の第3の領域で設定することができる。
【0067】
更に、合成途中段階の画像の情報テーブルを保存しておき、読み出して再利用するといったことが可能になる。これにより、つなぎ合わせた複数の画像のうちの1枚だけが欠陥のある画像であることが分かった場合に、その修復を効率よく行うことができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る共焦点顕微鏡システムの概略構成を示す図である。
【図2】対物レンズのZ方向位置に応じて変化する受光量データの例を示すグラフである。
【図3】共焦点顕微鏡システムのコントローラに外部コンピュータシステムを接続したハードウェア構成例を示すブロック図である。
【図4】手動つなぎ合わせモードにおいて表示装置に表示される画面表示の例を示す図である。
【図5】図4の画面表示におけるつなぎ合わせの条件を設定するための領域の拡大図である。
【図6】画像の手動つなぎ合わせの手順の例を示すフローチャートである。
【図7】パッチワーク情報テーブルの構造の一例を示す図表である。
【符号の説明】
1 共焦点顕微鏡システム
2 共焦点光学系
19 受光素子
47,51 表示装置
53 マウス(ポインティングデバイス)
57 記憶装置
60 手動つなぎ合わせモードにおける画面表示
61 第1の領域
62 第2の領域
63 第3の領域
50 外部コンピュータシステム
81 パッチワーク情報テーブル(合成画像を管理する情報テーブル)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a confocal microscope system for acquiring information such as a super-depth image and a height distribution of a sample based on light information from the sample, and more particularly, to a mode for manually joining the obtained images. And a confocal microscope system comprising:
[0002]
[Prior art]
In a confocal microscope, light from a sample is received by a light receiving element via a confocal optical system, and based on the amount of received light, an ultra-depth image (an image with a very deep focal depth) or a height distribution of the sample is obtained. Information is obtained. When the relative distance between the sample placed on the stage and the objective lens is changed in the direction of the optical axis, the amount of light incident on the light receiving element via the confocal optical system, that is, the amount of received light, changes, and The amount of received light is maximized when the subject is in focus. Therefore, height information of the surface of the sample is calculated from the relative distance between the sample and the objective lens when the maximum amount of received light is obtained, and the height distribution of the surface of the sample is obtained by scanning the surface of the sample with light. be able to.
[0003]
The acquired height distribution is displayed on the screen of the display device by, for example, three-dimensional display. Alternatively, the height distribution replaced with a luminance distribution or a color distribution is displayed on the screen. A CRT (cathode ray tube) or an LCD (liquid crystal display) is used as a display device, and a controller for control, a display device, a console, and the like are connected to the confocal microscope to form a confocal microscope system.
[0004]
In addition, by connecting information on the amount of light received when each point (pixel) on the sample surface is focused (that is, information on the maximum luminance of each pixel), a monochrome image of the sample surface with a very deep depth of focus can be obtained. Can be. This image is a so-called super-depth image.
[0005]
Furthermore, by separating the light from the sample irradiated with white light from the confocal optical system and receiving the light with the color image sensor, a color image of the sample surface in the same range as the ultra-depth image can be obtained. This color image has a shallow depth of focus unlike an ultra-deep image, but by performing a synthesizing process to replace the luminance signal with the luminance signal of the ultra-deep image, a color image with a deep focal depth (a color ultra-deep image) It is also possible to obtain).
[0006]
The confocal microscope as described above is a kind of a microscope, and is a device that enables a small range of a sample to be enlarged and observed. Therefore, there is a trade-off between the magnification (measurement accuracy) and the observable range (measurement range). In other words, the higher the measurement accuracy, the narrower the measurement range. However, there is a demand from users for measuring a wide measurement range while maintaining high measurement accuracy. In order to meet this demand, there is a model having a function of combining a plurality of images in a narrow range obtained by one measurement and combining them into an image in a wide range.
[0007]
As a confocal microscope having such an image joining function, there is one using a high-precision motorized stage. The measurement is repeated while moving the sample at a predetermined pitch by the electric stage to obtain a plurality of images, and the plurality of images are automatically joined based on the information on the moving pitch. In some cases, fine adjustment of connection is performed by image processing of overlapping portions in the connection unit.
[0008]
[Problems to be solved by the invention]
However, the following points are disadvantages of the confocal microscope having the conventional image joining function as described above. First, a high-precision motorized stage is very expensive. Further, even in the case of a high-precision electric stage, the joints may be conspicuous when the images are joined only by using information on the feed pitch.
[0009]
On the other hand, in the case where fine adjustment of joining is performed by image processing of overlapping portions, an image may be synthesized at an incorrect position depending on an image pattern. For example, when the sample surface has a repetitive pattern and two images are connected in the repetition direction, the image is synthesized at an incorrect position as a result of correcting the connection position by image recognition. Sometimes.
[0010]
In addition, if a part of a plurality of images to be automatically connected has a measurement failure, it is necessary to restart the measurement of all the images from the beginning, resulting in a large time loss. For example, when a sample having large irregularities is measured, an image may be generated in which the surface of the sample is out of the set range in the height direction. Alternatively, when a sample whose surface light reflectance changes greatly is measured, the amount of received light may be saturated in some of the images and correct height information or an ultra-depth image may not be obtained. In such a case, if only the image in which the problem has occurred can be re-measured and connected to the already synthesized portion, the loss of measurement time can be greatly reduced.
[0011]
An object of the present invention is to provide a confocal microscope system having a mode for manually joining images without using an expensive motorized stage in view of the above-described conventional problems.
[0012]
[Means for Solving the Problems]
The confocal microscope system of the present invention receives light from a sample surface within a measurement range determined by an optical magnification by a light receiving element via a confocal optical system, and based on the received light information, height information and light amount of the sample surface. A confocal microscope system that acquires information and displays an image of a sample surface obtained by processing the acquired information on a screen of a display device, and manually connects a plurality of images generated while shifting a measurement range. In addition, a manual joining mode for generating one composite image is provided, and the screen display of the display device in the manual joining mode includes a first area for displaying a plurality of images, and a plurality of images using a pointing device. And a third area for displaying a combined image obtained by moving the images one by one and joining them together, and a third area for setting joining conditions. The features.
[0013]
According to such a configuration, the user saves the plurality of images generated while shifting the measurement range in advance in the storage device, and manually operates the plurality of images displayed in the first area on the screen. Can be connected in the second area on the screen. Further, the joining condition can be set in advance in the third area on the screen.
[0014]
In a preferred embodiment, it is possible to select which of a plurality of pieces of acquired information including height information and light amount information of the sample surface to display an image of the sample surface obtained by processing in the third region. The visibility at the time of manual joining changes depending on whether an image obtained by processing height information, light amount information, or other information (for example, a color image by a color CCD) is displayed. For example, in the case of a sample having a characteristic concavo-convex shape that is unlikely to appear in a pattern pattern on the surface, using an image obtained by processing height information results in good visibility and high joining accuracy.
[0015]
In another preferred embodiment, whether or not to generate and store a composite image for each of a plurality of types of images generated from a plurality of pieces of acquisition information including height information and light amount information on a sample surface is determined in a third region. Can be set. As a result, not only the currently displayed image type but also other types of images can be generated and stored at the same time. For example, in the case of joining using images obtained by processing light amount information, not only a composite image of an image obtained by processing light amount information, but also an image obtained by processing height information, A composite image of another image can also be generated and stored together.
[0016]
In yet another preferred embodiment, an information table for managing a composite image displayed in the second area is provided, and the information table includes information for specifying an original image constituting the composite image and positional information thereof. This makes it possible to save the information table of the image in the middle of synthesis, read it out, and reuse it. For example, if it is found that only one of a plurality of joined images is a defective image, a composite image at an intermediate stage excluding the one image is stored as an information table, and After correctly re-measuring (re-generating) the images, it is possible to read out the information table, display the composite image in the middle stage, and join the re-generated images. Even if only one image has a defect as in the conventional automatic splicing, it is not necessary to repeat the process of measuring and splicing a plurality of images from the beginning.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0018]
FIG. 1 shows a schematic configuration of a confocal microscope system according to an embodiment of the present invention. The confocal microscope system 1 includes a confocal microscope having a confocal optical system 2 and a non-confocal optical system 3, a laser driving circuit 44 of the confocal microscope, signal processing circuits 41, 42, 43 from light receiving elements, and an objective lens. A controller including a moving mechanism 40, a controller 46 using a microcomputer, and the like, and a display device 47 and an input device 48 connected to the controller are provided.
[0019]
First, the confocal optical system 2 of the confocal microscope and its signal processing will be described. The confocal optical system 2 includes a light source 10 for irradiating the sample wk with monochromatic light (for example, laser light), a first collimating lens 11, a polarizing beam splitter 12, a quarter-wave plate 13, a horizontal deflection device 14a, and a vertical deflection. The device 14b includes a first relay lens 15, a second relay lens 16, an objective lens 17, an imaging lens 18, a pinhole plate 9, a light receiving element 19, and the like.
[0020]
As the light source 10, for example, a semiconductor laser that emits red laser light is used. Laser light emitted from the light source 10 driven by the laser drive circuit 44 passes through the first collimator lens 11, the optical path is bent by the polarization beam splitter 12, and passes through the 波長 wavelength plate 13. Thereafter, the light is deflected in the horizontal (horizontal) direction and the vertical (vertical) direction by the horizontal deflection device 14a and the vertical deflection device 14b, passes through the first relay lens 15 and the second relay lens 16, and is sampled by the objective lens 17. The light is focused on the surface of the sample wk placed on the stage 30.
[0021]
The horizontal deflecting device 14a and the vertical deflecting device 14b are each formed of a galvanometer mirror, and scan the surface of the sample wk with the laser light by deflecting the laser light in the horizontal and vertical directions. For convenience of description, the horizontal direction is referred to as an X direction, and the vertical direction is referred to as a Y direction. The objective lens 17 is driven in the Z direction (optical axis direction) by the objective lens moving mechanism 40. Thereby, the relative position between the focus of the objective lens 17 and the sample wk in the optical axis direction can be changed.
[0022]
However, the relative position in the optical axis direction between the focus of the objective lens 17 and the sample wk can be changed by another method. For example, instead of driving the objective lens 17 in the Z-axis direction, the sample stage 30 may be driven in the Z-axis direction. Alternatively, a configuration in which the focal point of the objective lens 17 is moved in the Z-axis direction by inserting a lens whose refractive index changes between the objective lens 17 and the sample wk is also possible. The sample stage 30 can be displaced in the X, Y, and Z directions by manual operation.
[0023]
The laser light reflected by the sample wk reverses the above optical path. That is, the light passes through the objective lens 17, the second relay lens 16, and the first relay lens 15, and again passes through the quarter-wave plate 13 via the horizontal deflection device 14a and the vertical deflection device 14b. As a result, the laser light passes through the polarization beam splitter 12 and is condensed by the imaging lens 18. The condensed laser light passes through the pinhole of the pinhole plate 9 disposed at the focal position of the imaging lens 18 and enters the light receiving element 19. The light receiving element 19 is composed of, for example, a photomultiplier tube (photomultiplier tube) or a photodiode, and converts the amount of received light into an electric signal. The electric signal corresponding to the amount of received light is provided to the first AD converter 41 via an output amplifier and a gain control circuit (not shown), and is converted into a digital value.
[0024]
The height (depth) information of the sample wk can be acquired by the confocal optical system 2 configured as described above. The principle will be briefly described below.
[0025]
As described above, when the objective lens 17 is driven in the Z direction (optical axis direction) by the objective lens moving mechanism 40, the relative distance in the optical axis direction between the focal point of the objective lens 17 and the sample wk changes. When the focal point of the objective lens 17 is focused on the surface of the sample wk, the laser light reflected on the surface of the sample wk is condensed by the imaging lens 18 via the above optical path, and almost all the laser light is It passes through the pinhole of the pinhole plate 9. Therefore, at this time, the amount of light received by the light receiving element 19 is maximized. Conversely, when the focus of the objective lens 17 is shifted from the surface of the sample wk, the laser light condensed by the imaging lens 18 focuses on a position shifted from the pinhole plate 9, so that a part of the laser beam is focused. Only light can pass through the pinhole. As a result, the amount of light received by the light receiving element 19 is significantly reduced.
[0026]
Therefore, if the amount of light received by the light receiving element 19 is detected at any point on the surface of the sample wk while driving the objective lens 17 in the Z direction (optical axis direction), the objective lens 17 when the amount of received light is maximized is detected. (The relative position between the focus of the objective lens 17 and the sample wk in the optical axis direction) can be uniquely obtained as height information.
[0027]
In practice, each time the objective lens 17 is moved by one step (one pitch), the surface of the sample wk is scanned by the horizontal deflection device 14a and the vertical deflection device 14b to obtain the amount of light received by the light receiving element 19. When the objective lens 17 is moved in the Z direction from the lower end to the upper end of the measurement range, light reception amount data that changes according to the Z direction position is obtained for each point (pixel) in the scanning range.
[0028]
FIG. 2 is a graph showing an example of received light amount data that changes according to the Z-direction position of the objective lens 17. Based on such received light amount data, the maximum received light amount and the Z-direction position at that time are obtained for each point (pixel). Therefore, the distribution of the surface height of the sample wk on the XY plane is obtained. This process is executed by the control unit 46 using a microcomputer.
[0029]
The obtained surface height distribution information can be displayed on the monitor screen of the display device 47 by several methods. For example, the height distribution (surface shape) of the sample can be displayed three-dimensionally by three-dimensional display. Alternatively, the height data can be converted into luminance data to be displayed as a two-dimensional distribution of brightness. By converting the height data into color difference data, the height distribution can be displayed as a color distribution.
[0030]
Further, a surface image (monochrome image) of the sample wk can be obtained from a luminance signal using the received light amount obtained for each point (pixel) in the XY scanning range as luminance data. If a luminance signal is generated using the maximum amount of received light in each pixel as luminance data, an ultra-deep image with an extremely deep focal depth focused at each point having a different surface height can be obtained. When the height (Z direction position) at which the maximum amount of received light is obtained at an arbitrary target pixel is fixed, the amount of received light of a pixel having a large height difference from the target pixel becomes extremely small. A bright image is obtained only in the portion having the same height as.
[0031]
Next, the non-confocal optical system 3 provided in the confocal microscope and its signal processing will be described. The non-confocal optical system 3 includes a white light source 20, a second collimating lens 21, a first half mirror 22, a second half mirror 23, and a color for irradiating the sample wk with white light (illumination light for capturing a color image). It includes a CCD (image sensor) 24 and the like. In addition, the non-confocal optical system 3 shares the objective lens 17 of the confocal optical system 2, and the optical axes of the two optical systems 1 and 2 partially match.
[0032]
For example, a white lamp is used as the white light source 20, but a special light source may not be provided, and natural light or indoor light may be used. The white light emitted from the white light source 20 passes through the second collimating lens 21, the optical path is bent by the first half mirror 22, and is focused on the surface of the sample wk placed on the sample stage 30 by the objective lens 17. .
[0033]
The white light reflected by the sample wk passes through the objective lens 17, the first half mirror 22, and the second relay lens 16, is reflected by the second half mirror 23, enters the color CCD 24, and forms an image. The color CCD 24 is provided at a position conjugate with or close to the pinhole of the pinhole plate 9 of the confocal optical system 2. The color image picked up by the color CCD 24 is read out by the CCD drive circuit 43, and its analog output signal is given to the second AD converter 42 and converted into a digital value. The color image thus obtained is displayed on the monitor screen of the display device 47 as an enlarged color image for observing the sample wk.
[0034]
Further, the super-depth image obtained by the confocal optical system 2 and the normal color image obtained by the non-confocal optical system 3 are combined to obtain a deep color super-depth with a focal depth substantially in focus at all pixels. Images can also be generated and displayed. For example, a color super-depth image is easily generated by replacing the luminance signal forming the color image obtained by the non-confocal optical system 3 with the luminance signal of the super-depth image obtained by the confocal optical system 2. be able to.
[0035]
The controller including the control unit 46 is also in charge of the processing regarding the color image as described above. An input device 48 such as a console (operation console) and a display device 47 such as a CRT (cathode ray tube) or an LCD (liquid crystal display device) are connected to the controller. A pointing device such as a mouse is also connected as the input device 48.
[0036]
Further, the confocal microscope system 1 (controller thereof) of the present embodiment is also provided with an interface for connecting an external computer system such as a personal computer. By connecting an external computer system in which dedicated software for controlling the confocal microscope system 1 is installed to the confocal microscope system 1, processing of acquired image information and height distribution information of the sample wk can be performed seamlessly. It is possible to do.
[0037]
FIG. 3 is a block diagram illustrating an example of a hardware configuration in which an external computer system 50 is connected to a controller of the confocal microscope system 1. The external computer system 50 includes a display device 51 such as a CRT or an LCD, a keyboard 52, a mouse (may be another pointing device) 53, a communication interface 54 such as an RS232C or a USB (universal serial bus), a processing device (CPU) 55, A main memory 56 as a semiconductor storage medium, a fixed disk device 57 as an auxiliary storage device, and a removable disk device 58 are provided.
[0038]
The dedicated software for controlling the confocal microscope system 1 is supplied in a state stored in a storage medium 59 such as a CD-ROM, and is supplied from the storage medium 59 by a removable disk device 58 such as a CD-ROM drive. It is read and installed in the fixed disk device 57. The program installed in the fixed disk device 57 is loaded into the main memory 56 and executed by the processing device 55.
[0039]
The processing executed by such dedicated software includes processing for setting measurement parameters of the confocal microscope system 1 and processing for generating a composite image by joining a plurality of images obtained as a result of the measurement. include. Hereinafter, a processing mode for manually connecting a plurality of images to generate a composite image (referred to as a manual connecting mode) will be described.
[0040]
FIG. 4 is a diagram illustrating an example of a screen display displayed on the display device 51 in the manual joining mode. A lower right area (first area) 61 of the screen display 60 is an area for displaying a plurality of images to be combined. An area (second area) 62 at the upper right of the screen display 60 is an area for displaying a composite image obtained by moving a plurality of images one by one and joining them using a pointing device. An area (third area) 63 on the left side of the screen display 60 is an area for setting a joining condition.
[0041]
FIG. 5 is an enlarged view of an area 63 for setting a joining condition in the screen display 60 of FIG. In the upper block 70, conditions for creating a patchwork data file (ie, manually creating a composite image file) are set. In the sub-block 71, a reference data type (that is, a type of information used for image synthesis) is selected. Light intensity data, R, G, and B can be selected from four types. The light quantity data means the light reception quantity data of each pixel constituting the above-described super-depth image. R, G, and B represent red, green, and blue, respectively, which are the color components of each pixel in the color image obtained by the above-described non-confocal optical system.
[0042]
In the sub-block 72, the data to be saved (that is, the type of the composite image) can be selected. It is possible to select whether or not to save each of the four types of data, that is, a color raw image, light amount data, color data, and height data. The color raw image means a color image obtained by a non-confocal optical system, the light amount data means the above-mentioned super-depth image, the color data means the above-mentioned color ultra-depth image, and the height data means the above-mentioned color super-depth image It means an image of the distribution information of the surface height.
[0043]
In the sub-block 73, it is possible to select whether to perform the automatic overlay position correction (ON) or not (OFF). The automatic overlapping position correction means image processing for automatically performing fine adjustment of the overlapping position so that the overlapping portions of two adjacent images coincide with each other. Such image processing is a known technique.
[0044]
In the sub-block 74, it is possible to select whether or not to save the above setting conditions as a creation condition setting file. When the "condition file creation" button is clicked with the mouse 53, a creation condition setting file is created and saved. Thereafter, when generating a composite image under the same condition, the condition setting can be easily performed by reading the corresponding creation condition setting file.
[0045]
The “file creation” button 75 is a button that is pressed last when creating a file of a composite image according to a procedure described later. The “end” button 76 is a button pressed when terminating the patchwork data file creation mode.
[0046]
In the lower block 77, a plurality of images and the like (that is, images displayed on the screen) to be used for generating a composite image are selected. The “select folder” button 78 is pressed when specifying a folder (directory) in which a plurality of images and the like used for generating a composite image are stored.
[0047]
In the sub-block 79, a display file type can be selected. One can be selected from a normal measurement data file, a patchwork data file, and a creation condition setting file. The normal measurement data file is a plurality of images used for generating a composite image. The patchwork data file is a file of the generated composite image. It should be noted that the file of the composite image in the middle of reaching the target composite image is also included in the patchwork data file. The creation condition setting file is a setting condition file stored as described above.
[0048]
In the sub-block 80, a display data type (that is, a type of a plurality of images used for generating a composite image) can be selected. One of four types of data, that is, a color raw image, light amount data, color data, and height data can be selected. The color raw image means a color image obtained by a non-confocal optical system, the light amount data means the above-described super-depth image, the color data means the color ultra-depth image, and the height data means the surface height. It means an image of distribution information. When the images are manually joined by an operation described later, the accuracy of the manual joining is increased by selecting the type of the image having the highest visibility (different depending on the sample). For example, in the case of a sample having a characteristic uneven shape that is unlikely to appear in a pattern pattern on the surface, using an image obtained by processing height data improves visibility and improves joining accuracy.
[0049]
FIG. 6 is a flowchart illustrating an example of a procedure for manually joining images. Although this flowchart includes both the operation by the user and the processing executed by the processing device 55 according to the program, the distinction will be clarified in the following description.
[0050]
In step # 101, the user executes the measurement while moving the sample stage at an appropriate pitch in the X direction and the Y direction, and acquires and stores a plurality of images having different measurement ranges. Note that it is necessary to determine the moving pitch of the sample stage so that the ends of adjacent images overlap each other.
[0051]
In step # 102, the user starts the manual splicing mode, and sets the splicing conditions as described above in the third area 63 (see FIG. 5) of the screen display shown in FIG. 4 (step # 103). . In the following step # 104, a plurality of images used for combining (joining) are displayed in the first area 61 of the screen display shown in FIG. In the display example of FIG. 4, images 66 to 69 of the display data type (light amount data) specified in the sub-block 80 of the file stored in the folder specified in the third area 63 are stored in the first area 61. Is displayed. The display data type specified in the sub-block 80 can be changed and set even during the execution of the joining.
[0052]
In the next step # 105, the user drags a plurality of images one by one with the mouse 53 to move to the second area 62, and drops the images at the joint positions. In the display example of FIG. 4, a composite image 64 obtained by connecting three images 66 to 68 displayed in the first area 61 is displayed in the second area 62. Then, a state is displayed in which the fourth image 69 displayed in the first area 61 is dragged to the second area 62 to join the image 65 to the composite image 64.
[0053]
After arranging all the images, in the next step # 106, the user instructs execution of the combination processing. That is, the “file creation” button 75 shown in FIG. 5 is pressed.
[0054]
When the execution of the combining process is instructed, the processing device 55 checks whether or not the automatic superposition correction is turned on in the sub-block 73 shown in FIG. 5 (step # 107). Executes the overlay position automatic correction (step # 108). In the last step # 109, generation, display and storage of a composite image file are executed. One or more synthesized image (data) files selected in the sub-block 72 shown in FIG. 5 are generated and stored. Similarly to the type of image displayed in the first area 61, a composite image of the type specified in the sub-block 80 is displayed in the second area 62.
[0055]
When generating a composite image, it may be found that only one of the plurality of used images has a defect. For example, there is a case where the measurement range is not appropriate and there is no overlap with the adjacent image. Alternatively, since the light reflectance of the surface of the sample greatly differs depending on the location, there may be an image in which the amount of received light is saturated and height information cannot be obtained. In such a case, the image in the middle of the synthesis except for one image having a defect is stored, and after the one image is correctly re-measured (regenerated), the regenerated image is synthesized. Can be connected to the image of the stage.
[0056]
In order to make this possible, an information table (patchwork information table) in which the file name used for synthesis and the position information at the time of synthesis are recorded is used. The image in the middle of synthesis can also be stored as an information table, read out later, displayed on the screen (second area 62), and reused.
[0057]
FIG. 7 is a chart showing an example of the structure of the patchwork information table 81. The patchwork information table 81 is a table for storing the file names of a plurality of images used for combination, the positional relationship between the images, and the positional relationship between the images finally combined.
[0058]
In FIG. 7, the automatic / manual flag indicates the means of synthesizing, and is "0" for manual operation and "1" for automatic operation. The total number of synthesized images is the number of registered images (images used for synthesis). The number of horizontal composite images is the number of images connected in the horizontal direction. The number of vertically synthesized images is the number of images connected in the vertical direction. The automatic correction flag indicates the presence or absence of the above-described automatic correction of the overlapping position, and is “0” when there is no automatic correction, and is “1” when there is automatic correction. The synthesis source indicates the type of data used for synthesizing the image (corresponding to the sub-block 71 in FIG. 5). The luminance (light amount data) is “0”, R (red data) is 1, G (green data) is 2, and B (blue data) is 3.
[0059]
The reduction flag becomes “1” when the number of pixels in the vertical or horizontal direction exceeds 4096, and is “0” otherwise. The size of the composite image (X direction) and the size of the composite image (Y direction) are the number of pixels in the X direction or the Y direction of the composite image. The X position of the composite image and the Y position of the composite image are positional information of the upper left corner of the composite image viewed from the upper left corner of the upper left image. The directory name storage position is storage position information of the directory name viewed from the top of the information table 81.
[0060]
The image position (X direction) and the image position (Y direction) are position information of the upper left corner of each image viewed from the upper left corner of the upper left image. The position of the image and the registered position are irrelevant. The unit is a pixel. The file name storage position is storage position information of the file name of each image viewed from the top of the information table 81. Following the directory name, the file name is stored in order. The image position (X direction), the image position (Y direction), and the file name storage position are repeated by the number of synthesized images (the number of images used for synthesis). Of the directory name and file name, the directory name is stored with a full path. The file names are subsequently stored in the order of registration.
[0061]
In the above-described embodiment, a case has been described in which dedicated software for controlling the confocal microscope system 1 is installed in the external computer system 50, and the process of manually joining images is performed on a computer screen. Is not limited to such an embodiment. For example, a control program stored in a storage medium such as a ROM built in a controller of the confocal microscope system 1 incorporates a program for manually joining images as in the above-described embodiment, and a display provided as standard equipment in the confocal microscope system 1. Manual stitching of images may be performed using the device 47 and the input device 48.
[0062]
Further, in order to acquire the height information of the surface of the sample wk by the confocal optical system 2, the sample stage 30 may be moved up and down instead of moving (moving up and down) the objective lens 17 in the Z direction. In addition, the present invention can be implemented in various forms.
[0063]
For example, the scanning of the sample by light is not limited to two-dimensional scanning using horizontal deflection and vertical deflection, and various scanning methods can be considered. For example, two-dimensional scanning can be performed by generating elongated light (slit light) in the X direction using a cylindrical lens and deflecting the light in the Y direction.
[0064]
Although the confocal microscope of the above embodiment is a reflection type microscope, the present invention can also be applied to a transmission type confocal microscope. In the case of a transmission microscope, laser light of a confocal optical system and white light of a non-confocal optical system are irradiated from the back surface of the sample. The light source of the confocal optical system may be a monochromatic light source including a laser light source, or may include a plurality of wavelengths. The light source of the non-confocal optical system can be replaced by natural light or room light.
[0065]
【The invention's effect】
As described above, according to the confocal microscope system provided with the manual joining mode of images of the present invention, the user saves a plurality of images generated while shifting the measurement range in advance in the storage device. In addition, a plurality of images displayed in a first area on a screen of a computer can be joined by a manual operation in a second area on the screen.
[0066]
In addition, images can be connected by processing an image obtained by processing height information peculiar to a confocal microscope or an image obtained by processing light amount information. The conditions for connection can be set in a third area on the screen. can do.
[0067]
Further, it is possible to store an information table of an image in the middle of synthesis, read it out, and reuse it. Thereby, when it is determined that only one of the plurality of joined images is defective, the image can be efficiently repaired.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of a confocal microscope system according to an embodiment of the present invention.
FIG. 2 is a graph illustrating an example of received light amount data that changes according to the Z-direction position of an objective lens.
FIG. 3 is a block diagram illustrating a hardware configuration example in which an external computer system is connected to a controller of the confocal microscope system.
FIG. 4 is a diagram illustrating an example of a screen display displayed on a display device in a manual joining mode.
FIG. 5 is an enlarged view of a region for setting a joining condition in the screen display of FIG. 4;
FIG. 6 is a flowchart illustrating an example of a procedure for manually joining images.
FIG. 7 is a chart showing an example of the structure of a patchwork information table.
[Explanation of symbols]
Reference Signs List 1 confocal microscope system 2 confocal optical system 19 light receiving element 47, 51 display device 53 mouse (pointing device)
57 storage device 60 screen display in manual splicing mode 61 first area 62 second area 63 third area 50 external computer system 81 patchwork information table (information table for managing composite images)

Claims (4)

光学倍率によって決まる測定範囲内の試料表面からの光を共焦点光学系を介して受光素子で受光し、その受光情報に基づいて前記試料表面の高さ情報及び光量情報を取得し、取得した情報を処理して得られる前記試料表面の画像を表示装置の画面に表示する共焦点顕微鏡システムであって、
前記測定範囲をずらしながら生成した複数の画像を記憶装置に保存しておき、前記記憶装置から読み出した前記複数の画像を手動操作によってつなぎ合わせて、1枚の合成画像を生成する手動つなぎ合わせモードを備え、
前記手動つなぎ合わせモードにおける前記表示装置の画面表示が、前記複数枚の画像を表示する第1の領域と、ポインティングデバイスを用いて前記複数枚の画像を1枚ずつ移動させてつなぎ合わせた合成画像を表示する第2の領域と、つなぎ合わせの条件を設定するための第3の領域とを有することを特徴とする共焦点顕微鏡システム。
Light from the sample surface within the measurement range determined by the optical magnification is received by the light receiving element via the confocal optical system, and height information and light amount information of the sample surface are obtained based on the received light information, and the obtained information is obtained. A confocal microscope system that displays an image of the sample surface obtained by processing on a screen of a display device,
A manual splicing mode in which a plurality of images generated while shifting the measurement range are stored in a storage device, and the plurality of images read from the storage device are spliced by a manual operation to generate one composite image. With
A screen display of the display device in the manual splicing mode includes a first area for displaying the plurality of images, and a synthesized image obtained by moving the plurality of images one by one using a pointing device and joining the images. And a third region for setting a joining condition.
前記試料表面の高さ情報及び光量情報を含む複数の取得情報のうちのいずれを処理して得られた試料表面の画像を表示するかを前記第3の領域で選択可能であることを特徴とする
請求項1記載の共焦点顕微鏡システム。
In the third region, it is possible to select which of a plurality of pieces of acquired information including height information and light amount information of the sample surface to display an image of the sample surface obtained by processing. The confocal microscope system according to claim 1, wherein
前記試料表面の高さ情報及び光量情報を含む複数の取得情報からそれぞれ生成された複数種類の画像のそれぞれについて合成画像を生成し保存するか否かを前記第3の領域で設定可能であることを特徴とする
請求項1又は2記載の共焦点顕微鏡システム。
It is possible to set in the third area whether or not to generate and store a composite image for each of a plurality of types of images generated from a plurality of pieces of acquisition information including height information and light amount information of the sample surface. The confocal microscope system according to claim 1 or 2, wherein:
前記第2の領域に表示される合成画像を管理する情報テーブルが設けられ、前記情報テーブルは、前記合成画像を構成する元の画像を特定する情報及びその位置情報を含むことを特徴とする
請求項1,2又は3記載の共焦点顕微鏡システム。
An information table for managing a composite image displayed in the second area is provided, and the information table includes information for specifying an original image constituting the composite image and positional information thereof. Item 6. A confocal microscope system according to item 1, 2 or 3.
JP2002302494A 2002-10-17 2002-10-17 Confocal microscope system Pending JP2004138761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002302494A JP2004138761A (en) 2002-10-17 2002-10-17 Confocal microscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002302494A JP2004138761A (en) 2002-10-17 2002-10-17 Confocal microscope system

Publications (1)

Publication Number Publication Date
JP2004138761A true JP2004138761A (en) 2004-05-13

Family

ID=32450542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002302494A Pending JP2004138761A (en) 2002-10-17 2002-10-17 Confocal microscope system

Country Status (1)

Country Link
JP (1) JP2004138761A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145774A (en) * 2007-12-17 2009-07-02 Olympus Corp Laser scanning microscope apparatus, and surface shape measuring method thereof
KR101715470B1 (en) * 2015-04-10 2017-03-14 충북대학교 산학협력단 Integral Imaging Microscope Apparatus and the Method for Improving Depth of Focus thereof
US10678038B2 (en) 2016-12-09 2020-06-09 Olympus Corporation Scanning confocal microscope apparatus, scanning control method, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145774A (en) * 2007-12-17 2009-07-02 Olympus Corp Laser scanning microscope apparatus, and surface shape measuring method thereof
KR101715470B1 (en) * 2015-04-10 2017-03-14 충북대학교 산학협력단 Integral Imaging Microscope Apparatus and the Method for Improving Depth of Focus thereof
US10678038B2 (en) 2016-12-09 2020-06-09 Olympus Corporation Scanning confocal microscope apparatus, scanning control method, and recording medium

Similar Documents

Publication Publication Date Title
US9007452B2 (en) Magnification observation device, magnification observation method, and magnification observation program
US6160908A (en) Confocal microscope and method of generating three-dimensional image using confocal microscope
US20140152794A1 (en) Measurement Microscope Device, Image Generating Method, Measurement Microscope Device Operation Program, And Computer-Readable Recording Medium
US6337474B1 (en) Scanning microscope
US9798129B2 (en) Microscope system and method for deciding stitched area
JP4700299B2 (en) Confocal scanning microscope
JP4309523B2 (en) 3D measurement confocal microscope
JP2007148223A (en) Condition setting device for scanning laser microscope and scanning laser microscope system
JP4526988B2 (en) Minute height measuring method, minute height measuring apparatus and displacement unit used therefor
JP2014215582A (en) Confocal microscope device
JP4536422B2 (en) Magnification observation apparatus, magnification image observation method, magnification observation operation program, and computer-readable recording medium or recorded apparatus
JP4180322B2 (en) Confocal microscope system and computer program for parameter setting
JP2002098901A (en) Scanning laser microscope
JP2007140183A (en) Confocal scanning type microscope device
JP4410335B2 (en) Confocal microscope
JPH1152252A (en) Fluorescent microscope
JP2004138761A (en) Confocal microscope system
JP2004170572A (en) Confocal microscopic system having image connecting function, light quantity eccentricity correcting method and computer program
JP4536421B2 (en) Magnification observation apparatus, magnification image observation method, magnification observation operation program, and computer-readable recording medium or recorded apparatus
JP2004138947A (en) Confocal microscopic system selective in scanning mode
JP4350365B2 (en) Laser scanning microscope
JP4536845B2 (en) Confocal microscope
JP4290413B2 (en) Confocal microscope system with measurement repeat mode
JP2005114713A (en) Magnification observation device, method of observing magnified image, operation program for magnification observation, and computer-readable recording medium
JP5119111B2 (en) Microscope equipment

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20050810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090317