JP2006243608A - Microscope system - Google Patents

Microscope system Download PDF

Info

Publication number
JP2006243608A
JP2006243608A JP2005062173A JP2005062173A JP2006243608A JP 2006243608 A JP2006243608 A JP 2006243608A JP 2005062173 A JP2005062173 A JP 2005062173A JP 2005062173 A JP2005062173 A JP 2005062173A JP 2006243608 A JP2006243608 A JP 2006243608A
Authority
JP
Japan
Prior art keywords
stage
observation
images
image
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005062173A
Other languages
Japanese (ja)
Other versions
JP4765340B2 (en
Inventor
Yasushi Ogiwara
康史 荻原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2005062173A priority Critical patent/JP4765340B2/en
Publication of JP2006243608A publication Critical patent/JP2006243608A/en
Application granted granted Critical
Publication of JP4765340B2 publication Critical patent/JP4765340B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a microscope system capable of displaying a natural image free from image blurring on a display of reproducing photographed images, regarding multipoint time-lapse photographing. <P>SOLUTION: When the photographed images GaO, Ga1 and Ga6 are displayed so that a photographing point (a) may be located in the center of a monitor 40, the images are displayed shifting from the monitor center due to the stage positioning error at photographing. A rectangular Ga shows a photographing area in the case of no positioning error. The shifting width S1 to the right of the photographed image Ga6 relative to the rectangular area Ga is set as a trimming width on the left side. Similarly, the downward-shifting width S2 of the photographed image Ga1, the upward shifting width S3 of the photographed image Ga6 and the shifting width S4 of the photographed image Gao to the left are separately set as the trimming width on the upper/right/lower side. And each photographed image is trimmed corresponding to the rectangular area Ga based on the trimming widths S1 to S4 and the positional shifting amount of each photographed image with reference to the rectangular area Ga. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、複数の観察ポイントに対して顕微鏡画像を所定時間隔で撮影する顕微鏡システムに関する。   The present invention relates to a microscope system that captures microscope images at a predetermined time interval with respect to a plurality of observation points.

従来、生物細胞等の標本を観察する方法として、顕微鏡画像を一定時間間隔毎に撮影するタイムラプス撮影と称する方法が知られている(例えば、特許文献1参照)。撮影ポイントが複数ある場合には多点タイムラプスと呼ばれ、標本が載置された電動ステージを駆動して各撮影ポイントを順に撮影するものである。このような巡回撮影を一定時間間隔で複数回行い、各撮影ポイント毎に複数の撮影画像を取得する。撮影終了後には、特定の撮影ポイント毎に、撮影された複数の画像を次々と再生することにより、標本の時間的な形態変化を観察することができる。   Conventionally, as a method of observing a specimen such as a biological cell, a method called time lapse photography in which a microscope image is photographed at regular time intervals is known (for example, see Patent Document 1). When there are a plurality of shooting points, this is called multi-point time lapse, and an electric stage on which a sample is placed is driven to sequentially shoot each shooting point. Such cyclic photographing is performed a plurality of times at regular time intervals, and a plurality of photographed images are acquired for each photographing point. After the photographing is completed, a temporal change in the specimen can be observed by reproducing a plurality of photographed images one after another for each specific photographing point.

特開2002−277754号公報JP 2002-277754 A

ところで、多点夕イムラプス撮影では、複数の撮影ポイントを巡回撮影するため、同一撮影ポイントに移動する際に高い位置決め精度がステージに要求される。ステージ位置決めに誤差が生じると、撮影毎に撮影領域がずれてしまい、撮影した画像を連続的に再生したときに像がブレて不自然な映像になるという問題が生じる。   By the way, in multipoint evening lapse photography, since a plurality of photography points are cyclically photographed, a high positioning accuracy is required for the stage when moving to the same photography point. When an error occurs in the stage positioning, the shooting area is shifted every time shooting is performed, and there is a problem that when the captured images are continuously reproduced, the images are blurred and become unnatural images.

また、ステージの高精度位置決めを行う場合、ステージ位置の検出にリニアエンコーダを用いたフィードバック制御が採用される。しかし、光学系の倍率が高くなるとステージに要求される位置決め精度も高くなり、それを満たそうとすると目標位置の前後を往復するいわゆるハンチングが生じる。そのため、位置決めに時間を要したり、最悪の場合にはハンチングが止まらないおそれがあった。   Further, when performing high-precision positioning of the stage, feedback control using a linear encoder is adopted for detection of the stage position. However, as the magnification of the optical system increases, the positioning accuracy required for the stage also increases, and so-called hunting that reciprocates before and after the target position occurs when an attempt is made to satisfy it. Therefore, it may take time for positioning, and in the worst case, hunting may not stop.

請求項1の発明は、観察対象上に設定された複数の観察箇所を対物光学系の光軸上に順に移動して、観察箇所毎に、観察対象の観察像を撮像装置により経時的に複数回撮影する顕微鏡システムに適用され、観察対象が載置されたステージと対物光学系とを相対的に光軸に垂直な方向に2次元的に駆動する駆動手段と、ステージと対物光学系との一方または両方の位置を検出する位置検出手段と、位置検出手段により検出された位置情報に基づいて、観察箇所に関して経時的に撮影された複数の撮影画像を、該観察箇所を含む同一観察領域の画像となるようにそれぞれトリミング補正する補正手段を備えたことを特徴とする。
請求項2の発明は、請求項1に記載の顕微鏡システムにおいて、複数の撮影画像の全てに含まれる共通の撮影領域を、同一観察領域に設定するようにしたものである。
請求項3の発明は、請求項1または2に記載の顕微鏡システムにおいて、位置検出手段により検出された位置情報が予め定めた位置決め範囲内となったならば、駆動手段によるステージまたは対物光学系の駆動を停止させる制御手段を備えたものである。
請求項4の発明は、請求項3に記載の顕微鏡システムにおいて、補正手段は、トリミング補正のためのトリミング量を前記位置決め範囲の大きさに応じて設定するようにしたものである。
According to the first aspect of the present invention, a plurality of observation locations set on the observation target are sequentially moved on the optical axis of the objective optical system, and a plurality of observation images of the observation target are sequentially acquired by the imaging device for each observation location. Applied to a microscope system for taking multiple images, a driving means for two-dimensionally driving a stage on which an observation object is placed and an objective optical system in a direction perpendicular to the optical axis, and the stage and the objective optical system Based on the position detection means for detecting one or both positions, and the position information detected by the position detection means, a plurality of photographed images taken over time with respect to the observation location are stored in the same observation region including the observation location. The image processing apparatus is characterized by including correction means for correcting trimming so as to form an image.
According to a second aspect of the present invention, in the microscope system according to the first aspect, a common photographing region included in all of the plurality of photographed images is set to the same observation region.
According to a third aspect of the present invention, in the microscope system according to the first or second aspect, if the position information detected by the position detecting means falls within a predetermined positioning range, the stage of the driving means or the objective optical system Control means for stopping the drive is provided.
According to a fourth aspect of the present invention, in the microscope system according to the third aspect, the correction means sets a trimming amount for trimming correction according to the size of the positioning range.

本発明によれば、撮影ポイントに関して経時的に撮影された複数の撮影画像を、撮影ポイントの画像を含む同一撮影領域の画像となるようにそれぞれトリミング補正するようにしたので、撮影時に位置決め誤差が生じても、補正後の撮影画像を順に表示したときの画像のブレを除去することができる。   According to the present invention, since a plurality of photographed images taken over time with respect to the photographing point are trimmed and corrected so as to be images of the same photographing region including the image of the photographing point, positioning errors occur during photographing. Even if it occurs, it is possible to eliminate blurring of images when the corrected captured images are displayed in order.

以下、図を参照して本発明を実施するための形態について説明する。図1は本発明による顕微鏡システムの一実施の形態を示す図であり、装置構成の概略を示したものである。10は倒立型の顕微鏡であり、顕微鏡10には電動ステージ30が設けられている。電動ステージ30の下方には対物レンズ12が装着可能な電動レボルバ11が設けられており、電動ステージ30の上方には試料を照明するための照明装置14が設けられている。観察画像を撮影するためのカメラ20には、撮像素子としてCCD撮像素子が内蔵されている。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an embodiment of a microscope system according to the present invention, and shows an outline of an apparatus configuration. Reference numeral 10 denotes an inverted microscope, and the microscope 10 is provided with an electric stage 30. An electric revolver 11 to which the objective lens 12 can be attached is provided below the electric stage 30, and an illumination device 14 for illuminating the sample is provided above the electric stage 30. A camera 20 for taking an observation image incorporates a CCD image pickup device as an image pickup device.

電動ステージ30はDCモータ等により駆動されるXYステージを有しており、このXYステージを駆動することにより試料が入ったシャーレ13をXY方向に移動させることができる。XYステージのxy座標は電動ステージ30に設けられたリニアエンコーダ(不図示)により検出される。電動ステージ30には、電動ステージ30の移動動作を制御するステージコントローラ31が接続されている。電動レボルバ11の各対物取付穴には番地が割り当てられており、あらかじめ入力されたテーブルにより光軸L上に配置されている対物レンズ12の倍率を検出することができる。なお、電動レボルバ11もXY方向に電動駆動されるように構成され、XY座標がリニアエンコーダで取得される構成でも良い。要するに、電動ステージ30と電動レボルバ11とが相対的にXY方向に駆動でき、両者の位置情報(XY座標)が検出されるようになっていれば良い。   The electric stage 30 has an XY stage driven by a DC motor or the like, and the petri dish 13 containing the sample can be moved in the XY direction by driving the XY stage. The xy coordinates of the XY stage are detected by a linear encoder (not shown) provided on the electric stage 30. A stage controller 31 that controls the movement operation of the electric stage 30 is connected to the electric stage 30. An address is assigned to each objective mounting hole of the electric revolver 11, and the magnification of the objective lens 12 arranged on the optical axis L can be detected by a table input in advance. The electric revolver 11 may also be configured to be electrically driven in the XY directions, and the XY coordinates may be acquired by a linear encoder. In short, it is only necessary that the electric stage 30 and the electric revolver 11 can be driven in the XY directions relatively and position information (XY coordinates) of both can be detected.

50は顕微鏡システムの全体を制御や画像処理等を行うPC(パーソナルコンピュータ)であり、PC50には上述したステージコントローラ31および顕微鏡10が接続され、エンコーダからの位置情報,対物レンズ12の倍率情報およびカメラ20からの撮影データなどが入力される。また、PC50にはモニタ40やマウス等のポインティングデバイス60や入力用のキーボード(不図示)が接属され、カメラ20で撮影した顕微鏡画像をモニタ40に表示することができる。図2(B)に示すように、モニタ40にはシャーレ13の全体画像(マクロ画像)を表示する表示領域40Yと、シャーレ13中の撮影ポイントa,b,cの画像(ミクロ画像)を表示する表示領域40Xとがある。   A PC (personal computer) 50 controls the entire microscope system, performs image processing, and the like. The stage controller 31 and the microscope 10 are connected to the PC 50, and position information from the encoder, magnification information of the objective lens 12, and Shooting data from the camera 20 is input. The PC 50 is connected to a monitor 40, a pointing device 60 such as a mouse, and an input keyboard (not shown), so that a microscope image taken by the camera 20 can be displayed on the monitor 40. As shown in FIG. 2B, the monitor 40 displays a display area 40Y for displaying the entire image (macro image) of the petri dish 13 and images (micro images) of the shooting points a, b, and c in the petri dish 13. Display area 40X.

《撮影画像データ取得について》
生細胞を観察する場合、シャーレ13を培地で満たし、その中で細胞を生かしながら所定時間間隔で画像撮影を行う。多点タイムラプス観察の場合、例えば観察ポイントが3点である場合には、図2(A)のように撮影ポイントa,b,cを予め設定する。図3はタイムラプス設定と撮影の手順を示すフローチャートであり、このフローチャートを参照して設定および撮影処理について説明する。
<Acquiring captured image data>
When observing live cells, the petri dish 13 is filled with a medium, and images are taken at predetermined time intervals while keeping the cells alive. In the case of multi-point time lapse observation, for example, when there are three observation points, photographing points a, b, and c are set in advance as shown in FIG. FIG. 3 is a flowchart showing a procedure for setting the time lapse and shooting, and the setting and shooting process will be described with reference to this flowchart.

図3のステップS1では、多点タイムラプス撮影の条件が入力されたか否かを判定し、入力有りと判定されるとステップS2へ進む。タイムラプス撮影の条件としては、例えば、撮影ポイント、撮影時間間隔Δtおよびタイムラプス継続時間ttotalなどがある。オペレータはモニタ40上に表示された撮影画像40a,40b,40c(図2参照)を見ながら、表示画面上のマクロ画像13aの観察したい位置にポインティングデバイス60のポインタPを移動して撮影ポイントを指定する。   In step S1 of FIG. 3, it is determined whether or not a multipoint time-lapse shooting condition has been input. If it is determined that there is an input, the process proceeds to step S2. Examples of conditions for time lapse shooting include a shooting point, a shooting time interval Δt, and a time lapse duration ttotal. The operator moves the pointer P of the pointing device 60 to the position to be observed on the macro image 13a on the display screen while viewing the captured images 40a, 40b, and 40c (see FIG. 2) displayed on the monitor 40, and sets the shooting point. specify.

以下では、図2に示したa,b,cの3点を撮影ポイントとして設定した場合を例に説明する。ポインティングデバイス60を操作してポインタPを位置a上に移動し、確定操作を行うと位置aが撮影ポイントに設定される。同様の操作を行って、b,cの順に撮影ポイントを設定する。この設定により、撮影ポイントa,b,cのxy座標がそれぞれPC50の記憶部に記憶される。後述するタイムラプス撮影の際には、入力された撮影ポイントa,b,cの順に撮影が行われる。   Hereinafter, a case where three points a, b, and c shown in FIG. 2 are set as shooting points will be described as an example. When the pointing device 60 is operated to move the pointer P over the position a and perform a confirmation operation, the position a is set as a shooting point. The same operation is performed to set shooting points in the order of b and c. With this setting, the xy coordinates of the shooting points a, b, and c are stored in the storage unit of the PC 50, respectively. In time-lapse shooting described later, shooting is performed in the order of the input shooting points a, b, and c.

また、モニタ40上に条件入力画面を表示させ、ポインティングデバイス60やキーボードを使用して撮影時間間隔Δtおよびタイムラプス継続時間ttotalを入力する。撮影時間間隔Δtはa,b,cの撮影が終了してから次のa,b,cの撮影までの時間間隔であり、タイムラプス継続時間ttotalは撮影処理開始から撮影処理終了までの時間である。例えば、撮影時間間隔Δt=10分、タイムラプス継続時間ttotal=60分とすると、処理開始時における撮影も含めて各撮影ポイント毎に7回の撮影が行われる。以下では、この条件で説明を行う。全ての条件の入力が終了したならば、タイムラプス撮影開始の指示をする。   Further, a condition input screen is displayed on the monitor 40, and the shooting time interval Δt and the time lapse duration ttotal are input using the pointing device 60 or the keyboard. The shooting time interval Δt is the time interval from the end of the shooting of a, b, c to the next shooting of a, b, c, and the time lapse duration ttotal is the time from the start of the shooting process to the end of the shooting process. . For example, if the shooting time interval Δt = 10 minutes and the time lapse duration ttotal = 60 minutes, shooting is performed seven times for each shooting point including shooting at the start of processing. Below, it demonstrates on this condition. When input of all the conditions is completed, an instruction to start time-lapse shooting is given.

ステップS2では、タイムラプス撮影開始の指示が有ったか否かを判定し、指示が有ったと判定されると、入力された条件にしたがって電動ステージ30やカメラ20に次々と指令を出し、ステップS3以降の一連の処理を自動的に実行する。ステップS3からステップS8までの処理は3つの撮影ポイントa,b,cに対する1回分の撮影処理を表しており、ステップS3からステップS8までの一連の撮影処理が上述した撮影時間間隔Δtで繰り返し実行される。   In step S2, it is determined whether or not there has been an instruction to start time-lapse photography. If it is determined that there has been an instruction, instructions are sequentially issued to the electric stage 30 and the camera 20 in accordance with the input conditions, and step S3. The subsequent series of processing is automatically executed. The process from step S3 to step S8 represents a single shooting process for three shooting points a, b, and c, and a series of shooting processes from step S3 to step S8 are repeatedly executed at the above-described shooting time interval Δt. Is done.

まず、ステップS3では、撮影ポイント設定時に記憶された撮影ポイントaのxy座標データXa、Yaに基づいて、撮影ポイントaが撮影画面の中央に配置されるように電動ステージ30を移動し、移動後のステージ位置Xai、Yaiを記憶する。ここで、iはデータ取得順番を表しており、初期値はi=0である。すなわち、ステップS2からステップS3へ進んで最初に得られるステージ位置データはXa0,Ya0である。ステップS4では、撮影ポイントaの顕微鏡画像を撮影する。そして、得られた撮影画像データAiはステージ位置Xai、Yaiおよび光学系の倍率Mと関連付けられて保存される。   First, in step S3, based on the xy coordinate data Xa and Ya of the shooting point a stored at the time of setting the shooting point, the electric stage 30 is moved so that the shooting point a is arranged at the center of the shooting screen. Memorize stage position Xai, Yai. Here, i represents the data acquisition order, and the initial value is i = 0. In other words, the stage position data obtained first from step S2 to step S3 are Xa0 and Ya0. In step S4, a microscope image of the shooting point a is taken. The obtained captured image data Ai is stored in association with the stage positions Xai and Yai and the magnification M of the optical system.

ステップS5では、撮影ポイント設定時に記憶された撮影ポイントbのxy座標データXb、Ybに基づいて、撮影ポイントbが撮影画面の中央に配置されるように電動ステージ30を移動し、移動後のステージ位置Xbi、Ybiを記憶する。ステップS6では、撮影ポイントbの顕微鏡画像を撮影する。そして、得られた撮影画像データBiはステージ位置Xbi、Ybiおよび光学系の倍率Mと関連付けられて保存される。   In step S5, the electric stage 30 is moved based on the xy coordinate data Xb and Yb of the shooting point b stored at the time of setting the shooting point so that the shooting point b is arranged at the center of the shooting screen, and the stage after the movement is moved. Memorize the positions Xbi, Ybi. In step S6, a microscope image of the shooting point b is taken. The obtained photographed image data Bi is stored in association with the stage positions Xbi and Ybi and the magnification M of the optical system.

ステップS7では、撮影ポイント設定時に記憶された撮影ポイントcのxy座標データXc、Ycに基づいて、撮影ポイントcが撮影画面の中央に配置されるように電動ステージ30を移動し、移動後のステージ位置Xci、Yciを記憶する。ステップS8では、撮影ポイントcの顕微鏡画像を撮影する。そして、得られた撮影画像データCiはステージ位置Xci、Yciおよび光学系の倍率Mと関連付けられて保存される。   In step S7, the electric stage 30 is moved based on the xy coordinate data Xc and Yc of the shooting point c stored at the time of setting the shooting point so that the shooting point c is arranged at the center of the shooting screen, and the stage after the movement is moved. Memorize the position Xci, Yci. In step S8, a microscope image at the shooting point c is taken. The obtained photographed image data Ci is stored in association with the stage positions Xci and Yci and the magnification M of the optical system.

ステップS9では、ステップS3の処理開始からの経過時間が撮影時間間隔Δtが経過したか否かを判定し、経過したと判定されるとステップS10へ進む。ステップS10では、データ取得順番を表すiがi=6となったか否か、すなわちタイムラプス継続時間ttotalが経過したか否かを判定する。上述したステップS2で設定された条件によれば、各撮影ポイント毎に7回の撮影が行われiの初期値はi=0なので、タイムラプス継続時間ttotalが経過したか否かの判定条件はi=6となる。ステップS10でi≠6(NO)と判定されるとステップS11へ進み、i=6(YES)と判定されると撮影画像データ取得に関する一連の処理動作を終了する。   In step S9, it is determined whether or not the elapsed time from the start of the process in step S3 has elapsed, and if it is determined that it has elapsed, the process proceeds to step S10. In step S10, it is determined whether i representing the data acquisition order is i = 6, that is, whether the time lapse duration ttotal has elapsed. According to the conditions set in step S2 described above, since seven shootings are performed at each shooting point and the initial value of i is i = 0, the determination condition as to whether or not the time lapse duration ttotal has elapsed is i. = 6. If it is determined in step S10 that i ≠ 6 (NO), the process proceeds to step S11, and if it is determined that i = 6 (YES), a series of processing operations relating to acquisition of captured image data ends.

ステップS10からステップS11へ進んだ場合には、iの大きさをi+1と増加させてステップS3へ戻る。そして、ステップS3からステップS8までの処理を上述した1回目(i=0)の撮影画像データ取得の場合と同様に行って、2回目(i=1)の撮影画像データを取得する。ステップS3からステップS8までの処理は、ステップS10においてi=6となるまで繰り返し行われるので、その結果、合計21(=3×7)個の撮影画像データA0,A1,…,A6,B0,B1,…,B6,C0,C1,…,C6が、各々を取得したときのステージ位置および光学系の倍率Mと共に取得される。これらのデータは、PC50の記憶部に保存される。   When the process proceeds from step S10 to step S11, the magnitude of i is increased to i + 1 and the process returns to step S3. Then, the processing from step S3 to step S8 is performed in the same manner as the first (i = 0) captured image data acquisition described above, and the second (i = 1) captured image data is acquired. The processing from step S3 to step S8 is repeated until i = 6 in step S10, and as a result, a total of 21 (= 3 × 7) pieces of captured image data A0, A1,..., A6, B0, B1,..., B6, C0, C1,..., C6 are acquired together with the stage position and the optical system magnification M when each is acquired. These data are stored in the storage unit of the PC 50.

ところで、電動ステージ30を移動する際の位置決め方法としては、オープンループ制御とフィードバックを行うクローズドループ制御とがある。オープンループ制御では、目標位置に到達するために必要なステージ駆動用モータの回転量を予め計算し、これに基づいてモータを回転させるものである。一方、クローズドループ制御の場合には、リニアエンコーダで検出されるステージ位置をフィードバックしながら目標位置へとステージを移動するものである。予め、目標位置を中心値とする所定範囲を設定しておき、検出されるステージの検出位置がその所定範囲内となったならばステージ移動を停止する。   By the way, as a positioning method when moving the electric stage 30, there are open loop control and closed loop control for performing feedback. In the open loop control, the rotation amount of the stage driving motor necessary to reach the target position is calculated in advance, and the motor is rotated based on this. On the other hand, in the case of closed loop control, the stage is moved to the target position while feeding back the stage position detected by the linear encoder. A predetermined range whose center value is the target position is set in advance, and the stage movement is stopped when the detected position of the stage to be detected falls within the predetermined range.

上述した説明では、オープンループ制御を前提に説明したが、クローズドループ制御の場合には、撮影ポイント設定時の座標(Xa、Ya)、(Xb、Yb)、(Xc、Yc)を撮影ポイントa,b,cの目標位置に設定する。また、座標(Xa、Ya)、(Xb、Yb)、(Xc、Yc)に代えて、最初(i=0)の撮影画像データ取得時のステージ位置(Xa0、Ya0)、(Xb0、Yb0)、(Xc0、Yc0)を目標位置としても良い。その後のi=1〜6においては、この座標(Xa0、Ya0)、(Xb0、Yb0)、(Xc0、Yc0)を目標にステージ移動を行わせれば良い。   In the above description, the open-loop control is assumed. However, in the case of closed-loop control, the coordinates (Xa, Ya), (Xb, Yb), (Xc, Yc) at the time of shooting point setting are used as the shooting point a. , B, and c are set as target positions. Also, instead of the coordinates (Xa, Ya), (Xb, Yb), (Xc, Yc), the stage positions (Xa0, Ya0), (Xb0, Yb0) at the time of obtaining the first (i = 0) captured image data , (Xc0, Yc0) may be the target position. Thereafter, for i = 1 to 6, the stage may be moved with the coordinates (Xa0, Ya0), (Xb0, Yb0), (Xc0, Yc0) as targets.

このようにして、複数の撮影ポイントa,b,cのそれぞれに関して、撮影時間の異なる7つの撮影画像データが取得され、それらは、モニタ40上に再生表示される。例えば、7枚の撮影画像を順に連続的に再生表示することにより、生細胞の時間的変化が解りやすくなる。ところが、前述したようにステージ位置決め精度が悪いと、像ブレが生じるという問題があった。   In this way, for each of the plurality of shooting points a, b, and c, seven shot image data having different shooting times are acquired, and these are reproduced and displayed on the monitor 40. For example, it is easy to understand temporal changes of living cells by sequentially reproducing and displaying seven captured images in order. However, as described above, there is a problem that image blurring occurs when the stage positioning accuracy is poor.

特に、撮影ポイントが多い場合(数十〜数百ポイント)などは、タイムラプスの設定時間と撮影ポイントの数とにより撮影ポイントに停留している時間が短くなり、撮影ポイントから次のポイントへ移動するためにステージの高速駆動が必要となり、ステージ位置決め精度が悪化する。そこで、本実施の形態では、取得された画像を補正し、その補正した画像を表示することにより連続再生時の像ブレを解消するようにした。   In particular, when there are many shooting points (several tens to several hundred points), the time that is stopped at the shooting point is shortened depending on the time lapse setting time and the number of shooting points, and the shooting point moves to the next point. Therefore, the stage must be driven at high speed, and the stage positioning accuracy is deteriorated. Therefore, in the present embodiment, the acquired image is corrected, and the corrected image is displayed to eliminate the image blur at the time of continuous reproduction.

《画像補正の説明》
次に、撮影画像データの補正方法について説明する。撮影ポイントa,b,cのいずれの撮影画像データに関しても補正方法は同じなので、以下では撮影ポイントaの撮影画像データに関する補正について説明する。上述したように、ステージ位置決め誤差のために、撮影ポイントaに関して得られた7枚の撮影画像Ga0,Ga1,…,Ga6をモニタ40上に同時に表示すると、図4に示すように表示位置にズレが生じる。なお、撮影画像Ga0,Ga1,…,Ga6は撮影画像データA0,A1,…,A6に基づく画像であり、図4では、各撮影画像の重なりによって見難くなるのを避けるために、3枚の撮影画像Ga0,Ga1,Ga6のみを示した。なお、一点差線で示した矩形領域Gaは位置決め誤差=0とした場合の理想的な撮影画像を示したものである。
<Description of image correction>
Next, a method for correcting captured image data will be described. Since the correction method is the same for any of the photographed image data at the photographing points a, b, and c, correction for the photographed image data at the photographing point a will be described below. As described above, when the seven captured images Ga0, Ga1,..., Ga6 obtained for the photographing point a are simultaneously displayed on the monitor 40 due to the stage positioning error, the display position is shifted as shown in FIG. Occurs. Note that the photographed images Ga0, Ga1,..., Ga6 are images based on the photographed image data A0, A1,..., A6, and in FIG. Only the captured images Ga0, Ga1, and Ga6 are shown. A rectangular area Ga indicated by a one-point difference line shows an ideal photographed image when the positioning error = 0.

撮影の際には、撮影ポイントaが撮像領域の中央となるように電動ステージ30が駆動されるので、位置決め誤差がなければ、全ての撮影画像Ga0,Ga1,…,Ga6において撮影ポイントaが画像中央に撮影されるはずである。しかしながら、実際には位置決め誤差があるため、画像中央からずれた位置に撮影ポイントaが撮影されている。そのため、図4に示すように撮影ポイントaがモニタ40の中央となるように各撮影画像Ga0,Ga1,…,Ga6を表示すると、各撮影画像Ga0,Ga1,…,Ga6の中央はモニタ中央に対してずれることになる。   At the time of shooting, the electric stage 30 is driven so that the shooting point a is in the center of the imaging region. Therefore, if there is no positioning error, the shooting point a is an image in all the shot images Ga0, Ga1,. It should be taken in the center. However, since there is actually a positioning error, the shooting point a is shot at a position shifted from the center of the image. Therefore, as shown in FIG. 4, when the captured images Ga0, Ga1,..., Ga6 are displayed so that the shooting point a is at the center of the monitor 40, the centers of the captured images Ga0, Ga1,. It will deviate from.

図4に示した各撮影画像Ga0,Ga1,Ga6は互いにずれた画像となっているが、斜線を施した矩形領域Rはいずれの撮影画像Ga0,Ga1,Ga6にも含まれている。そこで、本実施の形態では、各撮影画像Ga0,Ga1,Ga6をこの矩形領域Rのみの画像へとトリミングし、トリミングされた補正後の画像Ga0’,Ga1’,Ga6’をモニタ40に再生表示するようにした。   The captured images Ga0, Ga1, and Ga6 shown in FIG. 4 are images that are shifted from each other, but the shaded rectangular region R is included in any of the captured images Ga0, Ga1, and Ga6. Therefore, in the present embodiment, the captured images Ga0, Ga1, and Ga6 are trimmed into images of only the rectangular region R, and the trimmed corrected images Ga0 ′, Ga1 ′, and Ga6 ′ are reproduced and displayed on the monitor 40. I tried to do it.

(撮影画像のずれの算出)
まず、トリミング補正を行うために必要な位置決め誤差の算出方法について説明する。撮影ポイント設定によってPC50の記憶部に記憶された撮影ポイントaのxy座標は、上述したようにそれぞれXa,Yaである。モニタ中央に対する各撮影画像Ga0,Ga1,…,Ga6の中央の位置ずれ量、すなわち撮像面上での位置ずれ量は、電動ステージ30の位置ずれ量に光学系の倍率Mを乗算したものになる。ステージ位置ずれ量は撮影ポイント設定時の座標と撮影時の座標との差であるから、撮像面上の位置ずれ量Δxai,Δyaiは次式(1),(2)のように表される。
Δxai=(Xai−Xa)×M …(1)
Δyai=(Yai−Ya)×M …(2)
(Calculation of misaligned images)
First, a method for calculating a positioning error necessary for performing trimming correction will be described. As described above, the xy coordinates of the shooting point a stored in the storage unit of the PC 50 by the shooting point setting are Xa and Ya, respectively. The misalignment amount at the center of each captured image Ga0, Ga1,..., Ga6 with respect to the center of the monitor, that is, the misalignment amount on the imaging surface, is obtained by multiplying the misalignment amount of the electric stage 30 by the magnification M of the optical system. . Since the stage position shift amount is the difference between the coordinates at the time of shooting point setting and the coordinates at the time of shooting, the position shift amounts Δxai and Δyai on the imaging surface are expressed by the following equations (1) and (2).
Δxai = (Xai−Xa) × M (1)
Δyai = (Yai−Ya) × M (2)

ここで、カメラ20に用いられているCCD撮像素子の画素サイズを一辺が寸法pの正方形として、上記位置ずれ量Δxai,ΔyaiをCCDの画素数に換算すると、換算値ΔPxai,ΔPyaiは次式(3),(4)で与えられる。
ΔPxai=Δxai/p=(Xai−Xa)×M/p …(3)
ΔPyai=Δyai/p=(Yai−Ya)×M/p …(4)
Here, when the pixel size of the CCD image sensor used in the camera 20 is a square having a dimension p on one side, and the above-described positional deviation amounts Δxai and Δyai are converted into the number of CCD pixels, the converted values ΔPxai and ΔPyai are expressed by the following formulas ( 3) and (4).
ΔPxai = Δxai / p = (Xai−Xa) × M / p (3)
ΔPyai = Δyai / p = (Yai−Ya) × M / p (4)

(補正処理)
次に、トリミングによる画像補正方法について説明する。以下では、矩形領域Ga,Rや撮影画像の大きさは、CCD撮像素子の画素数で表されているものとする。図4の矩形領域Rはトリミング後の画像の大きさを示しているが、この矩形領域Rは、矩形領域Gaの左辺側領域を画素数S1の幅だけトリミングし、上辺側領域を画素数S2の幅だけトリミングし、右辺側領域を画素数S3の幅だけトリミングし、下辺側領域を画素数S4の幅だけトリミングすると得られる。
(Correction process)
Next, an image correction method by trimming will be described. In the following, it is assumed that the rectangular areas Ga and R and the size of the captured image are represented by the number of pixels of the CCD image sensor. The rectangular area R in FIG. 4 shows the size of the image after trimming. In this rectangular area R, the left side area of the rectangular area Ga is trimmed by the width of the pixel number S1, and the upper side area is changed to the pixel number S2. Is obtained by trimming the right side region by the width of the pixel number S3 and trimming the lower side region by the width of the pixel number S4.

図4から分るように、矩形領域Rの左辺は最も右側にずれた撮影画像Ga6の左辺と一致している。同様に、矩形領域Rの上辺は最も下側にずれた撮影画像Ga1の上辺と一致し、矩形領域Rの右辺は最も左側にずれた撮影画像Ga0の右辺と一致し、矩形領域Rの下辺は最も上側にずれた撮影画像Ga6の下辺と一致している。そのため、トリミング幅S1,S2,S3,S4は、S1=ΔPxa6,S2=−ΔPya1,S3=−ΔPxa0,S4=ΔPya6で与えられる。よって、各撮影画像Gaiをトリミング補正する場合、撮影画像Gaiの各辺のトリミング幅S1i〜S4iを次式(5)〜(8)のように設定する(図4参照)。
左辺側:S1i=S1−ΔPxai …(5)
上辺側:S2i=S2+ΔPyai …(6)
右辺側:S3i=S3+ΔPxai …(7)
下辺側:S4i=S4−ΔPyai …(8)
As can be seen from FIG. 4, the left side of the rectangular region R coincides with the left side of the captured image Ga6 shifted to the rightmost side. Similarly, the upper side of the rectangular region R coincides with the upper side of the photographed image Ga1 shifted to the lowermost side, the right side of the rectangular region R coincides with the right side of the photographed image Ga0 displaced to the leftmost side, and the lower side of the rectangular region R This coincides with the lower side of the photographed image Ga6 shifted to the uppermost side. Therefore, the trimming widths S1, S2, S3, and S4 are given by S1 = ΔPxa6, S2 = −ΔPya1, S3 = −ΔPxa0, and S4 = ΔPya6. Therefore, when trimming correction is performed on each captured image Gai, trimming widths S1i to S4i of each side of the captured image Gai are set as in the following equations (5) to (8) (see FIG. 4).
Left side: S1i = S1-ΔPxai (5)
Upper side: S2i = S2 + ΔPyai (6)
Right side: S3i = S3 + ΔPxai (7)
Lower side: S4i = S4-ΔPyai (8)

図3で示した一連の撮影動作が終了して全ての撮影画像が取得されたならば、上述した撮像面上の位置ずれ量Δxai,Δyaiの算出および矩形領域Rの設定を行った後に、式(5)〜(8)で算出されるトリミング幅を用いて各撮影画像Gaiのトリミング補正を行う。補正後の撮影画像Gai’は、撮影画像Gaiと対応付けてPC50の記憶部に保存される。また、撮影画像Gaiを補正後撮影画像Gai’で書き換え保存しても良い。そして、モニタ40に撮影画像を連続的に再生表示する場合には、補正後撮影画像Gai’を順に表示する。なお、撮影ポイントb、cに関する撮影画像Gbi,Gciのトリミング補正処理も撮影画像Gaiの場合と全く同様なので、ここでは説明を省略する。   When the series of photographing operations shown in FIG. 3 is completed and all photographed images have been acquired, the calculation of the positional deviation amounts Δxai and Δyai on the imaging surface and the setting of the rectangular region R described above are performed. Trimming correction of each captured image Gai is performed using the trimming width calculated in (5) to (8). The corrected captured image Gai ′ is stored in the storage unit of the PC 50 in association with the captured image Gai. Alternatively, the captured image Gai may be rewritten and stored with the corrected captured image Gai ′. When the captured images are continuously reproduced and displayed on the monitor 40, the corrected captured images Gai 'are sequentially displayed. Note that the trimming correction processing of the captured images Gbi and Gci related to the captured points b and c is exactly the same as that of the captured image Gai, and thus description thereof is omitted here.

なお、上述した説明では、矩形領域Rと矩形領域Gaとを比較してトリミング幅S1〜S4を設定し、式(3)、(4)の位置ずれの換算値ΔPxai,ΔPyaiに基づいて各撮影画像のトリミングを行ったが、矩形領域Gaに代えて例えば撮影画像Ga0を用いても良い。この場合の位置ずれ量はΔxai,Δyaiは撮影画像Ga0の座標(Xa0、Ya0)を基準に考える。   In the above description, the trimming widths S1 to S4 are set by comparing the rectangular area R and the rectangular area Ga, and each photographing is performed based on the converted values ΔPxai and ΔPyai of the positional deviations of the expressions (3) and (4). Although the image is trimmed, for example, a captured image Ga0 may be used instead of the rectangular area Ga. In this case, the positional shift amounts are considered based on the coordinates (Xa0, Ya0) of the captured image Ga0 for Δxai and Δyai.

[変形例]
上述した実施の形態では、全ての撮影画像Gai,Gbi,Gciを取得した後にトリミング幅を設定し、そのトリミング幅を用いて撮影画像Gai,Gbi,Gciをトリミング補正した。しかし、検出されたステージ位置をフィードバックして電動ステージ30の位置決めを行うクローズドループ制御の場合には、最初にトリミング幅を設定し、そのトリミング幅が可能な誤差範囲で電動ステージ30を位置決めするようにしても良い。
[Modification]
In the above-described embodiment, the trimming width is set after all the captured images Gai, Gbi, and Gci are acquired, and the captured images Gai, Gbi, and Gci are corrected for trimming using the trimming width. However, in the closed loop control in which the electric stage 30 is positioned by feeding back the detected stage position, the trimming width is set first, and the electric stage 30 is positioned within an error range in which the trimming width is possible. Anyway.

まず、図5に示すようにトリミング幅Sを設定する。図5において、撮影ポイントaのxy座標は、モニタ40上で撮影ポイントaを設定した際に読み込まれた座標Xa,Yaである。また、矩形領域Gaは座標Xa,Yaを中心として設定された撮影領域を示し、矩形領域Rはトリミング補正後の撮影画像領域を示している。電動ステージ30は、座標Xa,Yaを目標位置としたフィードバック制御により位置決めされる。   First, a trimming width S is set as shown in FIG. In FIG. 5, the xy coordinates of the shooting point a are coordinates Xa and Ya read when the shooting point a is set on the monitor 40. A rectangular area Ga indicates a shooting area set around the coordinates Xa and Ya, and a rectangular area R indicates a shooting image area after trimming correction. The electric stage 30 is positioned by feedback control with the coordinates Xa and Ya as target positions.

ここでは、矩形領域Gaの上下左右いずれのトリミング幅もSとした場合について説明する。このようにトリミング幅Sを設定した場合の位置決め許容範囲について説明する。図5の撮影画像Ga1は、目標位置(Xa,Ya)に対して位置決め誤差が大きすぎる場合を示したものである。この場合、矩形領域Rの左側において、領域の一部が撮影画像Ga1の外側に外れている。   Here, a case where the trimming width of the upper, lower, left and right sides of the rectangular area Ga is S will be described. The positioning allowable range when the trimming width S is set in this way will be described. The captured image Ga1 of FIG. 5 shows a case where the positioning error is too large with respect to the target position (Xa, Ya). In this case, on the left side of the rectangular region R, a part of the region is outside the captured image Ga1.

すなわち、撮影画像Ga1の場合には、矩形領域Rの左辺付近の画像データが無いため、撮影画像Ga1を矩形領域Rの大きさにトリミングすることができない。逆に、矩形領域Rに対して撮影画像Ga1が左側に大きくずれてしまった場合も、同様にトリミングが不可能となる。よって、撮像面上における左右方向の位置決め誤差ΔPxaiが|ΔPxai|≦Sとなるように、電動ステージ30を位置決め制御する必要がある。上下方向についても同様に考えると、撮像面上における上下両方向の位置決め誤差ΔPyaiは|ΔPyai|≦Sとする必要がある。   That is, in the case of the photographed image Ga1, since there is no image data near the left side of the rectangular area R, the photographed image Ga1 cannot be trimmed to the size of the rectangular area R. On the contrary, when the captured image Ga1 is greatly shifted to the left with respect to the rectangular area R, trimming is similarly impossible. Therefore, it is necessary to control the positioning of the electric stage 30 so that the horizontal positioning error ΔPxai on the imaging surface satisfies | ΔPxai | ≦ S. Considering the same for the vertical direction, the positioning error ΔPyai in both the vertical direction on the imaging surface must be | ΔPyai | ≦ S.

式(3),(4)を用いて、撮像面上における位置決め誤差を電動ステージ30の位置決め誤差に直すと、次式(9),(10)のようになる。そして、ステージ座標X,Yが式(9),(10)の条件が満たされるようにクローズドループ制御し、条件が満たされた時点で電動ステージ30を停止する。この場合、クローズドループ制御時にハンチングが発生しない程度の大きさにトリミング幅Sを設定することにより、ハンチングの発生を防止し、かつ、トリミング幅Sを小さくすることができる。
|X−Xa|≦(S・p/M) …(9)
|Y−Ya|≦(S・p/M) …(10)
When the positioning error on the imaging surface is converted into the positioning error of the electric stage 30 using the equations (3) and (4), the following equations (9) and (10) are obtained. Then, the closed loop control is performed so that the stage coordinates X and Y satisfy the conditions of Expressions (9) and (10), and the electric stage 30 is stopped when the conditions are satisfied. In this case, by setting the trimming width S to a size that does not cause hunting during closed loop control, the occurrence of hunting can be prevented and the trimming width S can be reduced.
| X−Xa | ≦ (S · p / M) (9)
| Y−Ya | ≦ (S · p / M) (10)

このように、本発明では、取得された撮影画像をトリミング補正することにより、撮影画像におけるステージ位置決め誤差の影響を除去することができ、連続再生したときに像ブレの無い自然な映像を表示することができる。また、撮影画像をソフト的に補正する方法を採用しているので、従来の顕微鏡システムにのハード的構成に変更を加えることなく容易に適用することができる。   As described above, in the present invention, by correcting the trimming of the acquired captured image, the influence of the stage positioning error in the captured image can be removed, and a natural image without image blur is displayed when continuously reproduced. be able to. In addition, since a method of correcting a photographed image in software is adopted, it can be easily applied without changing the hardware configuration of a conventional microscope system.

なお、上述した実施の形態では、顕微鏡システムとして顕微鏡10、カメラ20、電動ステージ30をそれぞれ独立した製品としてPC本体50に接続したかたちで説明したが、本発明はこれに限定されるものではない。例えば、顕微鏡、カメラおよび電動ステージを一体化したかたちの顕微鏡システムでも実現可能である。また、倒立型の顕微鏡10を用いた顕微鏡システムを例に説明したが、本発明は、正立型の顕微鏡を用いた顕微鏡システムにも同様に適用することができる。   In the above-described embodiment, the microscope 10, the camera 20, and the electric stage 30 as the microscope system have been described as being connected to the PC main body 50 as independent products, but the present invention is not limited to this. . For example, it can be realized with a microscope system in which a microscope, a camera, and an electric stage are integrated. Further, although a microscope system using the inverted microscope 10 has been described as an example, the present invention can be similarly applied to a microscope system using an upright microscope.

以上説明した実施の形態と特許請求の範囲の要素との対応において、カメラ20は撮像装置を、矩形領域Rは同一観察領域を、PC50は補正手段を、電動ステージ30はステージを、PC50およびステージコントローラ31は制御手段を、電動ステージ30に設けられたリニアエンコーダは位置検出手段をそれぞれ構成する。なお、以上の説明はあくまでも一例であり、発明を解釈する際、上記実施の形態の記載事項と特許請求の範囲の記載事項の対応関係に何ら限定も拘束もされない。   In the correspondence between the embodiment described above and the elements of the claims, the camera 20 is an imaging device, the rectangular region R is the same observation region, the PC 50 is a correction means, the electric stage 30 is a stage, the PC 50 and the stage. The controller 31 constitutes control means, and the linear encoder provided on the electric stage 30 constitutes position detection means. The above description is merely an example, and when interpreting the invention, there is no limitation or restriction on the correspondence between the items described in the above embodiment and the items described in the claims.

本発明による顕微鏡システムの一実施の形態を示す図であり、装置構成の概略を示したものである。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows one Embodiment of the microscope system by this invention, and shows the outline of an apparatus structure. 表示モニタ40上に表示された撮影ポイントa,b,cを説明する図であり、(A)はマクロ画像とミクロ画像との関係を示す概念図、(B)はモニタ40の表示内容を示す。It is a figure explaining the imaging | photography point a, b, c displayed on the display monitor 40, (A) is a conceptual diagram which shows the relationship between a macro image and a micro image, (B) shows the display content of the monitor 40. . タイムラプス設定と撮影の手順を示すフローチャートである。It is a flowchart which shows the procedure of a time lapse setting and imaging | photography. 表示モニタ40上に表示された撮影画像Ga0,Ga1,Ga6を示す図である。It is a figure which shows the picked-up image Ga0, Ga1, and Ga6 displayed on the display monitor 40. FIG. 変形例におけるトリミング幅Sの設定を説明する図である。It is a figure explaining the setting of the trimming width S in a modification.

符号の説明Explanation of symbols

10 顕微鏡
12 対物レンズ
13 シャーレ
20 カメラ
31 ステージコントローラ
40 モニタ
50 PC
a,b,c 撮影ポイント
Ga,R 矩形領域
DESCRIPTION OF SYMBOLS 10 Microscope 12 Objective lens 13 Petri dish 20 Camera 31 Stage controller 40 Monitor 50 PC
a, b, c Shooting points
Ga, R rectangular area

Claims (4)

観察対象上に設定された複数の観察箇所を対物光学系の光軸上に順に移動して、前記観察箇所毎に、前記観察対象の観察像を撮像装置により経時的に複数回撮影する顕微鏡システムにおいて、
前記観察対象が載置されたステージと前記対物光学系とを相対的に前記光軸に垂直な方向に2次元的に駆動する駆動手段と、
前記ステージと前記対物光学系との一方向または両方の位置を検出する位置検出手段と、
前記位置検出手段により検出された位置情報に基づいて、前記観察箇所に関して経時的に撮影された複数の撮影画像を、該観察箇所を含む同一観察領域の画像となるようにそれぞれトリミング補正する補正手段とを備えたことを特徴とする顕微鏡システム。
A microscope system that sequentially moves a plurality of observation spots set on the observation target on the optical axis of the objective optical system, and images the observation image of the observation target multiple times over time by the imaging device for each observation spot. In
Driving means for two-dimensionally driving the stage on which the observation object is placed and the objective optical system in a direction perpendicular to the optical axis;
Position detecting means for detecting a position in one direction or both of the stage and the objective optical system;
Based on the position information detected by the position detection means, a correction means for correcting trimming of a plurality of photographed images taken over time with respect to the observation location so as to be images of the same observation area including the observation location. And a microscope system.
請求項1に記載の顕微鏡システムにおいて、
前記複数の撮影画像の全てに含まれる共通の撮影領域を、前記同一観察領域に設定することを特徴とする顕微鏡システム。
The microscope system according to claim 1, wherein
A microscope system, wherein a common imaging region included in all of the plurality of captured images is set in the same observation region.
請求項1または2に記載の顕微鏡システムにおいて、
前記位置検出手段により検出された位置情報が予め定めた位置決め範囲内となったならば、前記駆動手段による前記ステージまたは前記対物光学系の駆動を停止させる制御手段を備えたことを特徴とする顕微鏡システム。
The microscope system according to claim 1 or 2,
A microscope comprising control means for stopping the driving of the stage or the objective optical system by the driving means when the position information detected by the position detecting means falls within a predetermined positioning range. system.
請求項3に記載の顕微鏡システムにおいて、
前記補正手段は、前記トリミング補正のためのトリミング量を前記位置決め範囲の大きさに応じて設定することを特徴とする顕微鏡システム。
The microscope system according to claim 3,
The microscope system according to claim 1, wherein the correction unit sets a trimming amount for the trimming correction in accordance with a size of the positioning range.
JP2005062173A 2005-03-07 2005-03-07 Microscope system Expired - Fee Related JP4765340B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005062173A JP4765340B2 (en) 2005-03-07 2005-03-07 Microscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005062173A JP4765340B2 (en) 2005-03-07 2005-03-07 Microscope system

Publications (2)

Publication Number Publication Date
JP2006243608A true JP2006243608A (en) 2006-09-14
JP4765340B2 JP4765340B2 (en) 2011-09-07

Family

ID=37050046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005062173A Expired - Fee Related JP4765340B2 (en) 2005-03-07 2005-03-07 Microscope system

Country Status (1)

Country Link
JP (1) JP4765340B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008185922A (en) * 2007-01-31 2008-08-14 Nikon Corp Microscope
JPWO2010117052A1 (en) * 2009-04-10 2012-10-18 株式会社ニコン Biological sample observation device
JP2013250531A (en) * 2012-06-04 2013-12-12 Olympus Corp Microscope system and method for controlling the same

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1031165A (en) * 1996-07-16 1998-02-03 Olympus Optical Co Ltd Image input device and scanning type microscope device
JPH11326778A (en) * 1998-03-19 1999-11-26 Olympus Optical Co Ltd Microscopic image observation device
JP2000050237A (en) * 1998-07-29 2000-02-18 Matsushita Electric Ind Co Ltd Video monitor system and video monitor method
JP2002039960A (en) * 2000-07-27 2002-02-06 Hitachi Ltd Method for inspecting pattern defect and apparatus therefor
JP2002277754A (en) * 2001-03-22 2002-09-25 Olympus Optical Co Ltd Photomicrographing device
JP2002344722A (en) * 2001-05-17 2002-11-29 Fuji Photo Film Co Ltd Imaging device, image processing apparatus, image processing method, and program
JP2003029163A (en) * 2001-07-16 2003-01-29 Nikon Corp Microscope system
JP2004120638A (en) * 2002-09-27 2004-04-15 Canon Inc Image processing method, image processing device, and printing device
JP2005010258A (en) * 2003-06-17 2005-01-13 Nikon Corp Microscope apparatus
JP2005164707A (en) * 2003-11-28 2005-06-23 Effector Cell Institute Inc Cell measurement support system and cell observation apparatus

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1031165A (en) * 1996-07-16 1998-02-03 Olympus Optical Co Ltd Image input device and scanning type microscope device
JPH11326778A (en) * 1998-03-19 1999-11-26 Olympus Optical Co Ltd Microscopic image observation device
JP2000050237A (en) * 1998-07-29 2000-02-18 Matsushita Electric Ind Co Ltd Video monitor system and video monitor method
JP2002039960A (en) * 2000-07-27 2002-02-06 Hitachi Ltd Method for inspecting pattern defect and apparatus therefor
JP2002277754A (en) * 2001-03-22 2002-09-25 Olympus Optical Co Ltd Photomicrographing device
JP2002344722A (en) * 2001-05-17 2002-11-29 Fuji Photo Film Co Ltd Imaging device, image processing apparatus, image processing method, and program
JP2003029163A (en) * 2001-07-16 2003-01-29 Nikon Corp Microscope system
JP2004120638A (en) * 2002-09-27 2004-04-15 Canon Inc Image processing method, image processing device, and printing device
JP2005010258A (en) * 2003-06-17 2005-01-13 Nikon Corp Microscope apparatus
JP2005164707A (en) * 2003-11-28 2005-06-23 Effector Cell Institute Inc Cell measurement support system and cell observation apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008185922A (en) * 2007-01-31 2008-08-14 Nikon Corp Microscope
JPWO2010117052A1 (en) * 2009-04-10 2012-10-18 株式会社ニコン Biological sample observation device
JP5365691B2 (en) * 2009-04-10 2013-12-11 株式会社ニコン Biological sample observation device
JP2013250531A (en) * 2012-06-04 2013-12-12 Olympus Corp Microscope system and method for controlling the same

Also Published As

Publication number Publication date
JP4765340B2 (en) 2011-09-07

Similar Documents

Publication Publication Date Title
US7630628B2 (en) Microscope system and microscope observation method
JP4970869B2 (en) Observation apparatus and observation method
JP5209103B2 (en) Microscope image capturing device
JP2011186305A (en) Virtual-slide creating device
JP4917329B2 (en) Image acquisition apparatus, image acquisition method, and image acquisition program
WO2018012130A1 (en) Image processing method, image processing device, imaging device, and imaging method
EP1830217A1 (en) Image acquiring apparatus, image acquiring method, and image acquiring program
CN102023167A (en) Method and appratus for image generation
CN109642785B (en) Method and device for detecting positional displacement of sample container, and imaging method
JP5562653B2 (en) Virtual slide creation apparatus and virtual slide creation method
JP4765340B2 (en) Microscope system
JP5668227B2 (en) Image measuring device
US10656406B2 (en) Image processing device, imaging device, microscope system, image processing method, and computer-readable recording medium
JP2006284965A (en) Microscope device and enlarged image generating method
JP5129509B2 (en) Transmission electron microscope and imaging method
JP2012163767A (en) Control program, control program recorded medium, and microscope system
CN100401014C (en) Wire width measuring device
JP2018019319A (en) Image processing method, image processing device, and imaging device
JP4670194B2 (en) Microscope system
JP5730696B2 (en) Image processing apparatus and image display system
JP2007025830A (en) Method and device for recognizing three-dimensional object
US20100303208A1 (en) Method for recording an x-ray image, x-ray detector and x-ray system
JPH0549467A (en) Apparatus for observing cultured cell
JP2005181250A (en) Method and device for inspecting liquid crystal display panel
JP6353872B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110530

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4765340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees