JP2010079221A - Living body observation apparatus - Google Patents

Living body observation apparatus Download PDF

Info

Publication number
JP2010079221A
JP2010079221A JP2008250713A JP2008250713A JP2010079221A JP 2010079221 A JP2010079221 A JP 2010079221A JP 2008250713 A JP2008250713 A JP 2008250713A JP 2008250713 A JP2008250713 A JP 2008250713A JP 2010079221 A JP2010079221 A JP 2010079221A
Authority
JP
Japan
Prior art keywords
image
objective lens
living body
observation
observation apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008250713A
Other languages
Japanese (ja)
Inventor
Hiroshi Wakai
浩志 若井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008250713A priority Critical patent/JP2010079221A/en
Publication of JP2010079221A publication Critical patent/JP2010079221A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a living body observation apparatus having improved detection accuracy. <P>SOLUTION: The living body observation device includes: an objective lens disposed in close contact with a specimen; an image pickup device that captures an image of the specimen; an image processing section that sets a search area in the image captured by the image pickup device and processes the image in the search area; and an objective lens drive device that drives the objective lens in the direction of correcting the displacement of the specimen, based on a signal from the image processing section. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、生体観察装置に関する。   The present invention relates to a living body observation apparatus.

近年、生物学の研究において、標本として実験動物の一個体を用い、生きたままその臓器等を光学顕微鏡により観察するいわゆるインビボ観察が行われるようになっている。インビボ観察においては、観察対象が拍動、呼吸動などの動きを有するために観察位置のズレや焦点のボケが生じやすい。このような観察位置のズレや焦点ボケを解消する方法としては、撮像手段を備えた顕微鏡全体を観察対象の動きに合わせて追従させる装置(例えば、特許文献1)、或いは、観察対象の動きに合わせて対物レンズを追従させる装置(例えば特許文献2)などが知られている。特許文献2では、観察対象の動きを検出するために、観察用のカメラとは別に検出用カメラを備えている。
特開平7−222754号公報 特開2007−187810号公報
In recent years, in biological research, so-called in vivo observation has been performed in which an individual experimental animal is used as a specimen and its organs and the like are observed with an optical microscope while alive. In in-vivo observation, the observation object has movements such as pulsation and respiratory movement, so that the observation position is shifted and the focus is likely to be blurred. As a method for eliminating such observation position deviation and out-of-focus blur, an apparatus (for example, Patent Document 1) that tracks the entire microscope including an imaging unit in accordance with the movement of the observation target, or the movement of the observation target. An apparatus (for example, Patent Document 2) that causes an objective lens to follow is also known. In Patent Document 2, a detection camera is provided separately from the observation camera in order to detect the movement of the observation target.
JP-A-7-222754 JP 2007-187810 A

通常、生体の変位を検出するための検出用カメラはフレームレートが速い(約1000fps)。そのため、画像処理時間がフレームレート間隔を越えてしまうこともあり得る。また、画像処理時間が長いと、実際の生体の変位に対しての検出遅れ時間が発生し、追従制御の精度が低下するという問題がある。さらに、画像処理時間が長いと、ビジュアルサーボ系としてのむだ時間が大きくなるため、追従制御系の安定性に影響を及ぼし、制御ゲインをあまり高くできないために、高精度な追従制御ができないという問題があった。   Usually, a detection camera for detecting a displacement of a living body has a high frame rate (about 1000 fps). Therefore, the image processing time may exceed the frame rate interval. In addition, if the image processing time is long, a detection delay time with respect to the actual displacement of the living body occurs, and there is a problem that the accuracy of the follow-up control is lowered. Furthermore, if the image processing time is long, the dead time for the visual servo system will increase, which will affect the stability of the tracking control system and the control gain cannot be increased so high that accurate tracking control cannot be performed. was there.

本発明は、上記問題に鑑みてなされたものであり、生体を生きたまま観察する生体観察装置において、生体の動きを検出するための画像処理時間を短縮させることにより、従来よりも高精度な追従制御を可能とし、これによって検出精度が改善された生体観察装置を提供することを目的とする。   The present invention has been made in view of the above problems, and in a living body observation apparatus for observing a living body alive, by reducing the image processing time for detecting the movement of the living body, the present invention is more accurate than before. It is an object of the present invention to provide a living body observation apparatus that can perform follow-up control and thereby improve detection accuracy.

上記目的を達成するために、本発明は以下の手段を提供する。
本発明は、試料に近接配置される対物レンズと、前記対物レンズを介して試料を撮像する撮像装置と、前記撮像装置によって撮像された画像中で探索領域を設定し、該探索領域内の画像を処理する画像処理部と、前記画像処理部からの信号に基づいて、前記試料の変位を補正する方向に前記対物レンズを駆動する対物レンズ駆動装置とを備える生体観察装置を提供する。
In order to achieve the above object, the present invention provides the following means.
The present invention provides an objective lens that is arranged close to a sample, an imaging device that images the sample via the objective lens, a search region set in an image captured by the imaging device, and an image in the search region And an objective lens driving device that drives the objective lens in a direction to correct the displacement of the sample based on a signal from the image processing unit.

本発明によれば、動的な挙動を示すために観察位置にズレを生じるような試料に対して、撮像装置により試料を撮像し、得られた画像から変位を検出し、検出結果に基づいて対物レンズ駆動装置を作動させて、像ズレを補正する方向に対物レンズが駆動される。   According to the present invention, the sample is imaged by the imaging device with respect to the sample that causes the observation position to shift to show the dynamic behavior, the displacement is detected from the obtained image, and based on the detection result. By operating the objective lens driving device, the objective lens is driven in a direction to correct the image shift.

生体の変位は、主に呼吸や拍動、脈動によるものであり、時系列的に見ると、図2に示すような規則性のある振動として検出される。本発明ではこの生体特有の動き、即ち、一定方向の振動に着目し、この性質を利用して探索領域を設定する。   The displacement of the living body is mainly due to respiration, pulsation, and pulsation, and is detected as a regular vibration as shown in FIG. In the present invention, attention is paid to the movement unique to the living body, that is, vibration in a certain direction, and the search area is set using this property.

具体的には、撮像装置によって取得された画像中で探索領域を設定し、該探索領域内の画像のみを処理し、生体の変位を検出する。このように処理する画像領域を限定することによって、画像処理時間が短縮され、実際の生体振動に対しての検出の遅れ時間を短くすることができ、追従制御の精度を向上させることができる。   Specifically, a search area is set in the image acquired by the imaging device, only the image in the search area is processed, and the displacement of the living body is detected. By limiting the image area to be processed in this way, the image processing time can be shortened, the detection delay time with respect to the actual biological vibration can be shortened, and the accuracy of the follow-up control can be improved.

上記発明においては、所定の領域のみを撮像するように前記撮像装置を制御する制御装置をさらに備えることができる。
このような構成にすることにより、撮像する領域が限定され、撮像された画像を上記画像処理部に転送する時間をも短縮することができる。
In the above-mentioned invention, it can further be provided with a control device which controls the above-mentioned imaging device so that only a predetermined field is imaged.
With such a configuration, the area to be captured is limited, and the time for transferring the captured image to the image processing unit can also be shortened.

また上記発明においては、前記撮像装置として、試料の変位を検出し、且つ、前記画像処理部によって探索領域が設定される画像を撮像するための検出用撮像装置、及び、観察用撮像装置を用いることができる。
検出用と観察用の二つの撮像装置を用いることにより、観察用の画像とは別に生体変位を検出するための画像を取得することができる。このため、観察用画像の取得を考慮することなく検出用撮像装置において撮像領域を設定することが可能である。
In the above invention, as the imaging device, a detection imaging device and an observation imaging device for detecting a displacement of a sample and capturing an image in which a search region is set by the image processing unit are used. be able to.
By using the two imaging devices for detection and observation, an image for detecting a biological displacement can be acquired separately from the image for observation. For this reason, it is possible to set the imaging region in the imaging device for detection without considering the acquisition of the observation image.

また、上記発明においては、前記探索領域が、連続する画像フレーム間における変位の差分の最大値を超える長さを一辺とする矩形領域であってよい。このようにすることで、探索領域を極めて限定することができ、画像処理領域を著しく減少することができる。   Moreover, in the said invention, the said search area | region may be a rectangular area | region which makes one side the length exceeding the maximum value of the difference of the displacement between continuous image frames. By doing so, the search area can be extremely limited, and the image processing area can be significantly reduced.

また、上記発明においては、前記探索領域の設定が、前記対物レンズ駆動装置の駆動を開始する前後に行われる。このようにすることで、駆動装置の駆動後、即ち追従制御の開始後にも探索領域が設定され、探索領域をさらにより減少することができる。   Moreover, in the said invention, the setting of the said search area is performed before and after the drive of the said objective lens drive device is started. By doing in this way, a search area | region is set after the drive of a drive device, ie, after the start of follow-up control, and a search area | region can be reduced further.

また、上記生体観察装置は、生体観察用の顕微鏡であってよく、或いは内視鏡やその他の観察装置であってもよい。   Further, the living body observation apparatus may be a living body observation microscope, or may be an endoscope or other observation apparatus.

上記生体観察装置において観察される試料は、生体中の細胞、組織又は内臓であってよく、生体の動的挙動が補正されることによって、生きたままの試料中の極微細な対象を観察することが可能である。   The sample observed in the living body observation apparatus may be a cell, tissue, or internal organ in the living body, and the minute behavior in the living sample is observed by correcting the dynamic behavior of the living body. It is possible.

本発明によれば、振動を検出するための画像処理領域を限定することにより、画像処理時間を短縮させることができ、追従制御の精度を改善することができる。これにより、高精度な検出が可能な生体観察装置を提供することができる。   According to the present invention, by limiting the image processing area for detecting vibration, the image processing time can be shortened, and the accuracy of the follow-up control can be improved. Thereby, a living body observation apparatus capable of highly accurate detection can be provided.

本発明の生体観察装置は、顕微鏡観察装置として好適に用いられるが、これに限定されず、例えば内視鏡観察装置やその他の適切な装置として用いられることもできる。以下、説明の便宜のため、検出用撮像装置と観察用撮像装置の二つの撮像装置を具備する顕微鏡観察装置を例として詳細に説明する。   The biological observation apparatus of the present invention is suitably used as a microscope observation apparatus, but is not limited to this, and can be used as, for example, an endoscope observation apparatus or other appropriate apparatus. Hereinafter, for convenience of explanation, a microscope observation apparatus including two imaging apparatuses, that is, a detection imaging apparatus and an observation imaging apparatus will be described in detail as an example.

本発明の第1の実施形態に係る顕微鏡観察装置1について、図1を参照して説明する。   A microscope observation apparatus 1 according to a first embodiment of the present invention will be described with reference to FIG.

本実施形態に係る顕微鏡観察装置1は、図1に示されるように、試料Sを搭載するステージ2と、励起光Eを出射する励起光源3と、該励起光源3からの励起光Eを導く照明レンズ(照明光学系)4と、該照明レンズ4により導かれた励起光Eを試料Sに導く一方、試料Sにおいて発生した蛍光Fをコリメートする対物レンズ5と、該対物レンズ5によりコリメートされた蛍光Fを励起光Eから分岐するダイクロイックミラー6と、分岐された蛍光Fをさらに分岐するビームスプリッタ7と、分岐された蛍光Fを検出する2つのCCDのような撮像装置、即ち、観察用撮像装置8及び検出用撮像装置9とを備えている。図中符号20は結像レンズである。   As shown in FIG. 1, the microscope observation apparatus 1 according to the present embodiment guides the excitation light E from the stage 2 on which the sample S is mounted, the excitation light source 3 that emits the excitation light E, and the excitation light source 3. The illumination lens (illumination optical system) 4 and the excitation light E guided by the illumination lens 4 are guided to the sample S, while the objective lens 5 that collimates the fluorescence F generated in the sample S is collimated by the objective lens 5 A dichroic mirror 6 for branching the fluorescent light F from the excitation light E, a beam splitter 7 for further branching the branched fluorescent light F, and an imaging device such as two CCDs for detecting the branched fluorescent light F, that is, for observation An imaging device 8 and a detection imaging device 9 are provided. Reference numeral 20 in the figure denotes an imaging lens.

前記励起光源3、照明レンズ4、ダイクロイックミラー6、ビームスプリッタ7および2つの撮像装置8,9は、顕微鏡本体10に備えられている。一方、前記対物レンズ5は、顕微鏡本体10から切り離され、対物レンズ駆動装置11により支持されている。   The excitation light source 3, the illumination lens 4, the dichroic mirror 6, the beam splitter 7, and the two imaging devices 8 and 9 are provided in the microscope body 10. On the other hand, the objective lens 5 is separated from the microscope body 10 and supported by the objective lens driving device 11.

対物レンズ駆動装置11は、前記対物レンズ5をステージ2と顕微鏡本体10との間に配置するアーム12と、該アーム12により保持された対物レンズ5を鉛直方向に移動させる第1の駆動機構13と、前記対物レンズ5を水平2方向に移動させる第2、第3の駆動機構14,15と、前記対物レンズ5を該対物レンズ5の光軸に直交する2方向に沿う軸線回りに揺動させる第4、第5の駆動機構16,17とを備えている。第1〜第3の駆動機構13〜15は、例えば、モータ13a〜15aと、該モータ13a〜15aに接続された図示しないボールネジ等の直線移動機構とを備えている。第4、第5の駆動機構16,17は、例えば、モータ16a,17aと、該モータ16a,17aに接続された減速機構16b,17bとを備えている。   The objective lens driving device 11 includes an arm 12 that arranges the objective lens 5 between the stage 2 and the microscope main body 10, and a first drive mechanism 13 that moves the objective lens 5 held by the arm 12 in the vertical direction. And second and third drive mechanisms 14 and 15 for moving the objective lens 5 in two horizontal directions, and swinging the objective lens 5 about an axis along two directions orthogonal to the optical axis of the objective lens 5. The fourth and fifth drive mechanisms 16 and 17 are provided. The first to third drive mechanisms 13 to 15 include, for example, motors 13a to 15a and a linear movement mechanism such as a ball screw (not shown) connected to the motors 13a to 15a. The fourth and fifth drive mechanisms 16 and 17 include, for example, motors 16a and 17a and speed reduction mechanisms 16b and 17b connected to the motors 16a and 17a.

前記撮像装置9には、該撮像装置9により取得された画像において探索領域を設定し、該探索領域内の画像を処理して試料Sの変位量とその方向を算出する画像処理部21と、該画像処理部21からの情報を元に前記対物レンズ駆動装置11の各駆動機構13〜17に対し、試料Sの変位による対物レンズ5の光軸のズレを補正する方向に対物レンズ5を駆動する駆動指令を出力する駆動制御装置18が接続されている。また、対物レンズ駆動装置には、対物レンズの位置を検出するエンコーダが備えられている。   In the imaging device 9, an image processing unit 21 that sets a search region in an image acquired by the imaging device 9 and processes an image in the search region to calculate a displacement amount and a direction of the sample S; Based on the information from the image processing unit 21, the objective lens 5 is driven in a direction to correct the deviation of the optical axis of the objective lens 5 due to the displacement of the sample S with respect to the driving mechanisms 13 to 17 of the objective lens driving device 11. A drive control device 18 for outputting a drive command is connected. Further, the objective lens driving device is provided with an encoder for detecting the position of the objective lens.

このように構成された本実施形態に係る顕微鏡観察装置1においては、図3に示されるように、対物レンズ駆動装置11の作動により、対物レンズ5が、光軸に沿うZ軸方向、光軸に直交するX軸,Y軸方向および、X軸およびY軸回りのA,B方向にそれぞれ移動できるようになっている。   In the microscope observation apparatus 1 according to the present embodiment configured as described above, the objective lens 5 is moved in the Z-axis direction along the optical axis by the operation of the objective lens driving device 11, as shown in FIG. Can be moved in the X-axis and Y-axis directions orthogonal to each other, and in the A and B directions around the X-axis and Y-axis.

このように構成された本実施形態に係る顕微鏡観察装置1の作用について、図4〜図22を参照して説明する。
本実施形態に係る顕微鏡観察装置1においては、観察用撮像装置8により試料の観察用の画像が撮像される。一方、検出用撮像装置9により、試料の変位を検出するための画像が撮像される。検出用撮像装置9により撮像されて取得された画像情報は、画像処理部21に送られ、探索領域が設定され、該領域内において画像が処理されて試料Sの変位量とその方向が算出される。この結果は駆動制御装置18に送られ、駆動制御装置18において対物レンズ駆動装置11の各駆動機構13〜17に送られる指令信号が演算され、該指令信号に基づいて各駆動機構13〜17が駆動させられる。
The operation of the microscope observation apparatus 1 according to the present embodiment configured as described above will be described with reference to FIGS.
In the microscope observation apparatus 1 according to the present embodiment, an observation image of the sample is captured by the observation imaging apparatus 8. On the other hand, the detection imaging device 9 captures an image for detecting the displacement of the sample. Image information captured and acquired by the imaging device 9 for detection is sent to the image processing unit 21, a search area is set, and the image is processed in the area to calculate the displacement amount and direction of the sample S. The The result is sent to the drive control device 18, and command signals sent to the drive mechanisms 13 to 17 of the objective lens drive device 11 are calculated in the drive control device 18, and the drive mechanisms 13 to 17 are operated based on the command signals. Driven.

ここで、画像処理部21における探索領域の設定について説明する。検出用撮像装置9には高速度カメラを用いる、例えば1000 fpsで観察領域内を水平256画素×垂直256画素で撮影する高速度カメラを用いることができる。一般的に、高速度カメラは露光時間が短く感度が低いため、生体そのものを観察可能な明るさで撮影することが困難である。従って、生体の表面にマーカーを載せ、このマーカーの動きを検出用撮像装置9により検知することで、生体の振動を検出するようにする。   Here, the setting of the search area in the image processing unit 21 will be described. For the detection imaging device 9, a high-speed camera can be used, for example, a high-speed camera that takes an image of the observation area at horizontal 256 pixels × vertical 256 pixels at 1000 fps. In general, since a high-speed camera has a short exposure time and low sensitivity, it is difficult to photograph with a brightness that allows observation of the living body itself. Therefore, a marker is placed on the surface of the living body, and the movement of the marker is detected by the detection image pickup device 9, thereby detecting the vibration of the living body.

本実施形態では、図4に示すようにマーカーとして蛍光ビーズを用いる。蛍光ビーズは、図5に示すように、検出用撮像装置9により撮影された領域において、複数画素分以上の幅を持って撮影される程度の大きさのものを使用することで、以下に説明する重心位置の演算精度を向上させることができる。   In this embodiment, fluorescent beads are used as markers as shown in FIG. As shown in FIG. 5, a fluorescent bead having a size that is photographed with a width of a plurality of pixels or more in an area photographed by the detection imaging device 9 will be described below. The calculation accuracy of the center of gravity position to be improved can be improved.

蛍光ビーズを用いた生体振動の検出について、図6のフローチャートを使用して説明する。まず、検出用撮像装置9により撮影し(S101)、2次元の画像情報を画像処理部21内のメモリ22に格納し(S102)、この画像情報における輝度を表すデータから、蛍光ビーズの位置を演算する。これはまず、蛍光ビーズ以外(例えば、臓器や単純な画像ノイズ)を検出しないような所定の値以上の輝度値を有する画素の塊(ラベリング領域)を検出し(S103)、その画素の塊に対して重心位置を求める(S104)。そして、この重心位置の演算結果を時系列情報としてメモリ21に格納する(S105)。   Detection of biological vibration using fluorescent beads will be described with reference to the flowchart of FIG. First, an image is picked up by the detection image pickup device 9 (S101), two-dimensional image information is stored in the memory 22 in the image processing unit 21 (S102), and the position of the fluorescent beads is determined from the data representing the luminance in the image information. Calculate. First, a pixel block (labeling region) having a luminance value higher than a predetermined value that does not detect other than fluorescent beads (for example, organs or simple image noise) is detected (S103). On the other hand, the position of the center of gravity is obtained (S104). Then, the calculation result of the center of gravity is stored in the memory 21 as time series information (S105).

以上の動作を検出用撮像装置9のフレームレート間隔で連続的に行うことで、蛍光ビーズの移動軌跡が時系列で算出される。   The movement trajectory of the fluorescent beads is calculated in time series by continuously performing the above operation at the frame rate interval of the detection imaging device 9.

次に、対物レンズ制御システムについて、図7の制御ブロック図を参照して説明する。   Next, the objective lens control system will be described with reference to the control block diagram of FIG.

対物レンズ5を移動させるための目標位置信号(即ち、マーカーの位置信号)と、エンコーダからの対物レンズ位置信号との差分を制御誤差として、この制御誤差を小さくするように、駆動制御装置18にて、例えばPID制御のような制御演算を行い、この演算結果をもとに、対物レンズ駆動装置11により対物レンズ5を任意の位置に駆動する。ここで、対物レンズ5は、生体振動の最大振幅以上の移動範囲を有するものとする。   The difference between the target position signal (that is, the marker position signal) for moving the objective lens 5 and the objective lens position signal from the encoder is used as a control error, and the drive control device 18 is set to reduce this control error. Thus, for example, control calculation such as PID control is performed, and the objective lens 5 is driven to an arbitrary position by the objective lens driving device 11 based on the calculation result. Here, it is assumed that the objective lens 5 has a movement range equal to or greater than the maximum amplitude of biological vibration.

次に、探索領域の設定方法について説明する。
今、対物レンズ5が停止した状態において、観察領域に見えるのは生体振動そのものである。図8(a)は、振動を観察した時の模式図であり、図中の矢印は蛍光ビーズが動く軌跡を表す。図8(a)においては、四角く囲んだ領域が観察領域であり、ここでは仮に、観察領域の横軸をx軸とし、縦軸をy軸とする。図8(b)は蛍光ビーズのy方向の動きを時系列で示した模式図である。
Next, a search area setting method will be described.
Now, in the state where the objective lens 5 is stopped, it is the biological vibration itself that can be seen in the observation region. FIG. 8A is a schematic diagram when the vibration is observed, and an arrow in the figure represents a locus of movement of the fluorescent beads. In FIG. 8A, a rectangular area is an observation area. Here, the horizontal axis of the observation area is assumed to be the x-axis and the vertical axis is assumed to be the y-axis. FIG. 8B is a schematic diagram showing the movement of the fluorescent beads in the y direction in time series.

まず、画像処理部21において、観察画像全体を画像処理して蛍光ビーズの位置を検出する。そして、x軸及びy軸のそれぞれについて、図8(b)に示すように、生体振動の少なくとも1周期分の時系列データを画像処理部21内のメモリ22に格納する。メモリ22に格納された時系列データにおいて、連続する画像フレームの間の蛍光ビーズの位置の差分を演算する。つまり、ある撮像時点(フレーム)での蛍光ビーズの位置と、その次の撮像時点(フレーム)での蛍光ビーズの位置を比較し、その差を演算する。この演算により、図9(b)に示したような画像フレーム間の蛍光ビーズの移動量Pが求められる。次いで、図9(b)に示すように、この移動量Pの最大値Pmax及び最小値Pminを検出し、最大振幅値PPを算出し、メモリ22に格納する。   First, the image processing unit 21 performs image processing on the entire observation image to detect the position of the fluorescent beads. Then, for each of the x-axis and the y-axis, time series data for at least one cycle of the biological vibration is stored in the memory 22 in the image processing unit 21 as shown in FIG. In the time-series data stored in the memory 22, the difference in the position of the fluorescent beads between successive image frames is calculated. That is, the position of the fluorescent beads at a certain imaging time point (frame) is compared with the position of the fluorescent beads at the next imaging time point (frame), and the difference is calculated. By this calculation, the movement amount P of the fluorescent beads between the image frames as shown in FIG. 9B is obtained. Next, as shown in FIG. 9B, the maximum value Pmax and the minimum value Pmin of the movement amount P are detected, and the maximum amplitude value PP is calculated and stored in the memory 22.

次に、図10に示すように、蛍光ビーズの位置を中心として、蛍光ビーズの最大移動量PP以上の大きさの一辺を有する矩形領域を探索領域Pとして設定する。本実施形態においては、便宜的に、探索領域Pのx軸及びy軸をそれぞれ観察領域のx軸及びy軸と平行になるように設定した。しかしながら、探索領域Pの設定方法はこれに限定されず、任意の方向に設定することができる。また、矩形領域の一辺の長さはPP以上の長さである。探索領域Pの面積を小さくするために、矩形領域の一辺の長さはより短いことが好ましい。例えば、探索領域Pの一辺の長さはPPの6倍であり、より好ましくは3倍であり、さらにより好ましくは2倍である。生体の振動が安定している場合は、PPを探索領域Pの一辺の長さとすることもできる。   Next, as shown in FIG. 10, a rectangular area having one side larger than the maximum movement amount PP of the fluorescent beads around the position of the fluorescent beads is set as the search area P. In the present embodiment, for convenience, the x-axis and y-axis of the search area P are set to be parallel to the x-axis and y-axis of the observation area, respectively. However, the setting method of the search area P is not limited to this, and can be set in an arbitrary direction. Further, the length of one side of the rectangular area is equal to or longer than PP. In order to reduce the area of the search region P, the length of one side of the rectangular region is preferably shorter. For example, the length of one side of the search region P is 6 times that of PP, more preferably 3 times, and even more preferably 2 times. When the vibration of the living body is stable, PP can be the length of one side of the search region P.

そして、上記探索領域Pが設定された後は、現在蛍光ビーズが検出された位置を中心とした上記探索領域P内のみの画像を処理し、蛍光ビーズを検出する。このときの様子を図11に示す。図11内の矢印は蛍光ビーズの振動の軌跡を表し、点線の四角は探索領域Pを表す。ある時点における探索領域Pは、その1サンプリング時間前、即ち直前のフレームにおいて検出された蛍光ビーズの位置を中心として、上記のように設定される。蛍光ビーズは振動しているため、この手順を繰り返すと、図11に示すように、振動に従って探索領域Pも移動する。画像処理はこの各探索領域P内のみについて行われるため、処理する画像の面積は著しく減少し、従って画像処理時間を大幅に短縮することが可能となる。   After the search area P is set, an image only in the search area P centered on the position where the current fluorescent bead is detected is processed to detect fluorescent beads. The state at this time is shown in FIG. An arrow in FIG. 11 represents the locus of vibration of the fluorescent beads, and a dotted square represents the search region P. The search region P at a certain time point is set as described above with the position of the fluorescent bead detected one sampling time before, that is, the immediately preceding frame as the center. Since the fluorescent beads vibrate, when this procedure is repeated, as shown in FIG. 11, the search region P also moves according to the vibration. Since image processing is performed only within each search region P, the area of the image to be processed is significantly reduced, and therefore the image processing time can be greatly shortened.

このようにして探索領域Pが設定された後、対物レンズ5の追従制御を開始する。このとき、図12に示すように、蛍光ビーズの振動振幅の中心が観察領域の中心位置にあるときに追従制御を開始することが好ましい。このため、蛍光ビーズを時系列的に検出して、その位置が観察領域中心近傍に来た時に対物レンズ5の追従制御を開始させる。図13を参照してこれらを説明する。   After the search area P is set in this way, the follow-up control of the objective lens 5 is started. At this time, as shown in FIG. 12, it is preferable to start the tracking control when the center of the vibration amplitude of the fluorescent bead is at the center position of the observation region. For this reason, the fluorescent beads are detected in time series, and the follow-up control of the objective lens 5 is started when the position comes near the center of the observation region. These will be described with reference to FIG.

図13(a)は生体振動(蛍光ビーズの動き)を表し、図13(b)は対物レンズの動きを表し、図13(c)は観察画面上の蛍光ビーズの動きを表す。蛍光ビーズは振動の何れかの時点で中央部である原点Poを通るように予め調節される。
図13(a)において、時刻t1のときに、生体振動の振幅が画面中央部の原点Poを通過する。これを検知すると、図13(b)に示すように、t1までは停止状態にあった対物レンズ駆動装置11が、図7の制御シーケンスに従って振動を追従するように駆動を始め、対物レンズ5が振動の追従を開始する。これにより、図13(c)に示すように、時刻t1以降は生体振動が略相殺されて、観察画面にはブレの影響の少ない映像が出力される。これにより、観察領域の中心近傍で蛍光ビーズを観察できるようになる。
13A shows biological vibration (movement of fluorescent beads), FIG. 13B shows movement of the objective lens, and FIG. 13C shows movement of fluorescent beads on the observation screen. The fluorescent beads are adjusted in advance so as to pass through the origin Po, which is the central portion, at any point of vibration.
In FIG. 13A, at time t1, the amplitude of the biological vibration passes through the origin Po at the center of the screen. When this is detected, as shown in FIG. 13 (b), the objective lens driving device 11 which has been in a stopped state until t1 starts driving to follow the vibration according to the control sequence of FIG. Start following vibration. As a result, as shown in FIG. 13C, the biological vibration is substantially canceled after time t1, and an image with less blurring effect is output on the observation screen. As a result, the fluorescent beads can be observed near the center of the observation region.

この追従制御の開始後(t1以降)において、さらに探索領域を設定する。
まず、図13(c)に示すように、制御開始後に、蛍光ビーズの振動の少なくとも1周期分の時系列データをメモリ22に格納する。メモリ22に格納された時系列データにおいて、連続する画像フレーム間で蛍光ビーズの位置の差分を演算する。この演算により、図13(d)に示したような画像フレーム間の蛍光ビーズの移動量Qが求められる。次いで、この移動量Qの最大値Qmax及び最小値Qminを検出し、最大振幅値QQを算出し、メモリ22に格納する。
After the start of the follow-up control (after t1), a search area is further set.
First, as shown in FIG. 13C, time series data for at least one cycle of the vibration of the fluorescent beads is stored in the memory 22 after the control is started. In the time-series data stored in the memory 22, the difference in the position of the fluorescent beads is calculated between successive image frames. By this calculation, the movement amount Q of the fluorescent beads between the image frames as shown in FIG. 13D is obtained. Next, the maximum value Qmax and the minimum value Qmin of the movement amount Q are detected, and the maximum amplitude value QQ is calculated and stored in the memory 22.

そして、図14に示したように、上記蛍光ビーズの位置を中心として、蛍光ビーズの最大移動量QQ以上の大きさを有する矩形領域を探索領域Qとして設定する。探索領域Qの一辺の長さは、上記探索領域Pと同様に適宜設定する。   Then, as shown in FIG. 14, a rectangular area having a size equal to or larger than the maximum movement amount QQ of the fluorescent beads is set as the search area Q with the position of the fluorescent beads as the center. The length of one side of the search area Q is set as appropriate in the same manner as the search area P.

このように、対物レンズ5の追従制御を開始した後に、改めて探索領域Qを設定することにより、探索領域をさらに絞り込むことができ、画像処理面積をより減少させることができる。従って、画像処理時間をより短縮することができる。   As described above, after the tracking control of the objective lens 5 is started, the search area Q is set again, thereby further narrowing down the search area and further reducing the image processing area. Therefore, the image processing time can be further shortened.

探索領域の設定は、探索領域Pと探索領域Qの少なくとも2回行う。探索領域Qは、追従開始後に設定された領域を維持してもよく、或いは、例えば生体反応を刺激する、麻酔するなどのように観察条件が異なった場合に設定し直してもよい。或いは、一定時間毎に設定を更新してもよい。   The search area is set at least twice for the search area P and the search area Q. The search area Q may be maintained after the start of tracking, or may be reset when observation conditions are different, such as stimulating a biological reaction or anesthesia. Or you may update a setting for every fixed time.

他の実施形態として、探索領域P及びQは、矩形に限定されず、図15に示すように円形であってもよい。或いは、図16に示すように、長辺が蛍光ビーズの振動方向と平行である長方形であってもよい。このようにすることにより、探索領域をさらに小さくすることが可能となる。   As another embodiment, the search areas P and Q are not limited to a rectangle, but may be a circle as shown in FIG. Alternatively, as shown in FIG. 16, the rectangle may have a long side parallel to the vibration direction of the fluorescent beads. In this way, the search area can be further reduced.

他の実施形態として、探索領域Pが設定された後、対物レンズ5の追従制御を開始する際に、蛍光ビーズが振動振幅の中心位置以外に位置にあるときに追従を開始してもよい。図17に示すように、呼吸部以外の部分は変位量が小さいので、この部分で制御を開始すれば滑らかに追従できる。この後に、手動もしくは自動により、蛍光ビーズの位置が中心に来るように設定してもよい。   As another embodiment, when the tracking control of the objective lens 5 is started after the search region P is set, the tracking may be started when the fluorescent bead is located at a position other than the center position of the vibration amplitude. As shown in FIG. 17, since the amount of displacement is small in the portion other than the breathing portion, if the control is started in this portion, it can smoothly follow. Thereafter, the position of the fluorescent beads may be set to the center manually or automatically.

ところで、図18に示すように、蛍光ビーズが探索領域を越えてしまった場合は、その直前のフレームにおいて検出された蛍光ビーズの位置を現在位置として出力させ、データの欠落による追従制御系の混乱を防ぐ。この場合、対物レンズ5は直前の位置に留まる。次のフレームにおいて蛍光ビーズが探索領域内に戻れば、そのまま検出を続行すればよい。次のフレームにおいても蛍光ビーズが探索領域外に存在する場合は、探索領域の設定を更新すればよい。   By the way, as shown in FIG. 18, when the fluorescent bead exceeds the search area, the position of the fluorescent bead detected in the immediately preceding frame is output as the current position, and the tracking control system is disrupted due to missing data. prevent. In this case, the objective lens 5 remains at the immediately preceding position. If the fluorescent beads return to the search region in the next frame, the detection may be continued as it is. In the next frame, if the fluorescent beads are present outside the search area, the search area setting may be updated.

また、探索領域Pを設定する際に、図19に示すように、設定した探索領域が、観察領域外にはみ出すこともあり得る。その場合は、図20に示すように、観察領域内の領域(網線部分)を探索領域として設定することにより、システムの誤動作等を防ぐことができる。   Further, when the search area P is set, as shown in FIG. 19, the set search area may protrude outside the observation area. In such a case, as shown in FIG. 20, by setting an area (net-line portion) in the observation area as a search area, it is possible to prevent malfunction of the system.

ところで、画像処理部21において処理する画像面積、即ち画素数によって、演算時間は異なる。そのため、探索領域の設定によって制御系の安定性に影響を与えることになる。画像処理による演算遅れはフィードバックループ系のむだ時間となる。このむだ時間を表出させたビジュアルサーボシステムのブロック図を図21に示す。このフィードバック系のオープンループの周波数特性を図22に示すボード線図で表す。ゲイン特性が0dBと交差するゲイン交差周波数において、位相が−180度からどれだけ余裕があるかを示す位相余裕によって制御系の安定性が決まる。よって、むだ時間の大きさに依存して位相特性は図22(b)に示すように変化する。例えば、画素数が大きくなり、処理時間が長くなると、むだ時間が大きくなり、位相余裕が小さくなる。従って制御系の安定性は悪くなる。そこで、制御ゲインを低下させることにより、ゲイン特性が0dBと交差するゲイン交差周波数が移動し、位相余裕が確保できる。これにより制御系の安定性が保たれる。   By the way, the calculation time varies depending on the image area processed in the image processing unit 21, that is, the number of pixels. For this reason, the stability of the control system is affected by the setting of the search area. The calculation delay due to image processing becomes a dead time of the feedback loop system. FIG. 21 shows a block diagram of a visual servo system that expresses this dead time. The open loop frequency characteristics of this feedback system are represented by a Bode diagram shown in FIG. At the gain crossover frequency where the gain characteristic crosses 0 dB, the stability of the control system is determined by the phase margin indicating how much the phase has a margin from -180 degrees. Therefore, depending on the amount of dead time, the phase characteristic changes as shown in FIG. For example, as the number of pixels increases and the processing time increases, the dead time increases and the phase margin decreases. Therefore, the stability of the control system is deteriorated. Therefore, by reducing the control gain, the gain crossover frequency at which the gain characteristic crosses 0 dB moves, and a phase margin can be secured. This maintains the stability of the control system.

以上のことから、処理する画素数に応じて画像処理に要する時間をあらかじめ計測しておき、ルックアップテーブルとしてメモリ23に格納しておくことが好ましい。演算時間による制御系の位相状態を考慮し、処理時間が長い場合、すなわち探索領域が広い場合には、駆動制御装置18において制御ゲインを低くし、制御系の安定性を確保する。そして、演算時間の短縮に合わせて制御ゲインを上げることにより、むだ時間が短縮された分、制御系の精度を向上させることができる。このように、演算時間の長短に合わせて適切に制御ゲインを設定することにより、制御系を安定させることができる。   From the above, it is preferable that the time required for image processing is measured in advance according to the number of pixels to be processed and stored in the memory 23 as a lookup table. In consideration of the phase state of the control system according to the calculation time, when the processing time is long, that is, when the search region is wide, the drive control device 18 lowers the control gain to ensure the stability of the control system. Then, by increasing the control gain in accordance with the shortening of the calculation time, the accuracy of the control system can be improved as much as the dead time is shortened. Thus, the control system can be stabilized by appropriately setting the control gain according to the length of the calculation time.

次に、本発明の第2の実施形態に係る顕微鏡観察装置100について、図23及び24を参照して説明する。
なお、本実施形態の説明において、上述した第1の実施形態に係る顕微鏡観察装置1と構成を共通とする箇所に同一符号を付して説明を省略する。
Next, a microscope observation apparatus 100 according to the second embodiment of the present invention will be described with reference to FIGS.
In the description of the present embodiment, the same reference numerals are given to portions having the same configuration as the microscope observation apparatus 1 according to the first embodiment described above, and the description thereof is omitted.

本実施形態においては、検出用撮像装置9において図24に示すようなCMOSなどのX−Yアドレス方式の撮像素子を使用する。検出用撮像装置9のための制御装置24によって、予め撮像領域を設定しておき、該撮像領域内のみを撮像する。撮像領域は、蛍光ビーズが移動する領域を任意に設定することができ、例えば探索領域を撮像領域としてもよい。撮像された画像データは画像処理部21に転送される。撮像領域を限定することにより、画像処理部21における画像処理時間が短縮されるだけでなく、画像データの転送時間も短縮することができる。そのため、追従制御における遅れ時間がさらに短くなる。本実施形態における撮像領域の設定は、探索領域Qの設定後に行われることが好ましい。   In the present embodiment, an X-Y address type image sensor such as a CMOS as shown in FIG. An imaging region is set in advance by the control device 24 for the detection imaging device 9, and only the imaging region is imaged. As the imaging area, an area where the fluorescent beads move can be arbitrarily set. For example, the search area may be set as the imaging area. The captured image data is transferred to the image processing unit 21. By limiting the imaging area, not only the image processing time in the image processing unit 21 but also the transfer time of the image data can be shortened. Therefore, the delay time in the follow-up control is further shortened. The setting of the imaging area in the present embodiment is preferably performed after the setting of the search area Q.

なお、上記した第1及び第2の実施形態では、画像処理部21において探索領域が設定されるとともに試料Sの変位量とその方向が算出され、駆動制御装置18において対物レンズ駆動装置11に送られる指令信号が演算されるが、画像処理部21では探索領域の設定のみを行い、試料の変位量とその方向の算出は駆動制御装置18において行ってもよい。   In the first and second embodiments described above, the search area is set in the image processing unit 21 and the displacement amount and the direction of the sample S are calculated and sent to the objective lens driving device 11 in the drive control device 18. However, the image processing unit 21 may only set the search area, and the displacement amount and direction of the sample may be calculated by the drive control device 18.

以上、顕微鏡を例として本発明の構成及び作用を説明したが、本発明の範囲は顕微鏡に限定されず、撮像装置、対物レンズ等を備える対物ユニット、該対物ユニット駆動装置などを備える観察装置であれば何れのものでも本願発明に包含される。   As described above, the configuration and operation of the present invention have been described using a microscope as an example. However, the scope of the present invention is not limited to a microscope. Any one is included in the present invention.

また、上記実施形態においては、観察領域内に蛍光ビーズが一つしかない場合を記載したが、図25に示すように、観察領域内に蛍光ビーズが複数ある場合は、どの蛍光ビーズを追跡すべきかの設定をする。これは、手動で画角を調整するか、もしくは、追跡領域の初期設定において、その範囲を指定する。   In the above embodiment, the case where there is only one fluorescent bead in the observation region has been described. However, as shown in FIG. 25, when there are a plurality of fluorescent beads in the observation region, which fluorescent bead should be tracked. Set the operation. In this case, the angle of view is manually adjusted, or the range is designated in the initial setting of the tracking area.

本発明の実施形態に係る顕微鏡観察装置を示す模式的な全体構成図。The typical whole block diagram which shows the microscope observation apparatus which concerns on embodiment of this invention. 生体の振動を時系列的に示す模式図。The schematic diagram which shows the vibration of a biological body in time series. 図1の顕微鏡観察装置の説明における対物レンズと座標軸との関係を示す斜視図。The perspective view which shows the relationship between the objective lens and coordinate axis in description of the microscope observation apparatus of FIG. 観察視野中のマーカーを示す模式図。The schematic diagram which shows the marker in an observation visual field. 撮像素子上でマーカーが占める領域を示す模式図。The schematic diagram which shows the area | region which a marker occupies on an image sensor. 生体振動検出のフローチャートを示す図。The figure which shows the flowchart of a biological vibration detection. 対物レンズ制御システムの制御ブロック図。The control block diagram of an objective-lens control system. 追従制御なしで生体振動を観察した時の模式図。The schematic diagram when a biological vibration is observed without tracking control. (a)は1周期分の生体振動の時系列データを表し、(b)は画像フレーム間での蛍光ビーズの移動量を表す。(A) represents time-series data of biological vibration for one period, and (b) represents the amount of movement of fluorescent beads between image frames. Pmaxに基づいて設定された探索領域の模式図。The schematic diagram of the search area | region set based on Pmax. 蛍光ビーズの変位と探索領域との対応を示す模式図。The schematic diagram which shows a response | compatibility with the displacement of a fluorescent bead, and a search area | region. 蛍光ビーズが観察領域の中心位置にある状態を示す模式図。The schematic diagram which shows the state which has a fluorescent bead in the center position of an observation area | region. 振動振幅の中心で追従制御を開始する場合の模式図。The schematic diagram in the case of starting tracking control at the center of vibration amplitude. 探索領域Qを設定した模式図。The schematic diagram which set the search area | region Q. FIG. 探索領域が円形である模式図。The schematic diagram whose search area | region is circular. 探索領域が長方形である模式図。The schematic diagram whose search area is a rectangle. 振動振幅の中心以外の部分で追従制御を開始した場合の模式図。The schematic diagram at the time of starting tracking control in parts other than the center of vibration amplitude. 蛍光ビーズが探索領域外にある場合を示す図。The figure which shows the case where a fluorescent bead exists outside a search area | region. 探索領域が観察領域外にはみ出た場合を示す図。The figure which shows the case where a search area | region protrudes out of the observation area | region. 探索領域が観察領域外にはみ出た場合に探索される領域を示す図。The figure which shows the area | region searched when a search area | region protrudes outside an observation area | region. ビジュアルサーボシステムを示すブロック図。The block diagram which shows a visual servo system. 制御系の安定性とゲイン特性の関係を示すボード線図。The Bode diagram which shows the relationship between stability of a control system, and a gain characteristic. 第2の実施形態に係る顕微鏡観察装置を示す模式的な全体構成図。The typical whole block diagram which shows the microscope observation apparatus which concerns on 2nd Embodiment. 撮像装置に用いられる撮像素子の一実施形態を示す図。1 is a diagram illustrating an embodiment of an image sensor used in an imaging apparatus. 観察領域内に複数の蛍光ビーズが存在する場合を示す模式図。The schematic diagram which shows the case where a some fluorescent bead exists in an observation area | region.

符号の説明Explanation of symbols

S…試料、E…励起光(光)、F…蛍光(戻り光)、1,100…顕微鏡観察装置、3…励起光源(光源)、4…照明レンズ(照明光学系)、5…対物レンズ、8…観察用撮像装置、9…検出用撮像装置、10…顕微鏡本体、11…対物レンズ駆動装置、18…駆動制御装置、21…画像処理部、22,23…メモリ、24…制御装置。   S ... sample, E ... excitation light (light), F ... fluorescence (return light), 1,100 ... microscope observation device, 3 ... excitation light source (light source), 4 ... illumination lens (illumination optical system), 5 ... objective lens , 8 ... Observation imaging device, 9 ... Detection imaging device, 10 ... Microscope main body, 11 ... Objective lens drive device, 18 ... Drive control device, 21 ... Image processing unit, 22, 23 ... Memory, 24 ... Control device.

Claims (7)

試料に近接配置される対物レンズと、
試料を撮像する撮像装置と、
前記撮像装置によって撮像された画像中で探索領域を設定し、該探索領域内の画像を処理する画像処理部と、
前記画像処理部からの信号に基づいて、前記試料の変位を補正する方向に前記対物レンズを駆動する対物レンズ駆動装置とを備える生体観察装置。
An objective lens placed close to the sample;
An imaging device for imaging a sample;
An image processing unit that sets a search region in an image captured by the imaging device and processes an image in the search region;
A biological observation apparatus comprising: an objective lens driving device that drives the objective lens in a direction in which the displacement of the sample is corrected based on a signal from the image processing unit.
所定の領域のみを撮像するように前記撮像装置を制御する制御装置をさらに備えることを特徴とする、請求項1に記載の生体観察装置。   The living body observation apparatus according to claim 1, further comprising a control device that controls the imaging device so as to capture only a predetermined region. 前記撮像装置として、試料の変位を検出し、且つ、前記画像処理部によって探索領域が設定される画像を撮像するための検出用撮像装置、及び、観察用撮像装置を具備する、請求項1又は2に記載の生体観察装置。   The imaging apparatus includes a detection imaging apparatus and an observation imaging apparatus for detecting a displacement of a sample and capturing an image in which a search region is set by the image processing unit. 2. The biological observation apparatus according to 2. 前記探索領域が、連続する画像フレーム間における変位の差分の最大値を超える長さを一辺とする矩形領域である、請求項1〜3の何れか一項に記載の生体観察装置。   The living body observation apparatus according to any one of claims 1 to 3, wherein the search area is a rectangular area having a length that exceeds a maximum displacement difference between successive image frames. 前記探索領域の設定が、前記対物レンズ駆動装置の駆動を開始する前後に行われることを特徴とする、請求項1〜4のいずれか一項に記載の生体観察装置。   The biological observation apparatus according to claim 1, wherein the search area is set before and after the driving of the objective lens driving apparatus is started. 前記生体観察装置が生体観察用の顕微鏡である、請求項1〜5の何れか一項に記載の生体観察装置。   The living body observation apparatus according to claim 1, wherein the living body observation apparatus is a microscope for living body observation. 前記試料が生体中の細胞、組織又は内臓であることを特徴とする、請求項1〜6の何れか一項に記載の生体観察装置。   The living body observation apparatus according to any one of claims 1 to 6, wherein the sample is a cell, tissue, or viscera in a living body.
JP2008250713A 2008-09-29 2008-09-29 Living body observation apparatus Withdrawn JP2010079221A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008250713A JP2010079221A (en) 2008-09-29 2008-09-29 Living body observation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008250713A JP2010079221A (en) 2008-09-29 2008-09-29 Living body observation apparatus

Publications (1)

Publication Number Publication Date
JP2010079221A true JP2010079221A (en) 2010-04-08

Family

ID=42209688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008250713A Withdrawn JP2010079221A (en) 2008-09-29 2008-09-29 Living body observation apparatus

Country Status (1)

Country Link
JP (1) JP2010079221A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112912783A (en) * 2018-10-19 2021-06-04 纳米电子成像有限公司 Method and system for automatically mapping a flowing object on a substrate

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112912783A (en) * 2018-10-19 2021-06-04 纳米电子成像有限公司 Method and system for automatically mapping a flowing object on a substrate
JP2022502796A (en) * 2018-10-19 2022-01-11 ナノトロニクス イメージング インコーポレイテッドNanotronics Imaging, Inc. Methods and systems for automatically mapping fluid objects on the board
JP7226852B2 (en) 2018-10-19 2023-02-21 ナノトロニクス イメージング インコーポレイテッド Method and system for automatically mapping fluid objects on a substrate
US11815673B2 (en) 2018-10-19 2023-11-14 Nanotronics Imaging, Inc. Method and system for mapping objects on unknown specimens

Similar Documents

Publication Publication Date Title
US8000560B2 (en) Virtual slide generation device, virtual slide generation method, virtual slide generation program product and virtual slide generation program transmission medium
JP2017006330A (en) Medical picture processing device, medical picture processing method, and medical observation system
EP2402811A2 (en) Information processing apparatus, stage-undulation correcting method, program therefor
WO2015098218A1 (en) Endoscopic device, method for controlling endoscopic device, and program
JP2012213513A5 (en)
JP2010139890A (en) Imaging apparatus
JP2010141699A (en) Imaging apparatus
JP2010141698A (en) Imaging apparatus
JP2015090471A5 (en)
US9916665B2 (en) Cell tracking device and method, and storage medium non-transitory storing computer-readable cell tracking programs
WO2018042786A1 (en) Image processing method, image processing device, and imaging device
JP5562653B2 (en) Virtual slide creation apparatus and virtual slide creation method
JP2006223850A (en) Electronic endoscope system
JP2012065113A (en) Imaging device, imaging method, and program
JP2008147908A (en) Imaging apparatus for microscope, imaging program for microscope, and imaging method for microscope
US20210044757A1 (en) Imaging device, endoscope apparatus, and operating method of imaging device
JP5289879B2 (en) Microscope system, focus drift correction method and program in microscope system
JP5803442B2 (en) Microscope control apparatus, microscope apparatus, image processing apparatus, and program
JP2010079221A (en) Living body observation apparatus
JP2004070036A (en) Apparatus for imaging microscopic picture
JP2010014965A (en) Living body observation apparatus
JP2009223164A (en) Microscopic image photographing apparatus
JP5941758B2 (en) Endoscope device
WO2018193704A1 (en) Signal processing system, signal processing device, and signal processing method
JP2010170042A5 (en)

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111206