JP2007328135A - Viewing apparatus and viewing program - Google Patents

Viewing apparatus and viewing program Download PDF

Info

Publication number
JP2007328135A
JP2007328135A JP2006159270A JP2006159270A JP2007328135A JP 2007328135 A JP2007328135 A JP 2007328135A JP 2006159270 A JP2006159270 A JP 2006159270A JP 2006159270 A JP2006159270 A JP 2006159270A JP 2007328135 A JP2007328135 A JP 2007328135A
Authority
JP
Japan
Prior art keywords
observation
image
navigation
phase difference
fluorescence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006159270A
Other languages
Japanese (ja)
Other versions
JP5034328B2 (en
Inventor
Nobuhiko Yonetani
信彦 米谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006159270A priority Critical patent/JP5034328B2/en
Publication of JP2007328135A publication Critical patent/JP2007328135A/en
Application granted granted Critical
Publication of JP5034328B2 publication Critical patent/JP5034328B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To eliminate an adverse effect of light irradiation on an object. <P>SOLUTION: A user specifies a position on an object as an object to be viewed on a picture displayed by a monitor. A controller 105 sets a prescribed range centering the specified position as a navigation range, and controls a camera 104 to capture the image of the object inputted through the objective lens 103 while moving the objective lens 103 within the navigation range. In the case of photographing the object, a transmissive light emitting device 106 and a shutter 107 are controlled so as to irradiate the object with the light only at photographing the object by the camera 104. The controller 105 produces one spliced image by splicing a plurality of images obtained by photographing the object while moving the objective lens 103, and outputs the image to a PC 109. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、観察対象を観察するための観察装置、および観察プログラムに関する。   The present invention relates to an observation apparatus for observing an observation object, and an observation program.

次のような蛍光顕微鏡を使用した蛍光法による細胞の観察方法が非特許文献1によって知られている。この方法によれば、細胞に励起光を照射し、細胞から放出される蛍光を観察する。そして、観察前に観察位置の設定を行うが、この際、細胞へ励起光を照射し、蛍光画像から観察位置の設定を行っている。   Non-patent document 1 discloses a cell observation method using a fluorescence method using a fluorescence microscope as follows. According to this method, the cells are irradiated with excitation light, and the fluorescence emitted from the cells is observed. Then, the observation position is set before the observation. At this time, the cell is irradiated with excitation light, and the observation position is set from the fluorescence image.

バイオイメージングがわかる P.22〜24(2005年9月 羊土社発行)Understanding bioimaging 22-24 (issued in September 2005, Yodosha)

しかしながら、従来の観察方法においては、細胞に励起光を照射する時間が長くなるにつれて、光退色によって蛍光が弱まったり、光毒性により細胞にダメージを与えてしまうことになる。このため、観察対象とする細胞を選択し、観察位置を設定する際、細胞の選択作業に時間を要すると、選択段階で細胞に光退色や光毒性による悪影響を及ぼしてしまい、実際の観察時には正確な観察が行えない可能性がある。   However, in the conventional observation method, as the time for irradiating the cells with the excitation light becomes longer, the fluorescence is weakened due to photobleaching, or the cells are damaged due to phototoxicity. For this reason, when selecting cells to be observed and setting the observation position, if it takes time to select the cells, the cells will be adversely affected by photobleaching and phototoxicity at the selection stage. There is a possibility that accurate observation cannot be performed.

本発明は、観察対象物の像を小領域ごとに撮影するためのナビゲーション位置を使用者からの入力に基づいて特定し、特定したナビゲーション位置を中心としたナビゲーション位置に隣接する周囲の所定範囲に観察対象領域を設定することを特徴とする。   The present invention specifies a navigation position for capturing an image of an observation object for each small area based on an input from a user, and sets a predetermined range around the navigation position centered on the specified navigation position. An observation target region is set.

本発明によれば、光を照射することによる対象物への悪影響を軽減することができる。   ADVANTAGE OF THE INVENTION According to this invention, the bad influence to the target object by irradiating light can be reduced.

図1は、本実施の形態における細胞観察装置の構成を模式的に示した図である。細胞観察装置100は、ステージ101と、チャンバー102と、対物レンズ103と、カメラ104と、制御装置105と、透過光照明装置106と、シャッター107と、励起用光源装置108と、パーソナルコンピュータ(PC)109と、モニタ110と、環境制御装置111とを備えている。なお、ステージ101と、チャンバー102と、対物レンズ103と、カメラ104と、制御装置105と、透過光照明装置106と、シャッター107と、励起用光源装置108は顕微鏡を構成する。   FIG. 1 is a diagram schematically showing the configuration of the cell observation device in the present embodiment. The cell observation device 100 includes a stage 101, a chamber 102, an objective lens 103, a camera 104, a control device 105, a transmitted light illumination device 106, a shutter 107, an excitation light source device 108, a personal computer (PC). ) 109, a monitor 110, and an environment control device 111. The stage 101, the chamber 102, the objective lens 103, the camera 104, the control device 105, the transmitted light illumination device 106, the shutter 107, and the excitation light source device 108 constitute a microscope.

この細胞観察装置100においては、使用者はPC109を操作することによって、細胞観察装置100に対する種々の指示を出すことができ、PC109は、使用者からの指示に応じた制御信号を制御装置105へ出力する。制御装置105は、PC109からの制御信号に基づいて使用者からの指示に応じた種々の処理を実行する。本実施の形態では、使用者がステージ101上のチャンバー102内にセットされた細胞培養容器A内の細胞を観察する場合の処理について説明する。   In this cell observation device 100, the user can issue various instructions to the cell observation device 100 by operating the PC 109, and the PC 109 sends a control signal corresponding to the instruction from the user to the control device 105. Output. The control device 105 executes various processes according to instructions from the user based on the control signal from the PC 109. In the present embodiment, a process when the user observes the cells in the cell culture container A set in the chamber 102 on the stage 101 will be described.

なお、細胞培養容器Aは、例えば35mmディッシュが使用される。また、チャンバー102内は密閉されており、その内部環境は、環境制御装置111によって細胞の培養に適した環境に維持されている。例えば、チャンバー102内のCO濃度はCO混合機111aによって5%に維持され、湿度は湿度調整機111bによって95%に維持され、温度は温度調整機111cによって37℃に維持されている。 For the cell culture container A, for example, a 35 mm dish is used. The chamber 102 is hermetically sealed, and the internal environment is maintained by the environment control device 111 in an environment suitable for cell culture. For example, the CO 2 concentration in the chamber 102 is maintained at 5% by the CO 2 mixer 111a, the humidity is maintained at 95% by the humidity adjuster 111b, and the temperature is maintained at 37 ° C. by the temperature adjuster 111c.

励起用光源装置108は、細胞を蛍光染色している色素を励起する波長の励起光をチャンバー102内の細胞培養容器Aに照射する。なお、励起用光源装置108から出力される励起光は、シャッター107により遮断することが可能である。透過光照明装置106は、光源としてLEDを備えており、シャッター107により励起光が遮断されているときに、LEDを発光させて、チャンバー102内の細胞培養容器Aに透過光(照明光)を照射することもできる。シャッター107による励起光の遮断、および透過光照明装置106からのLEDの発光は、全て制御装置105によって制御される。   The excitation light source device 108 irradiates the cell culture container A in the chamber 102 with excitation light having a wavelength that excites the dye that fluorescently stains the cells. The excitation light output from the excitation light source device 108 can be blocked by the shutter 107. The transmitted light illumination device 106 includes an LED as a light source. When excitation light is blocked by the shutter 107, the transmitted light illumination device 106 causes the LED to emit light and transmits transmitted light (illumination light) to the cell culture container A in the chamber 102. Irradiation is also possible. The blocking of the excitation light by the shutter 107 and the light emission of the LED from the transmitted light illumination device 106 are all controlled by the control device 105.

顕微鏡は、位相差観察モードと蛍光観察モードとを備え、透過光照明装置106からチャンバー102内の細胞培養容器Aに透過光を照射して細胞を位相差観察することができ、また、励起用光源装置108からチャンバー102内の細胞培養容器Aに励起光を照射して、蛍光試薬で染色した細胞を蛍光観察することもできる。カメラ104は、CCDなどの撮像素子を備えており、対物レンズ103を通して入力される細胞の像(拡大像)を撮像して顕微鏡画像、すなわち位相差画像と蛍光画像とを得ることができる。   The microscope has a phase difference observation mode and a fluorescence observation mode, and can transmit the transmitted light from the transmitted light illumination device 106 to the cell culture vessel A in the chamber 102 to observe the phase difference of the cells. The cell culture vessel A in the chamber 102 can be irradiated with excitation light from the light source device 108 and the cells stained with the fluorescent reagent can be observed with fluorescence. The camera 104 includes an imaging device such as a CCD, and can capture a cell image (enlarged image) input through the objective lens 103 to obtain a microscope image, that is, a phase difference image and a fluorescence image.

なお、顕微鏡は、複数の蛍光フィルタを切り替えて蛍光観察を行うことができる。例えば、複数の蛍光試薬で染色した多重染色の場合には、複数の蛍光フィルタを切り替えて蛍光観察を行うことによって、複数の蛍光色を観察することができる。これにより、カメラ104は、蛍光フィルタごとの複数の蛍光画像を撮像することができる。   Note that the microscope can perform fluorescence observation by switching a plurality of fluorescence filters. For example, in the case of multiple staining in which staining is performed with a plurality of fluorescent reagents, a plurality of fluorescent colors can be observed by performing fluorescence observation by switching a plurality of fluorescent filters. Thereby, the camera 104 can capture a plurality of fluorescent images for each fluorescent filter.

カメラ104によって撮影された顕微鏡画像は制御装置105へ出力され、さらにPC109に出力された後にモニタ110に表示される。これによって、使用者は顕微鏡画像をモニタ110上で確認することができる。   A microscope image taken by the camera 104 is output to the control device 105 and further output to the PC 109 and then displayed on the monitor 110. As a result, the user can check the microscope image on the monitor 110.

本実施の形態における細胞観察装置100においては、使用者は、PC109を操作して観察対象の細胞の種類に応じた蛍光画像の撮影条件を指示することができる。例えば撮影条件として励起光量、カメラゲイン、露光時間、焦点面、フィルタ種類を指示する。この撮影条件は、細胞の種類ごとにあらかじめ設定してPC109が備えるメモリ内に記憶しておき、使用者が観察対象の細胞の種類に応じて設定内容を選択するようにしてもよく、観察の都度、撮影条件を設定するようにしてもよい。   In cell observation apparatus 100 in the present embodiment, a user can operate PC 109 to instruct fluorescent image capturing conditions according to the type of cells to be observed. For example, an excitation light amount, a camera gain, an exposure time, a focal plane, and a filter type are specified as imaging conditions. This imaging condition may be set in advance for each cell type and stored in the memory provided in the PC 109 so that the user can select the setting contents according to the type of cell to be observed. The shooting conditions may be set each time.

一般的に、細胞を蛍光観察する場合には、細胞に励起光を照射する時間が長くなるにつれて、光退色によって蛍光が弱まったり、光毒性により細胞にダメージを与えてしまう。このため、実際の蛍光観察(本蛍光観察)を行う前段階として観察対象とする細胞を選ぶための蛍光観察(準備蛍光観察)を行った場合に、準備蛍光観察に時間をかけてしまうと、準備蛍光観察の段階で細胞に光退色や光毒性による悪影響を及ぼしてしまい、本蛍光観察で正確な実験データが得られないなど、期待通りの観察結果が得られない可能性が生じる。   In general, when fluorescence observation is performed on a cell, as the time for which the cell is irradiated with excitation light becomes longer, the fluorescence is weakened by photobleaching, or the cell is damaged by phototoxicity. For this reason, when performing fluorescence observation (preparation fluorescence observation) for selecting cells to be observed as a pre-stage for performing actual fluorescence observation (main fluorescence observation), if it takes time to prepare fluorescence observation, There is a possibility that the observation results as expected may not be obtained, for example, the cells may be adversely affected by photobleaching or phototoxicity at the stage of preliminary fluorescence observation, and accurate experimental data cannot be obtained by this fluorescence observation.

本実施の形態では、準備観察段階で細胞に及ぼす悪影響を最小限に抑えるために、準備観察段階における励起光の照射時間を極力抑える方法について説明する。   In the present embodiment, a method for suppressing the irradiation time of excitation light in the preparatory observation stage as much as possible in order to minimize the adverse effect on the cells in the preparatory observation stage will be described.

使用者は、細胞培養容器A内から観察対象の細胞を選択するために後述するナビゲーションを実行して顕微鏡画像を撮影する範囲(ナビゲーション範囲)を設定する。このために制御装置105は、まず、顕微鏡を位相差観察モードにセットして、シャッター107を閉じて励起光を遮断した後、透過光照明装置106を制御してLEDを発光させ、チャンバー102内の細胞培養容器Aに透過光を照射する。そして、対物レンズ103を高倍率にセットし、カメラ104を制御して対物レンズ103を通して入力される像を撮影する。このように撮影した細胞培養容器Aの位相差画像をPC109へ出力する。   In order to select a cell to be observed from the cell culture vessel A, the user executes navigation described later to set a range (navigation range) for taking a microscope image. For this purpose, the control device 105 first sets the microscope to the phase difference observation mode, closes the shutter 107 and blocks the excitation light, and then controls the transmitted light illumination device 106 to cause the LED to emit light. The transmitted light is irradiated to the cell culture container A. Then, the objective lens 103 is set at a high magnification, and the camera 104 is controlled to take an image input through the objective lens 103. The phase difference image of the cell culture vessel A thus photographed is output to the PC 109.

PC109が備えるCPUは、図2に示すようにLIVE画面2aとナビゲーション画面2bとを2画面表示したGUI画面(ナビゲーション位置指定用画面)をモニタ110に表示する。そして、制御装置105から出力される高倍率の位相差画像(リアルタイム画像)をLIVE画面2a内に表示する。ナビゲーション画面2b内には、細胞培養容器Aの内側の全範囲を観察可能範囲とした場合に当該観察可能範囲内におけるLIVE画面2a内に表示されている位相差画像の位置を表示する。すなわち、図2に示す例では、現在LIVE画面2a内に表示されている位相差画像は、観察可能範囲内の範囲2cに相当する位置の画像であることを示している。   The CPU provided in the PC 109 displays on the monitor 110 a GUI screen (navigation position designation screen) on which the LIVE screen 2a and the navigation screen 2b are displayed as shown in FIG. Then, a high-magnification phase difference image (real-time image) output from the control device 105 is displayed in the LIVE screen 2a. In the navigation screen 2b, the position of the phase difference image displayed in the LIVE screen 2a within the observable range when the entire range inside the cell culture vessel A is set as the observable range is displayed. That is, in the example shown in FIG. 2, the phase difference image currently displayed in the LIVE screen 2a is an image at a position corresponding to the range 2c within the observable range.

さらにナビゲーション位置指定用画面内には、LIVE画面2a内に表示する位相差画像の位置を観察可能範囲内で移動させるための移動ボタン2dが表示されている。そして、使用者は、マウスを操作して移動ボタン2dを操作することによって、LIVE画面2a内に表示する位相差画像の位置を観察可能範囲内で移動させることができる。なお、図2に示す例では、移動ボタン2dは円形状のボタンであり、マウスでクリックされたボタン上の位置に応じて移動方向が決定される。また、マウスによる押下回数、または押下時間に応じて移動量が決定される。   Further, in the navigation position designation screen, a movement button 2d for moving the position of the phase difference image displayed in the LIVE screen 2a within the observable range is displayed. Then, the user can move the position of the phase difference image displayed in the LIVE screen 2a within the observable range by operating the mouse and operating the movement button 2d. In the example shown in FIG. 2, the movement button 2d is a circular button, and the movement direction is determined according to the position on the button clicked with the mouse. Further, the amount of movement is determined according to the number of times of pressing with the mouse or the pressing time.

具体的には、使用者によって移動ボタン2dが操作されると、その操作信号が制御装置105へ出力され、制御装置105は、ボタンが押下された方向にボタンの押下回数や押下時間に応じた移動量だけ対物レンズ103を移動させて対物レンズ103による撮影範囲を変化させる。PC109が備えるCPUは、そのときの対物レンズ103の位置、例えば座標値を制御装置105から取得する。そして、対物レンズ103の位置に基づいて、現在LIVE画面2a内に表示されている位相差画像の観察可能範囲内における位置をナビゲーション画面2b内に表示する。すなわち、ナビゲーション画面2b内の表示内容を対物レンズ103の移動に合わせて更新する。   Specifically, when the movement button 2d is operated by the user, the operation signal is output to the control device 105, and the control device 105 responds to the number of times the button is pressed and the pressing time in the direction in which the button is pressed. The objective lens 103 is moved by the moving amount to change the photographing range by the objective lens 103. The CPU provided in the PC 109 acquires the position of the objective lens 103 at that time, for example, the coordinate value from the control device 105. Based on the position of the objective lens 103, the position within the observable range of the phase difference image currently displayed in the LIVE screen 2a is displayed in the navigation screen 2b. That is, the display content in the navigation screen 2 b is updated in accordance with the movement of the objective lens 103.

これによって、使用者は、移動ボタン2dを操作して対物レンズ103の位置を移動して観察可能範囲内の任意の位置の位相差画像をLIVE画面2aに表示して確認することができる。同時にナビゲーション画面2b内の表示によって、現在対物レンズ103によって撮影されている位相差画像の範囲が観察可能範囲内のどの範囲に相当するかを一目で確認することができる。   Thus, the user can confirm the phase difference image at an arbitrary position within the observable range by operating the movement button 2d and moving the position of the objective lens 103 on the LIVE screen 2a. At the same time, it is possible to confirm at a glance which range within the observable range the range of the phase difference image currently being captured by the objective lens 103 by the display in the navigation screen 2b.

使用者は、LIVE画面2a内に表示された位相差画像上でナビゲーション位置を指定する。ここでは図3に示すように、移動ボタン2dが操作された結果、LIVE画面2a内に表示されている位相差画像の位置が、ナビゲーション画面2bに示すように観察可能範囲内の範囲2eに相当する位置にあるものとする。このとき、使用者は、決定ボタン3bをクリックすることによって、現在ナビゲーション画面2bに表示されている位相差画像上の位置、すなわち範囲2eをナビゲーション位置として指定する。   The user designates the navigation position on the phase difference image displayed in the LIVE screen 2a. Here, as shown in FIG. 3, as a result of the movement button 2d being operated, the position of the phase difference image displayed in the LIVE screen 2a corresponds to the range 2e within the observable range as shown in the navigation screen 2b. It is assumed that it is in the position to do. At this time, the user designates the position on the phase difference image currently displayed on the navigation screen 2b, that is, the range 2e, by clicking the decision button 3b.

CPUは、使用者によって指定されたナビゲーション位置2eを特定し、ナビゲーション位置2eを中心としたナビゲーション位置2eに隣接する周囲部の所定範囲をナビゲーション範囲3aとして設定する。なお、ナビゲーション範囲3aとして設定する範囲の大きさはあらかじめ設定されているものとするが、任意の大きさに適宜変更可能としてもよい。これによって、使用者はLIVE画面2a上で任意のナビゲーション位置2eを指定するだけで、その周囲を含むナビゲーション範囲3aを設定することができる。従って、準備蛍光観察をすることなくナビゲーション範囲3aを設定することがえきる。   The CPU specifies the navigation position 2e designated by the user, and sets a predetermined range around the navigation position 2e around the navigation position 2e as the navigation range 3a. In addition, although the magnitude | size of the range set as the navigation range 3a shall be preset, you may change suitably in arbitrary magnitude | sizes. Thereby, the user can set the navigation range 3a including the surroundings only by designating an arbitrary navigation position 2e on the LIVE screen 2a. Therefore, the navigation range 3a can be set without performing preliminary fluorescence observation.

また、CPUは、指定されたナビゲーション位置2eと、その隣接する周囲に設定したナビゲーション範囲3aとをナビゲーション画面2b内に表示する。これによって、使用者はナビゲーション位置2eおよびナビゲーション範囲3aの観察可能範囲内における位置をナビゲーション画面2bにより確認することができる。そして、CPUは、設定したナビゲーション範囲3aを特定するための情報(ナビゲーション範囲情報)と上述した撮影条件とを格納したレシピを作成し、当該レシピを制御装置105へ出力する。   Further, the CPU displays the designated navigation position 2e and the navigation range 3a set around the navigation position 2e in the navigation screen 2b. Thereby, the user can confirm the position within the observable range of the navigation position 2e and the navigation range 3a on the navigation screen 2b. Then, the CPU creates a recipe that stores information (navigation range information) for specifying the set navigation range 3 a and the above-described shooting conditions, and outputs the recipe to the control device 105.

ここで、ナビゲーション位置2eに基づいてナビゲーション範囲3aを設定するのは、以下の理由による。すなわち、一般的に使用者は、細胞の周囲の状況、例えば隣接する細胞との結合状況などを見て観察対象の細胞を選択することが多い。このため、従来は、使用者があらかじめ細胞が生育している領域を特定した後、その周囲の状況をステージ101をスライドさせて観察する必要があった。   Here, the navigation range 3a is set based on the navigation position 2e for the following reason. That is, in general, the user often selects a cell to be observed by looking at the situation around the cell, for example, the situation of binding with an adjacent cell. For this reason, conventionally, after the user specifies a region where cells are grown in advance, it is necessary to slide the stage 101 and observe the surrounding situation.

しかし本実施の形態によれば、使用者が指定したナビゲーション位置2eを含む所定範囲をナビゲーション範囲3aとして設定し、後述する処理によってナビゲーション範囲3a内の顕微鏡画像を使用者に提示するようにした。その結果、使用者はナビゲーション位置2eとして細胞が生育している地点を指定するだけで、その周囲の状況も把握できるようになり、周囲の状況を加味した観察対象の細胞の選択が容易に行えるようになる。   However, according to the present embodiment, a predetermined range including the navigation position 2e designated by the user is set as the navigation range 3a, and a microscope image in the navigation range 3a is presented to the user by a process described later. As a result, the user can grasp the surrounding situation only by specifying the point where the cell is growing as the navigation position 2e, and can easily select the observation target cell in consideration of the surrounding situation. It becomes like this.

なお、ナビゲーション位置2eは複数指定することもでき、使用者によってナビゲーション位置2eが複数指定された場合には、CPUは、指定された数のナビゲーション位置2eに応じたナビゲーション範囲3aを設定して、各ナビゲーション範囲3aのナビゲーション範囲情報をレシピに格納する。そして、制御装置105は、レシピに格納されている全てのナビゲーション範囲3aに対して後述する処理を実行する。ここでは説明の簡略化のため、1つのナビゲーション位置2eが指定され、1つのナビゲーション範囲3aが設定された場合の例について説明する。   A plurality of navigation positions 2e can be specified. When the user specifies a plurality of navigation positions 2e, the CPU sets a navigation range 3a corresponding to the specified number of navigation positions 2e, The navigation range information of each navigation range 3a is stored in the recipe. And the control apparatus 105 performs the process mentioned later with respect to all the navigation ranges 3a stored in the recipe. Here, for simplification of description, an example in which one navigation position 2e is designated and one navigation range 3a is set will be described.

制御装置105は、PC109からレシピが入力されると、レシピに格納されているナビゲーション範囲情報と撮影条件とを読み込んで、ナビゲーション範囲3a内に対してナビゲーションを実行する。すなわち、対物レンズ103、カメラ104、透過光照明装置106、およびシャッター107を制御して、ナビゲーション範囲3a内で対物レンズ103を移動させながら位相差画像と蛍光画像を撮影する。具体的には、制御装置105は、次のようにしてナビゲーションを実行する。   When a recipe is input from the PC 109, the control device 105 reads the navigation range information and shooting conditions stored in the recipe, and executes navigation within the navigation range 3a. That is, the objective lens 103, the camera 104, the transmitted light illumination device 106, and the shutter 107 are controlled to take a phase difference image and a fluorescence image while moving the objective lens 103 within the navigation range 3a. Specifically, the control device 105 performs navigation as follows.

制御装置105は、まず、ナビゲーション範囲情報に基づいてナビゲーション範囲3aの開始点の座標値(X,Y)を特定する。例えば、ナビゲーション範囲3aの左上の端点の座標値をナビゲーション範囲3aの開始点の座標値(X,Y)として特定する。そして、顕微鏡を位相差観察モードにセットして特定したナビゲーション範囲3aの開始点に対物レンズ103を移動させ、シャッター107を閉じて励起光を遮断した後、透過光照明装置106を制御して位相差画像の撮影に必要な時間、例えばカメラ104の露光時間だけLEDを発光させる。そして、対物レンズ103を高倍率にセットし、このときに対物レンズ103を通して入力される像をカメラ104を制御して撮影し、記憶する。これによって、ナビゲーション範囲3aの開始点における位相差画像を撮影することができる。   The control device 105 first specifies the coordinate value (X, Y) of the start point of the navigation range 3a based on the navigation range information. For example, the coordinate value of the upper left end point of the navigation range 3a is specified as the coordinate value (X, Y) of the start point of the navigation range 3a. Then, the objective lens 103 is moved to the start point of the navigation range 3a specified by setting the microscope in the phase difference observation mode, the shutter 107 is closed to block the excitation light, and then the transmitted light illumination device 106 is controlled to control the position. The LED is caused to emit light for the time required for capturing the phase difference image, for example, the exposure time of the camera 104. Then, the objective lens 103 is set at a high magnification, and an image input through the objective lens 103 is photographed by controlling the camera 104 and stored. Thereby, a phase difference image at the start point of the navigation range 3a can be taken.

さらに、制御装置105は、顕微鏡を蛍光観察モードにセットして、透過光照明装置106を制御してLEDを消灯し、蛍光画像の撮影に必要な時間、例えばカメラ104の露光時間だけシャッター107を開けて励起光を照射する。そして、対物レンズ103を高倍率にセットし、カメラ104を制御して対物レンズ103を通して入力される像を撮影し、記憶する。これによって、ナビゲーション範囲3aの開始点における蛍光画像を撮影することができる。なお、このとき、撮影条件として複数の蛍光フィルタの種類が指定されている場合には、蛍光フィルタを切り替えて、各蛍光フィルタごとに蛍光画像をそれぞれ撮影する。   Further, the control device 105 sets the microscope in the fluorescence observation mode, controls the transmitted light illumination device 106 to turn off the LED, and holds the shutter 107 for the time required for photographing the fluorescent image, for example, the exposure time of the camera 104. Open and irradiate with excitation light. Then, the objective lens 103 is set at a high magnification, and the camera 104 is controlled to capture and store an image input through the objective lens 103. Thereby, a fluorescence image at the start point of the navigation range 3a can be taken. At this time, when a plurality of types of fluorescent filters are designated as the imaging conditions, the fluorescent filters are switched and a fluorescent image is captured for each fluorescent filter.

その後、制御装置105は、ナビゲーション範囲3a内の次の領域を撮影するように対物レンズ103を移動させる。すなわち、制御装置105は、移動後の対物レンズ位置におけるカメラ104の撮影範囲が移動前の対物レンズ位置におけるカメラ104の撮影範囲と隣接し、かつ両範囲が重複しないように、対物レンズ103の移動量を制御する。そして、移動後の対物レンズ位置において上述した処理を実行し、移動後の対物レンズ位置における位相差画像と蛍光画像を撮影し、記憶する。この処理をナビゲーション範囲3aの全範囲に対して実行することによって、ナビゲーション範囲3a内において複数の小領域ごとに位相差画像と、蛍光フィルタの種類分の複数枚の蛍光画像を撮影することができる。   Thereafter, the control device 105 moves the objective lens 103 so as to photograph the next area in the navigation range 3a. That is, the control device 105 moves the objective lens 103 so that the imaging range of the camera 104 at the objective lens position after the movement is adjacent to the imaging range of the camera 104 at the objective lens position before the movement, and the both ranges do not overlap. Control the amount. Then, the above-described processing is executed at the moved objective lens position, and the phase difference image and the fluorescence image at the moved objective lens position are photographed and stored. By executing this process for the entire range of the navigation range 3a, a phase difference image and a plurality of fluorescent images corresponding to the types of fluorescent filters can be taken for each of a plurality of small regions in the navigation range 3a. .

そして、制御装置105は、ナビゲーションの実行によって撮影され記憶された各小領域に対応する位相差画像をつなぎ合わせて(タイリングして)、ナビゲーション範囲3aを撮影した1枚の結合画像(マクロ位相差画像)を生成する。さらに、制御装置105は、各蛍光フィルタの蛍光画像ごとに、同様にして各領域に対応する蛍光画像をタイリングして蛍光フィルタごとの結合画像(マクロ蛍光画像)を生成する。   Then, the control device 105 joins (tils) the phase difference images corresponding to the small regions that are photographed and stored by executing the navigation, and forms one combined image (macro position) photographing the navigation range 3a. Phase difference image). Further, the control device 105 similarly tiles the fluorescent image corresponding to each region for each fluorescent image of each fluorescent filter to generate a combined image (macro fluorescent image) for each fluorescent filter.

図4を用いて、マクロ位相差画像の生成方法を具体的に説明する。この図4は、4つの小領域に対してナビゲーションを実行した場合に撮影される位相差画像に基づいてマクロ位相差画像を生成する手順を模式的に示した図である。ここでは、4つの小領域を対象としてナビゲーションが実行された結果、図4(a)に示す4枚の位相差画像4a〜4dが撮影されている。制御装置105は、この4枚の位相差画像をナビゲーション範囲内におけるそれぞれの小領域の位置関係を保持したまま図4(b)のように並べて結合することによってタイリングを行う。これによって図4(c)に示すようなマクロ位相差画像4eが生成される。   A method of generating a macro phase difference image will be specifically described with reference to FIG. FIG. 4 is a diagram schematically illustrating a procedure for generating a macro phase difference image based on a phase difference image captured when navigation is performed on four small regions. Here, as a result of the navigation being performed on four small areas, four phase difference images 4a to 4d shown in FIG. The control device 105 performs tiling by arranging the four phase difference images side by side as shown in FIG. 4B while maintaining the positional relationship of the respective small regions within the navigation range. As a result, a macro phase difference image 4e as shown in FIG. 4C is generated.

次に、図5を用いて、マクロ蛍光画像の生成方法を具体的に説明する。この図5は、4つの小領域に対して2種類の蛍光フィルタを使用してナビゲーションを実行した場合に撮影される蛍光画像に基づいてマクロ蛍光画像を生成する手順を模式的に示した図である。ここでは、第1の蛍光フィルタを使用して4つの小領域を対象としてナビゲーションが実行された結果、図5(a)に示す4枚の蛍光画像5a〜5dが撮影されている。また、第2の蛍光フィルタを使用して4つの小領域を対象としてナビゲーションが実行された結果、図5(d)に示す4枚の蛍光画像5f〜5iが撮影されている。   Next, a method for generating a macro fluorescent image will be specifically described with reference to FIG. FIG. 5 is a diagram schematically showing a procedure for generating a macro fluorescent image based on a fluorescent image photographed when navigation is performed using two types of fluorescent filters for four small regions. is there. Here, as a result of navigation performed on four small regions using the first fluorescent filter, four fluorescent images 5a to 5d shown in FIG. 5A are taken. Further, as a result of navigation performed on four small areas using the second fluorescent filter, four fluorescent images 5f to 5i shown in FIG. 5D are taken.

制御装置105は、まず、図5(a)に示す4枚の蛍光画像5a〜5dを、ナビゲーション範囲内におけるそれぞれの小領域の位置関係を保持したまま図5(b)のように並べて結合することによってタイリングを行う。これによって図5(c)に示すような第1の蛍光フィルタのマクロ位相差画像2eが生成される。次に、図5(d)に示す4枚の蛍光画像5f〜5iを、ナビゲーション範囲内におけるそれぞれの小領域の位置関係を保持したまま、図5(e)のように並べて結合することによってタイリングを行う。これによって図5(f)に示すような第2の蛍光フィルタのマクロ位相差画像2jが生成される。   First, the control device 105 joins the four fluorescent images 5a to 5d shown in FIG. 5A side by side as shown in FIG. 5B while maintaining the positional relationship of the respective small regions within the navigation range. Tiling by doing. As a result, a macro phase difference image 2e of the first fluorescent filter as shown in FIG. 5C is generated. Next, the four fluorescent images 5f to 5i shown in FIG. 5 (d) are aligned and joined as shown in FIG. 5 (e) while maintaining the positional relationship of the respective small regions within the navigation range. Do the ring. Thereby, a macro phase difference image 2j of the second fluorescent filter as shown in FIG. 5F is generated.

制御装置105は、このように生成したマクロ位相差画像と蛍光フィルタごとのマクロ蛍光画像とをPC109へ出力する。   The control device 105 outputs the macro phase difference image generated in this way and the macro fluorescence image for each fluorescence filter to the PC 109.

PC109においてCPUは、例えば図6に示すようなGUI画面(観察対象選択用画面)をモニタ110に表示する。使用者は、モニタ110上でこの観察対象選択用画面を操作することにより、マクロ位相差画像および複数の蛍光フィルタを使用して撮影した複数のマクロ蛍光画像に基づいて、次のように観察対象の細胞を選択する。なお、使用者はPC109が備えているマウスを操作することによって図6に示す観察対象選択用画面を操作する。また、図6の観察対象選択用画面については、本実施の形態に関連する項目についてのみ説明し、それ以外の項目については説明を省略する。   In the PC 109, the CPU displays a GUI screen (observation target selection screen) as shown in FIG. The user operates the observation target selection screen on the monitor 110, and based on the macro phase difference image and the plurality of macro fluorescent images photographed using the plurality of fluorescent filters, the observation target is as follows. Select cells. Note that the user operates the observation object selection screen shown in FIG. 6 by operating the mouse provided in the PC 109. Moreover, only the item relevant to this Embodiment is demonstrated about the observation object selection screen of FIG. 6, and description is abbreviate | omitted about the other item.

まず使用者は、観察対象選択用画面上で位相差画像表示ボタン6aを選択して、観察対象選択用画面上の画像表示領域6d内にマクロ位相差画像を表示する。使用者はこのマクロ位相差画像によって細胞の形状を確認することができる。そして、このマクロ位相差画像をベースとして、その上に任意の蛍光フィルタで撮影したマクロ蛍光画像(フィルタ画像)を重ね合わせて(重畳して)表示することができる。例えば、蛍光観察によって赤色に発光した画像を撮影したフィルタ画像をマクロ位相差画像に重ね合わせて表示する場合には、使用者は観察対象選択用画面上で赤色フィルタ画像表示ボタン6bを選択する。すなわち、位相差画像表示ボタン6aと赤色フィルタ画像表示ボタン6bとがいずれも選択された状態にすることで、画像表示領域6d内にベースとなるマクロ位相差画像上に赤色フィルタ画像を重ね合わせて表示することができる。   First, the user selects the phase difference image display button 6a on the observation object selection screen, and displays the macro phase difference image in the image display area 6d on the observation object selection screen. The user can confirm the shape of the cell from the macro phase contrast image. Then, on the basis of this macro phase difference image, a macro fluorescence image (filter image) photographed with an arbitrary fluorescence filter can be superimposed (superimposed) and displayed. For example, when a filter image obtained by photographing an image emitted in red by fluorescence observation is displayed superimposed on the macro phase difference image, the user selects the red filter image display button 6b on the observation target selection screen. That is, by setting both the phase difference image display button 6a and the red filter image display button 6b to be selected, the red filter image is superimposed on the base macro phase difference image in the image display area 6d. Can be displayed.

同様に、蛍光観察によって青色に発光した画像を撮影したフィルタ画像をマクロ位相差画像に重ね合わせて表示する場合には、使用者は観察対象選択用画面上で位相差画像表示ボタン6aと共に青色フィルタ画像表示ボタン6cを選択する。また、マクロ位相差画像に赤色フィルタ画像と青色フィルタ画像のいずれも重ね合わせて表示したい場合には、位相差画像表示ボタン6a、赤色フィルタ画像表示ボタン6b、および青色フィルタ画像表示ボタン6cを全て選択すればよい。   Similarly, when a filter image obtained by capturing an image emitted in blue by fluorescence observation is displayed superimposed on the macro phase difference image, the user can use the blue filter together with the phase difference image display button 6a on the observation target selection screen. The image display button 6c is selected. Further, when it is desired to display both the red filter image and the blue filter image on the macro phase difference image, the phase difference image display button 6a, the red filter image display button 6b, and the blue filter image display button 6c are all selected. do it.

例えば、図4に示したマクロ位相差画像4eに、図5に示した第1の蛍光フィルタ画像5eと第2のフィルタ画像5jを重ね合わせて表示した場合には、図7に示すような合成画像(重畳画像)が画像表示領域6d内に表示される。   For example, when the first fluorescent filter image 5e and the second filter image 5j shown in FIG. 5 are superimposed and displayed on the macro phase difference image 4e shown in FIG. 4, the composition as shown in FIG. An image (superimposed image) is displayed in the image display area 6d.

このように合成されたマクロ位相差画像と合成されたマクロ蛍光画像(フィルタ画像)とを重ね合わせて表示することによって、使用者は細胞の形状とともに蛍光試薬による蛍光状態を確認しながら、観察対象とする細胞の選択を行うことができる。具体的には、使用者は、画像表示領域6d内のマクロ画像上に表示されたカーソル6eを移動ボタン6fをマウスで操作して移動させ、本観察の観察対象とする細胞に当てた後、選択ボタン6gをマウスでクリックすることによって、本観察の観察対象とする細胞を選択する。使用者は、本観察の観察対象として複数の細胞を選択したい場合には、この処理を繰り返し行う。   By superimposing and displaying the synthesized macro phase difference image and the synthesized macro fluorescence image (filter image) in this way, the user can confirm the fluorescence state of the fluorescent reagent as well as the shape of the cell while observing the object. The cells to be selected can be selected. Specifically, the user moves the cursor 6e displayed on the macro image in the image display area 6d by operating the movement button 6f with the mouse and hits the cell to be observed in the main observation. By clicking the selection button 6g with a mouse, a cell to be observed in this observation is selected. When the user wants to select a plurality of cells as the observation target of the main observation, this process is repeated.

なお、観察対象選択用画面においても、図2および図3で上述したナビゲーション位置指定用画面と同様に、移動ボタン6fは円形状のボタンである。そして、マウスでクリックされたボタン上の位置に応じてカーソル6eの画面上での移動方向が決定され、マウスによる押下回数、または押下時間に応じてカーソル6eの画面上での移動量が決定される。   In the observation target selection screen, the movement button 6f is a circular button as in the navigation position designation screen described above with reference to FIGS. Then, the movement direction of the cursor 6e on the screen is determined according to the position on the button clicked with the mouse, and the movement amount of the cursor 6e on the screen is determined according to the number of times the mouse is pressed or the pressing time. The

使用者によって本観察の観察対象とする細胞が選択されると、CPUは、選択ボタン6gがクリックされた時点におけるカーソル6eの位置を特定する情報を本観察対象表示領域6h内に追加する。   When the user selects a cell to be observed in the main observation, the CPU adds information specifying the position of the cursor 6e at the time when the selection button 6g is clicked in the main observation target display area 6h.

これによって、使用者はモニタ110に表示されたマクロ画像を見ながら本観察前の準備段階として観察対象の細胞を選択することができ、細胞を選択するために透過光や励起光を細胞に長時間照射し続けなくても済むことになる。すなわち、励起光の照射時間も蛍光画像の撮影に必要な時間だけで済むことから、準備段階での細胞の光退色や光毒性によるダメージを最小限に抑えることができる。また、透過光の照射時間は位相差画像の撮影に必要な時間だけで済むことから、細胞が透過光によっても悪影響を受ける場合でも、この悪影響を最小限に抑えることができる。   As a result, the user can select a cell to be observed as a preparatory stage before the main observation while observing the macro image displayed on the monitor 110, and in order to select the cell, transmitted light or excitation light is applied to the cell. It will not be necessary to continue irradiation for hours. That is, since the irradiation time of the excitation light only needs to be a time necessary for taking a fluorescent image, damage due to photobleaching or phototoxicity of cells in the preparation stage can be minimized. Further, since the irradiation time of the transmitted light is only the time necessary for taking the phase difference image, even if the cell is adversely affected by the transmitted light, this adverse effect can be minimized.

その後、使用者がPC109を操作して本観察の開始を指示すると、CPUは、本観察対象表示領域6h内に表示された情報とともに本観察の実行指示信号を制御装置105へ出力する。例えば、使用者は、図6に示すタイムラプス実行ボタン6iをクリックすることによって、本観察対象表示領域6h内に表示されている選択済みの細胞に対する本観察の開始を指示する。   Thereafter, when the user operates the PC 109 to instruct the start of the main observation, the CPU outputs a main observation execution instruction signal to the control device 105 together with the information displayed in the main observation target display area 6h. For example, the user instructs the start of the main observation on the selected cells displayed in the main observation target display area 6h by clicking the time lapse execution button 6i shown in FIG.

制御装置105は本観察の実行指示信号が入力されると、観察対象の細胞に対して、例えばタイムラプス処理を実行して細胞の観察、すなわち本観察を行う。本観察の結果は制御装置105を介してPC109に出力され、観察データ(試験データ)がPC109内のハードディスクに記録され、同時にモニタ110に表示される。   When the execution instruction signal for the main observation is input, the control device 105 performs, for example, a time lapse process on the observation target cell to observe the cell, that is, the main observation. The result of this observation is output to the PC 109 via the control device 105, and observation data (test data) is recorded on the hard disk in the PC 109 and displayed on the monitor 110 at the same time.

図8は、本実施の形態における制御装置105の処理を示すフローチャートである。図8に示す処理は、使用者によってPC109が操作されて試験準備の開始が指示され、PC109から試験開始信号を受信すると起動するプログラムとして制御装置105によって実行される。   FIG. 8 is a flowchart showing processing of the control device 105 in the present embodiment. The process shown in FIG. 8 is executed by the control device 105 as a program that is activated when the user operates the PC 109 to instruct start of test preparation and receives a test start signal from the PC 109.

ステップS10において、PC109から上述したナビゲーション位置指定用画面上での移動ボタン2dの操作信号を受信したか否かを判断する。移動ボタン2dの操作信号を受信していないと判断した場合には、後述するステップS30へ進む。これに対して、移動ボタン2dの操作信号を受信したと判断した場合には、ステップS20へ進む。ステップS20では、移動ボタン2dの操作信号に基づいて、対物レンズ103を移動させてステップS30へ進む。   In step S10, it is determined whether or not the operation signal for the movement button 2d on the navigation position designation screen described above has been received from the PC 109. If it is determined that the operation signal of the movement button 2d has not been received, the process proceeds to step S30 described later. On the other hand, if it is determined that the operation signal for the movement button 2d has been received, the process proceeds to step S20. In step S20, the objective lens 103 is moved based on the operation signal of the movement button 2d, and the process proceeds to step S30.

ステップS30では、顕微鏡を位相差観察モードにセットし、対物レンズ103、カメラ104、およびシャッター107を制御して高倍率で撮影した位相差画像をPC109へ出力してステップS40へ進む。ステップS40では、PC109から上述したレシピが入力されたか否かを判断する。レシピが入力されていないと判断した場合には、ステップS10へ戻って処理を繰り返す。これに対して、レシピが入力されたと判断した場合には、ステップS50へ進む。   In step S30, the microscope is set in the phase difference observation mode, the objective lens 103, the camera 104, and the shutter 107 are controlled to output a phase difference image photographed at a high magnification to the PC 109, and the process proceeds to step S40. In step S40, it is determined whether or not the above-described recipe is input from the PC 109. If it is determined that no recipe has been input, the process returns to step S10 and the process is repeated. On the other hand, if it is determined that the recipe has been input, the process proceeds to step S50.

ステップS50では、レシピに格納されている撮影条件とナビゲーション範囲情報とを読み込んでステップS60へ進む。ステップS60では、ナビゲーション範囲3aの開始点を特定し、特定したナビゲーション範囲3aの開始点に対物レンズ103を移動させる。   In step S50, the shooting conditions and navigation range information stored in the recipe are read, and the process proceeds to step S60. In step S60, the start point of the navigation range 3a is specified, and the objective lens 103 is moved to the start point of the specified navigation range 3a.

その後、ステップ70へ進み、顕微鏡の位相差観察モードと蛍光観察モードとを切替ながら、上述したように対物レンズ103、カメラ104、透過光照明装置106、およびシャッター107を制御してナビゲーションを実行し、小領域ごとに位相差画像および蛍光画像を撮影する。このとき、撮影条件として複数の蛍光フィルタの種類が指定されている場合には、複数の蛍光フィルタを切り替えて、そのフィルタの種類ごとに蛍光画像を撮影する。その後、ステップS80へ進む。   Thereafter, the process proceeds to step 70, and navigation is performed by controlling the objective lens 103, the camera 104, the transmitted light illumination device 106, and the shutter 107 as described above while switching between the phase difference observation mode and the fluorescence observation mode of the microscope. A phase difference image and a fluorescence image are taken for each small area. At this time, when a plurality of fluorescent filter types are designated as the imaging conditions, the plurality of fluorescent filters are switched and a fluorescent image is captured for each type of filter. Thereafter, the process proceeds to step S80.

ステップS80では、ナビゲーション範囲3aの全範囲についてナビゲーションの実行が完了したか否かを判断する。ナビゲーションの実行が完了していないと判断した場合には、ステップS60へ戻って隣接する小領域を撮影するために対物レンズ103を移動させて処理を繰り返す。これに対してナビゲーションの実行が完了したと判断した場合には、ステップS90へ進む。   In step S80, it is determined whether or not navigation has been completed for the entire range of the navigation range 3a. If it is determined that the execution of navigation has not been completed, the process returns to step S60 and the objective lens 103 is moved in order to photograph the adjacent small area, and the process is repeated. On the other hand, if it is determined that the execution of navigation is completed, the process proceeds to step S90.

ステップS90では、ナビゲーションを実行して撮影した小領域ごとの位相差画像、および少なくとも1種類の蛍光フィルタで撮影した蛍光画像のそれぞれをタイリングして、上述したマクロ位相差画像およびマクロ蛍光画像を作成する。その後、ステップS100へ進み、作成したマクロ位相差画像およびマクロ蛍光画像をPC109へ出力して、ステップS110へ進む。   In step S90, the phase difference image for each small region captured by navigation and the fluorescence image captured by at least one type of fluorescent filter are tiled, and the above-described macro phase difference image and macro fluorescence image are obtained. create. Then, it progresses to step S100, the created macro phase difference image and macro fluorescence image are output to PC109, and it progresses to step S110.

ステップS110では、PC109から本観察の実行指示信号を受信したか否かを判断する。本観察の実行指示信号を受信したと判断した場合にはステップS120へ進み、PC109上で使用者によって選択された観察対象の細胞に対してタイムラプス処理を実行する。その後、ステップS130へ進み、タイムラプス処理の結果をPC109へ出力して、処理を終了する。   In step S110, it is determined whether an execution instruction signal for main observation is received from the PC 109 or not. When it is determined that the execution instruction signal for the main observation has been received, the process proceeds to step S120, and the time lapse process is executed on the observation target cell selected by the user on the PC 109. Thereafter, the process proceeds to step S130, the result of the time lapse process is output to the PC 109, and the process ends.

図9は、本実施の形態におけるPC109の処理を示すフローチャートである。図9に示す処理は、制御装置105から対物レンズ103で撮像された位相差画像、すなわち上述したLIVE画面2a内に表示する位相差画像が入力されると起動するプログラムとしてPC109が有するCPUによって実行される。   FIG. 9 is a flowchart showing the processing of the PC 109 in the present embodiment. The processing shown in FIG. 9 is executed by the CPU of the PC 109 as a program that is activated when a phase difference image captured by the objective lens 103 from the control device 105, that is, a phase difference image displayed in the above-described LIVE screen 2a is input. Is done.

ステップS200において、上述したナビゲーション位置指定用画面をモニタ110に表示してステップS210へ進む。ステップS210では、ナビゲーション位置指定用画面上の移動ボタン2dが操作されたか否かを判断する。移動ボタン2dが操作されていないと判断した場合には、後述するステップS240へ進む。これに対して、移動ボタン2dが操作されたと判断した場合には、ステップS220へ進む。   In step S200, the navigation position designation screen described above is displayed on monitor 110, and the flow proceeds to step S210. In step S210, it is determined whether or not the movement button 2d on the navigation position designation screen has been operated. If it is determined that the move button 2d has not been operated, the process proceeds to step S240 described later. On the other hand, if it is determined that the move button 2d has been operated, the process proceeds to step S220.

ステップS220では、移動ボタン2dの操作信号を制御装置105へ出力してステップS230へ進む。ステップS230では、移動後の対物レンズ103の位置に応じてLIVE画面2aおよびナビゲーション画面2b内の表示内容を更新してステップS240へ進む。   In step S220, the operation signal of the movement button 2d is output to the control device 105, and the process proceeds to step S230. In step S230, the display contents in the LIVE screen 2a and the navigation screen 2b are updated according to the position of the objective lens 103 after the movement, and the process proceeds to step S240.

ステップS240では、使用者によってLIVE画面2a上でナビゲーション位置2eが指定されたか否かを判断する。ナビゲーション位置2eが指定されていないと判断した場合には、ステップS210へ戻って処理を繰り返す。これに対して、ナビゲーション位置2eが指定されたと判断した場合には、ステップS250へ進む。ステップS250では、指定されたナビゲーション位置2eを中心とした隣接した周囲の所定範囲にナビゲーション範囲3aを設定してステップS260へ進む。ステップS260では、設定したナビゲーション範囲3aのナビゲーション範囲情報と撮影条件とを格納したレシピを作成し、レシピを制御装置105へ出力してステップS270へ進む。   In step S240, it is determined whether or not the navigation position 2e has been designated on the LIVE screen 2a by the user. If it is determined that the navigation position 2e is not designated, the process returns to step S210 and the process is repeated. On the other hand, if it is determined that the navigation position 2e is designated, the process proceeds to step S250. In step S250, the navigation range 3a is set to a predetermined adjacent range centered on the designated navigation position 2e, and the process proceeds to step S260. In step S260, a recipe storing the navigation range information and shooting conditions of the set navigation range 3a is created, the recipe is output to the control device 105, and the process proceeds to step S270.

ステップS270では、制御装置105から上述したマクロ位相差画像およびマクロ蛍光画像が入力されたか否かを判断する。これらの画像が入力されたと判断した場合にはステップS280へ進み、図6に示した観察対象選択用画面をモニタ110に表示してステップS290へ進む。ステップS290では、使用者によって観察対象選択用画面上で位相差画像表示ボタン6aが選択されることにより、マクロ位相差画像の表示が指示されたか否かを判断する。マクロ位相差画像の表示が指示されたと判断した場合には、ステップS300へ進み、観察対象選択用画面上の画像表示領域6d内にマクロ位相差画像を表示する。その後、ステップS310へ進む。   In step S270, it is determined whether or not the above-described macro phase difference image and macro fluorescence image are input from the control device 105. If it is determined that these images have been input, the process proceeds to step S280, the observation target selection screen shown in FIG. 6 is displayed on the monitor 110, and the process proceeds to step S290. In step S290, it is determined whether display of the macro phase difference image is instructed by the user selecting the phase difference image display button 6a on the observation target selection screen. If it is determined that the display of the macro phase difference image has been instructed, the process proceeds to step S300, and the macro phase difference image is displayed in the image display area 6d on the observation target selection screen. Thereafter, the process proceeds to step S310.

ステップS310では、使用者によって観察対象選択用画面上で蛍光フィルタの種類に応じた蛍光画像表示ボタンが選択されることにより、マクロ蛍光画像の表示が指示されたか否かを判断する。マクロ蛍光画像の表示が指示されていないと判断した場合には、後述するステップS330へ進む。これに対して、マクロ蛍光画像の表示が指示されたと判断した場合には、ステップS320へ進み、画像表示領域6d内に表示されているマクロ位相差画像に指示された蛍光フィルタのマクロ蛍光画像を重ね合わせて表示する。その後、ステップS330へ進む。   In step S310, it is determined whether the display of the macro fluorescent image is instructed by selecting the fluorescent image display button corresponding to the type of the fluorescent filter on the observation target selection screen by the user. If it is determined that the display of the macro fluorescent image is not instructed, the process proceeds to step S330 described later. On the other hand, if it is determined that the display of the macro fluorescent image is instructed, the process proceeds to step S320, and the macro fluorescent image of the fluorescent filter indicated in the macro phase difference image displayed in the image display area 6d is displayed. Overlay and display. Thereafter, the process proceeds to step S330.

ステップS330では、使用者によって観察対象の細胞が選択されたか否かを判断する。観察対象の細胞が選択されていないと判断した場合には、ステップS310へ戻って処理を繰り返す。これに対して観察対象の細胞が選択されたと判断した場合には、ステップS340へ進む。ステップS340では、使用者によって本観察の実行が指示されたか否かを判断する。本観察の実行が指示されたと判断した場合には、ステップS350へ進み、本観察の実行指示信号を制御装置105へ出力して処理を終了する。   In step S330, it is determined whether a cell to be observed has been selected by the user. If it is determined that the observation target cell is not selected, the process returns to step S310 and the process is repeated. On the other hand, if it is determined that the cell to be observed has been selected, the process proceeds to step S340. In step S340, it is determined whether or not the user has instructed execution of the main observation. If it is determined that the execution of the main observation has been instructed, the process proceeds to step S350, the execution instruction signal of the main observation is output to the control device 105, and the process is terminated.

以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)ナビゲーション位置指定用画面内にLIVE画面2aとナビゲーション画面2bとを2画面表示し、制御装置105から出力される位相差画像をLIVE画面2a内に表示し、観察可能範囲内におけるLIVE画面2a内に表示されている位相差画像の位置をナビゲーション画面2b内に表示するようにした。これによって、使用者は、対物レンズ103によって撮影されている位相差画像と、その撮影された位相差画像の観察可能範囲内での位置を同時に確認することができ、使用者の利便性が向上する。
According to the present embodiment described above, the following operational effects can be obtained.
(1) The LIVE screen 2a and the navigation screen 2b are displayed on the navigation position designation screen, the phase difference image output from the control device 105 is displayed in the LIVE screen 2a, and the LIVE screen within the observable range is displayed. The position of the phase difference image displayed in 2a is displayed in the navigation screen 2b. As a result, the user can simultaneously confirm the phase difference image captured by the objective lens 103 and the position of the captured phase difference image within the observable range, improving the convenience for the user. To do.

(2)ナビゲーション位置指定用画面上で使用者によって移動ボタン2dが操作され、LIVE画面2a内に表示する位相差画像の位置が移動された場合には、ナビゲーション画面2b内の表示内容を位相差画像の位置の移動に合わせて更新するようにした。これによって、使用者は、常にLIVE画面2a内に表示されている位相差画像の観察可能範囲内での最新の位置を把握することができる。 (2) When the movement button 2d is operated by the user on the navigation position designation screen and the position of the phase difference image displayed in the LIVE screen 2a is moved, the display content in the navigation screen 2b is changed to the phase difference. Updated to match the movement of the image position. Thus, the user can always grasp the latest position within the observable range of the phase difference image displayed in the LIVE screen 2a.

(3)ナビゲーション位置指定用画面内のLIVE画面2a上で、使用者によってナビゲーション位置2eが指定されると、ナビゲーション位置2eを中心としたナビゲーション位置2eに隣接する周囲の所定範囲をナビゲーション範囲3aとして設定するようにした。これによって、使用者はLIVE画面2a内に表示された位相差画像上で任意のナビゲーション位置2eを指定するだけで、その周囲を含むナビゲーション範囲3aを設定することができ、使用者の利便性が向上する。また、使用者はナビゲーション位置2eとして細胞が生育している地点を指定するだけで、その周囲の状況も把握できるようになり、周囲の状況を加味した観察対象の細胞の選択が容易に行えるようになる。さらに、周囲の状況を加味した観察領域の設定までも励起光を照射し、蛍光画像を取得せずに設定できるので、細胞への励起光の悪影響を低減できる。 (3) When the navigation position 2e is designated by the user on the LIVE screen 2a in the navigation position designation screen, a predetermined range around the navigation position 2e with the navigation position 2e as the center is set as the navigation range 3a. I set it. As a result, the user can set the navigation range 3a including the surroundings only by designating an arbitrary navigation position 2e on the phase difference image displayed in the LIVE screen 2a, which is convenient for the user. improves. Further, the user can grasp the surrounding situation only by designating the point where the cell is growing as the navigation position 2e, so that the cell to be observed can be easily selected in consideration of the surrounding situation. become. Furthermore, since it is possible to irradiate the excitation light up to the setting of the observation region in consideration of the surrounding situation and set it without acquiring the fluorescence image, the adverse effect of the excitation light on the cells can be reduced.

(4)LIVE画面2a内で指定されたナビゲーション位置2eと、その周囲に設定したナビゲーション範囲3aとをナビゲーション画面2b内に表示するようにした。これによって、使用者はナビゲーション位置2eおよびナビゲーション範囲3aの観察可能範囲内における位置をナビゲーション画面2bにより確認することができる。 (4) The navigation position 2e designated in the LIVE screen 2a and the navigation range 3a set around the navigation position 2e are displayed in the navigation screen 2b. Thereby, the user can confirm the position within the observable range of the navigation position 2e and the navigation range 3a on the navigation screen 2b.

(5)ナビゲーション範囲3a内の小領域ごとに、画像を撮影するために必要な時間だけ励起光を細胞に照射して蛍光画像を撮影し、撮影した小領域ごとの蛍光画像をタイリングしたマクロ蛍光画像を使用者に提供するようにした。これによって準備段階での細胞の光退色や光毒性によるダメージを最小限に抑えることができる。また、使用者は、励起光を照射し続けることによる細胞への悪影響を気にせずに、マクロ位相差画像上で時間をかけて観察対象の細胞を選択することができる。 (5) A macro in which a fluorescence image is captured by irradiating cells with excitation light for a time required to capture an image for each small region in the navigation range 3a, and the fluorescence image for each captured small region is tiled A fluorescent image was provided to the user. As a result, damage due to photobleaching and phototoxicity of cells at the preparation stage can be minimized. Further, the user can select a cell to be observed over time on the macro phase contrast image without worrying about the adverse effect on the cells caused by continuing to irradiate the excitation light.

(6)ナビゲーション範囲3a内の小領域ごとに、画像を撮影するために必要な時間だけ透過光を細胞に照射して位相差画像を撮影し、撮影した小領域ごとの位相差画像をタイリングしたマクロ位相差画像を使用者に提供するようにした。これによって、励起光だけではなく透過光を照射することによっても悪影響を受ける可能性がある細胞を観察する場合にも、透過光の照射による細胞への悪影響を最小限に抑えて位相差画像を撮影することができる。 (6) For each small region in the navigation range 3a, a cell is irradiated with transmitted light for a time required for capturing an image to capture a phase difference image, and the phase difference image for each captured small region is tiled. The macro phase contrast image is provided to the user. As a result, even when observing cells that may be adversely affected by irradiating transmitted light as well as excitation light, the phase difference image can be displayed with minimal adverse effects on the cells caused by irradiating transmitted light. You can shoot.

(7)対物レンズ103は、複数の蛍光フィルタを切り替えて蛍光観察を行えるようにし、カメラ104は、各蛍光フィルタごとに蛍光画像を撮影するようにした。これによって、複数の蛍光試薬で染色した多重染色の場合でも、蛍光色ごとの蛍光画像を撮影することができる。 (7) The objective lens 103 is configured to perform fluorescence observation by switching a plurality of fluorescence filters, and the camera 104 captures a fluorescence image for each fluorescence filter. Thereby, even in the case of multiple staining with a plurality of fluorescent reagents, a fluorescent image for each fluorescent color can be taken.

(8)ナビゲーションを実行して撮影したナビゲーション範囲3a内の小領域ごとの位相差画像および蛍光画像をそれぞれタイリングしてナビゲーション範囲内を撮影した1枚のマクロ画像を生成し、このタイリング画像をモニタ110に表示するようにした。これによって、使用者はナビゲーション範囲全体から観察対象の細胞を選択することができる。 (8) Tiling the phase difference image and the fluorescence image for each small area in the navigation range 3a photographed by executing navigation to generate one macro image photographing the navigation range, and this tiling image Is displayed on the monitor 110. As a result, the user can select cells to be observed from the entire navigation range.

(9)使用者は、モニタ110に表示された観察対象選択用画面上の画像表示領域6d内にマクロ位相差画像と、複数のマクロ蛍光画像のそれぞれとを重ね合わせて表示して、細胞を選択できるようにした。これによって、使用者は細胞の形状とともに蛍光試薬による蛍光状態を確認しながら、観察対象とする細胞の選択を行うことができる。 (9) The user superimposes and displays the macro phase difference image and each of the plurality of macro fluorescence images in the image display area 6d on the observation target selection screen displayed on the monitor 110 to display the cells. Enabled selection. Thereby, the user can select a cell to be observed while confirming the fluorescence state of the fluorescent reagent together with the shape of the cell.

―変形例―
なお、上述した実施の形態の細胞観察装置は、以下のように変形することもできる。
(1)上述した実施の形態では、モニタ110に表示された観察対象選択用画面上の画像表示領域6d内に位相差画像の上に複数の蛍光画像の少なくとも1つを重ね合わせて表示して細胞を選択できるようにした。しかしこれに限定されず、複数の蛍光画像のうち2枚以上を重ね合わせるようにしてもよい。また、画像表示領域6d内に表示したマクロ画像を拡大できるようにしてもよい。これによって、使用者はマクロ画像をさらに拡大して観察対象の細胞を容易に選択できるようになる。
-Modification-
In addition, the cell observation apparatus of embodiment mentioned above can also be deform | transformed as follows.
(1) In the above-described embodiment, at least one of a plurality of fluorescent images is superimposed and displayed on the phase difference image in the image display area 6d on the observation target selection screen displayed on the monitor 110. Allowed to select cells. However, the present invention is not limited to this, and two or more of the plurality of fluorescent images may be superimposed. Further, the macro image displayed in the image display area 6d may be enlarged. As a result, the user can further enlarge the macro image and easily select cells to be observed.

(2)上述した実施の形態では、ナビゲーション範囲に対してナビゲーション処理を実行して得た小領域ごとの位相差画像と蛍光画像とをそれぞれ合成してマクロ位相差画像とマクロ蛍光画像を生成する例について説明した。しかしながら、位相差画像または蛍光画像のいずれか一方のみを撮影するようにしてもよい。この場合、使用者は観察対象選択用画面上でマクロ位相差画像またはマクロ蛍光画像のいずれか一方のみを確認しながら本観察対象の細胞を選択すればよい。 (2) In the above-described embodiment, the macro phase difference image and the macro fluorescence image are generated by synthesizing the phase difference image and the fluorescence image for each small area obtained by executing the navigation process on the navigation range. An example was described. However, only one of the phase difference image and the fluorescence image may be taken. In this case, the user only has to select the cells to be observed while confirming only one of the macro phase difference image and the macro fluorescence image on the observation object selection screen.

(3)上述した実施の形態では、LIVE画面2a、ナビゲーション画面2b、および移動ボタン2dは、図2および図3に示すようにナビゲーション位置指定用画面上に配置される例について説明したが、これに限定されるものではない。すなわち、LIVE画面2a、ナビゲーション画面2b、および移動ボタン2dを他のレイアウトで配置してもよい。 (3) In the above-described embodiment, the example in which the LIVE screen 2a, the navigation screen 2b, and the movement button 2d are arranged on the navigation position designation screen as shown in FIGS. 2 and 3 has been described. It is not limited to. That is, the LIVE screen 2a, the navigation screen 2b, and the movement button 2d may be arranged in other layouts.

(4)上述した実施の形態では、使用者は図6に示す観察対象選択用画面上で観察対象の細胞を選択する例について説明したが、観察対象選択用画面のレイアウトも図6に示すものに限られない。 (4) In the above-described embodiment, the example has been described in which the user selects cells to be observed on the observation target selection screen shown in FIG. 6, but the layout of the observation target selection screen is also shown in FIG. 6. Not limited to.

(5)上述した実施の形態では、制御装置105が図8に示した処理を実行し、PC109が図9に示した処理を実行する例について説明した。しかしながら、制御装置105またはPC109のいずれか一方が図8および図9の処理を全て行うようにしてもよい。 (5) In the above-described embodiment, the example in which the control device 105 executes the process shown in FIG. 8 and the PC 109 executes the process shown in FIG. 9 has been described. However, either the control device 105 or the PC 109 may perform all of the processes in FIGS.

(6)上述した実施の形態では、本観察として観察対象の細胞に対してタイムラプス処理を実行する例について説明したが、本発明は、その他の観察方法による観察や試験を行う場合の前準備として対象の細胞を選択する場合にも適用可能である。 (6) In the above-described embodiment, an example in which time-lapse processing is performed on cells to be observed as the main observation has been described. However, the present invention is a preparation for performing observations and tests by other observation methods. The present invention can also be applied when selecting a target cell.

(7)上述した実施の形態では、細胞を観察対象とする場合について説明したが、本発明は、光を照射することによって観察することができ、かつ光を照射することによって悪影響が生じる可能性があるその他の観察対象、例えば鉱物などにも適用可能である。 (7) In the above-described embodiment, the case where a cell is an observation target has been described. However, the present invention can be observed by irradiating light, and adverse effects can be caused by irradiating light. It is also applicable to other observation objects such as minerals.

(8)上述した実施の形態では、ナビゲーション位置指定用画面上のLIVE画面2aには、カメラ104で撮影した位相差画像を表示する例について説明した。しかしこれに限定されず、微分干渉コントラスト法などの蛍光以外の他のコントラスト生成方法により撮影した画像を表示するようにしてもよい。 (8) In the above-described embodiment, the example in which the phase difference image captured by the camera 104 is displayed on the LIVE screen 2a on the navigation position designation screen has been described. However, the present invention is not limited to this, and an image captured by a contrast generation method other than fluorescence, such as a differential interference contrast method, may be displayed.

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.

細胞観察装置の構成を模式的に示す図である。It is a figure which shows the structure of a cell observation apparatus typically. ナビゲーション位置指定用画面の具体例を示す第2の図である。It is a 2nd figure which shows the specific example of the screen for navigation position designation | designated. ナビゲーション位置2eの指定例およびナビゲーション範囲3aの設定例を示す図である。It is a figure which shows the example of designation | designated of the navigation position 2e, and the example of a setting of the navigation range 3a. マクロ位相差画像の作成手順を模式的に示した図である。It is the figure which showed typically the preparation procedure of a macro phase difference image. マクロ蛍光画像の作成手順を模式的に示した図である。It is the figure which showed typically the preparation procedure of a macro fluorescence image. 観察対象選択用画面の具体例を示す第2の図である。It is a 2nd figure which shows the specific example of the screen for observation object selection. マクロ位相差画とマクロ蛍光画像とを重ね合わせた場合の具体例を示す図である。It is a figure which shows the specific example at the time of superimposing a macro phase contrast image and a macro fluorescence image. 制御装置105の処理を示すフローチャート図である。It is a flowchart figure which shows the process of the control apparatus 105. PC109の処理を示すフローチャート図である。It is a flowchart figure which shows the process of PC109.

符号の説明Explanation of symbols

100 細胞観察装置、101 ステージ、102 チャンバー、103 対物レンズ、104 カメラ、105 制御装置、106 透過光照明装置、107 シャッター、108 励起用光源装置、109 パーソナルコンピュータ(PC)、110 モニタ、111 環境制御装置、111a CO混合機、111b 湿度調整機、111c 温度調整機 100 cell observation device, 101 stage, 102 chamber, 103 objective lens, 104 camera, 105 control device, 106 transmitted light illumination device, 107 shutter, 108 excitation light source device, 109 personal computer (PC), 110 monitor, 111 environmental control Equipment, 111a CO 2 mixer, 111b humidity controller, 111c temperature controller

Claims (6)

観察対象物の像を小領域ごとに撮影するためのナビゲーション位置を使用者からの入力に基づいて特定する位置特定手段と、
前記位置特定手段で特定した前記ナビゲーション位置を中心とした前記ナビゲーション位置に隣接する周囲の所定範囲に観察対象領域を設定する制御手段とを備えることを特徴とする観察装置。
Position specifying means for specifying a navigation position for capturing an image of an observation object for each small area based on an input from a user;
An observation apparatus comprising: control means for setting an observation target region in a predetermined range around the navigation position centered on the navigation position specified by the position specifying means.
請求項1に記載の観察装置において、
前記観察対象領域内の前記小領域ごとに前記観察対象物の像を撮影する撮影手段と、
前記撮影手段による撮影時のみ前記観察対象物に光を照射する照明手段と、
前記撮影手段により小領域ごとに撮影した複数の画像をつなぎ合わせた結合画像を生成する画像結合手段とを備えることを特徴とする観察装置。
The observation apparatus according to claim 1,
Imaging means for capturing an image of the observation object for each of the small areas in the observation object area;
Illuminating means for irradiating the observation object with light only during photographing by the photographing means;
An observation apparatus comprising: an image combining unit that generates a combined image obtained by connecting a plurality of images captured for each small region by the imaging unit.
請求項1または2に記載の観察装置において、
使用者が前記ナビゲーション位置を特定するために使用する位置指定用画像と、前記ナビゲーション位置の前記対象物内における位置および前記観察対象領域の前記対象物内における位置とを表示する対象領域表示用画像とを2画面表示する画面表示手段をさらに備えることを特徴とする観察装置。
The observation apparatus according to claim 1 or 2,
A target area display image for displaying a position designation image used by a user for specifying the navigation position, a position of the navigation position in the target object, and a position of the observation target area in the target object. And a screen display means for displaying two screens.
請求項3に記載の観察装置において、
前記対象物は細胞であって、
前記位置指定用画像では、蛍光以外のコントラスト生成方法により観察して得られる細胞のリアルタイム画像であることを特徴とする観察装置。
The observation device according to claim 3,
The object is a cell;
The observation apparatus according to claim 1, wherein the position designation image is a real-time image of a cell obtained by observation by a contrast generation method other than fluorescence.
請求項4に記載の観察装置において、
前記照明手段は、前記細胞を位相差観察するための透過光、および前記細胞を蛍光観察するための励起光を異なるタイミングで照射し、
前記撮影手段は、前記細胞の位相差観察によって得られる位相差画像、および前記細胞の蛍光観察によって得られる蛍光画像を撮影することを特徴とする観察装置。
The observation apparatus according to claim 4,
The illumination means irradiates transmitted light for phase difference observation of the cells and excitation light for fluorescence observation of the cells at different timings,
The imaging device captures a phase difference image obtained by phase difference observation of the cells and a fluorescence image obtained by fluorescence observation of the cells.
コンピュータに、
観察対象物の像を小領域ごとに撮影するためのナビゲーション位置を使用者からの入力に基づいて特定する位置特定手順と、
前記位置特定手順で特定した前記ナビゲーション位置を中心とした前記ナビゲーション位置に隣接する周囲の所定範囲に観察対象領域を設定する制御手順とを実行させるための観察プログラム。
On the computer,
A position specifying procedure for specifying a navigation position for capturing an image of an observation object for each small area based on an input from a user;
An observation program for executing a control procedure for setting an observation target region in a predetermined range around the navigation position centered on the navigation position identified by the position identification procedure.
JP2006159270A 2006-06-08 2006-06-08 Observation device and observation program Active JP5034328B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006159270A JP5034328B2 (en) 2006-06-08 2006-06-08 Observation device and observation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006159270A JP5034328B2 (en) 2006-06-08 2006-06-08 Observation device and observation program

Publications (2)

Publication Number Publication Date
JP2007328135A true JP2007328135A (en) 2007-12-20
JP5034328B2 JP5034328B2 (en) 2012-09-26

Family

ID=38928654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006159270A Active JP5034328B2 (en) 2006-06-08 2006-06-08 Observation device and observation program

Country Status (1)

Country Link
JP (1) JP5034328B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009162974A (en) * 2008-01-07 2009-07-23 Olympus Corp Microscope system and its control method
JP2010181833A (en) * 2009-02-09 2010-08-19 Olympus Corp Microscopic observation system
JP2021518580A (en) * 2018-03-23 2021-08-02 ライカ マイクロシステムズ シーエムエス ゲゼルシャフト ミット ベシュレンクテル ハフツングLeica Microsystems CMS GmbH Microscope system and how to control such a microscope system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002011022A (en) * 2000-06-27 2002-01-15 Olympus Optical Co Ltd Microscope for operation
JP2002023063A (en) * 2000-07-07 2002-01-23 Nikon Corp Ultraviolet microscope and control method therefor
JP2002303801A (en) * 2001-04-05 2002-10-18 Matsushita Electric Ind Co Ltd Microobservation apparatus and microobservation method
JP2006023476A (en) * 2004-07-07 2006-01-26 Olympus Corp Confocal scanning type microscope
JP2006030583A (en) * 2004-07-15 2006-02-02 Olympus Corp Petri dish, chamber device, optical microscopic observation method, and sample analysis method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002011022A (en) * 2000-06-27 2002-01-15 Olympus Optical Co Ltd Microscope for operation
JP2002023063A (en) * 2000-07-07 2002-01-23 Nikon Corp Ultraviolet microscope and control method therefor
JP2002303801A (en) * 2001-04-05 2002-10-18 Matsushita Electric Ind Co Ltd Microobservation apparatus and microobservation method
JP2006023476A (en) * 2004-07-07 2006-01-26 Olympus Corp Confocal scanning type microscope
JP2006030583A (en) * 2004-07-15 2006-02-02 Olympus Corp Petri dish, chamber device, optical microscopic observation method, and sample analysis method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009162974A (en) * 2008-01-07 2009-07-23 Olympus Corp Microscope system and its control method
JP2010181833A (en) * 2009-02-09 2010-08-19 Olympus Corp Microscopic observation system
JP2021518580A (en) * 2018-03-23 2021-08-02 ライカ マイクロシステムズ シーエムエス ゲゼルシャフト ミット ベシュレンクテル ハフツングLeica Microsystems CMS GmbH Microscope system and how to control such a microscope system
JP7247210B2 (en) 2018-03-23 2023-03-28 ライカ マイクロシステムズ シーエムエス ゲゼルシャフト ミット ベシュレンクテル ハフツング Microscope system and method of controlling such microscope system

Also Published As

Publication number Publication date
JP5034328B2 (en) 2012-09-26

Similar Documents

Publication Publication Date Title
JP5157901B2 (en) Observation device
JP4917329B2 (en) Image acquisition apparatus, image acquisition method, and image acquisition program
JP4917330B2 (en) Image acquisition apparatus, image acquisition method, and image acquisition program
US20070058054A1 (en) Observation apparatus
JP2007328134A (en) Viewing apparatus and viewing program
US9829690B2 (en) Microscopic imaging device, microscopic imaging method, and microscopic imaging program
JP2008139796A (en) Fluorescence microscope, method of operating fluorescence microscope, fluorescence microscope operation program, computer-readable recording medium, and recorded equipment
JP2008139488A (en) Microscope device
JP2008139487A (en) Microscope device
JP6266302B2 (en) Microscope imaging apparatus, microscope imaging method, and microscope imaging program
US20070064101A1 (en) Observation apparatus
JP6327829B2 (en) Microscope control apparatus, microscope system, control method, and program
JP5034328B2 (en) Observation device and observation program
US8411357B2 (en) Motor-operated microscope system and software for controlling motor-operated microscopes
JP2014063041A (en) Imaging analysis apparatus, control method thereof, and program for imaging analysis apparatus
JP2015082099A (en) Control apparatus for controlling microscope, microscope system, control method, and program
JP2010078983A (en) Microscope system, program, and method thereof
JP2015219515A (en) Image display method, control device, and microscope system
JP6246551B2 (en) Controller, microscope system, control method and program
JP2019159092A (en) Microscope system, image analysis device and image analysis method
JP2008139489A (en) Microscope device
JP2009015301A (en) Microscope system
JP2008299027A (en) Microscope apparatus, its control program and control method
JP2015082102A (en) Microscope, microscope system, control method, and program
JP2010060791A (en) Microscope system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110905

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120618

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5034328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250