JP2003507766A - System and method for acquiring an image at a maximum acquisition speed while sequentially operating a microscope device asynchronously - Google Patents

System and method for acquiring an image at a maximum acquisition speed while sequentially operating a microscope device asynchronously

Info

Publication number
JP2003507766A
JP2003507766A JP2001517803A JP2001517803A JP2003507766A JP 2003507766 A JP2003507766 A JP 2003507766A JP 2001517803 A JP2001517803 A JP 2001517803A JP 2001517803 A JP2001517803 A JP 2001517803A JP 2003507766 A JP2003507766 A JP 2003507766A
Authority
JP
Japan
Prior art keywords
image
camera
image acquisition
speed
microscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001517803A
Other languages
Japanese (ja)
Inventor
グリーン,ダニエル,エム.
ペターソン,ウィリアム
コーエン,アブラム
スジャスタッド,マイケル,ディー.
スタッキー,ジェフリー,エー.
Original Assignee
ユニバーサル イメージング コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーサル イメージング コーポレーション filed Critical ユニバーサル イメージング コーポレーション
Publication of JP2003507766A publication Critical patent/JP2003507766A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Microscoopes, Condenser (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】 本発明は、自動化された(図5)顕微鏡システム(図1、項目100)、コンピュータ読み取り可能な媒体(図1、項目217)のコンピュータプログラム製品(図1、項目200及び245)、及び、カメラ(図1、項目130)の、実質的に最大速度で、取得されたイメージの様々なパラメータを可変し、取得パラメータにおける連続的な変化を示すシーケンスとして、取得されたイメージを表示(図1、項目231及び241)できるように、カメラと非同期に、カメラ(図1、項目130)の外部装置が動作している間、イメージを取得する方法を提供する。 SUMMARY OF THE INVENTION The present invention relates to an automated (FIG. 5) microscope system (FIG. 1, item 100), a computer program product (FIG. 1, item 200 and FIG. 1, item 217) of a computer readable medium (FIG. 1, item 217). 245) and varying the various parameters of the acquired image at substantially the maximum speed of the camera (FIG. 1, item 130) as a sequence showing a continuous change in the acquisition parameters. Are displayed (FIG. 1, items 231 and 241) so as to acquire an image asynchronously with the camera while the external device of the camera (FIG. 1, item 130) is operating.

Description

【発明の詳細な説明】関連した出願へのクロスリファレンス 本出願は、1999年8月13日に出願された米国仮出願No.60/148
,819について、優先権を主張するものである。 技術分野 本発明は、カメラを含む自動光学顕微鏡システムを使ったイメージの取得の分
野に関し、特には、取得されたイメージの様々なパラメータを変更し、取得パラ
メータにおける連続した変化を示すシーケンスとしてそのようなイメージを表示
するカメラと非同期に動作する、カメラの外部の装置としてのイメージ取得方法
及びシステムに関する。 背景技術 生きている細胞の研究を行うには、アプリケーションソフトウェアによって制
御された自動顕微鏡システムを使用することが必要である。細胞や組織の蛍光顕
微鏡を特に例に取れば、顕微鏡下の蛍光剤で着色された細胞のイメージを取る、
及び、これらの細胞に起こる空間的及び時間的変化に関する情報を抽出する方法
は様々なものが従来知られている。Taylor等のAMERICAN SCIENTIST 80(1992
)、p.322-335の論文は、多くのこれらの方法やこれらの応用を記載している。
これらの方法は、生きている細胞におけるこれらの分子の分布、量、生物化学環
境の空間的及び時間的解像イメージ測定を、処理や解析の後、得るように、蛍光
リポータ分子の準備のために特別に設計されている。
DETAILED DESCRIPTION CROSS REFERENCE TO RELATED APPLICATION This application is filed on Aug. 13, 1999, US Provisional Application No. 60/148
, 819 claims priority. TECHNICAL FIELD The present invention relates to the field of image acquisition using an automated optical microscope system including a camera, in particular as a sequence for changing various parameters of the acquired image and showing continuous changes in the acquisition parameters. Image acquisition method and system as an apparatus external to the camera that operates asynchronously with the camera that displays various images. BACKGROUND ART To study living cells requires the use of an automated microscopy system controlled by application software. Taking a fluorescence microscope of cells and tissues as an example, take an image of cells stained with a fluorescent agent under the microscope.
Various methods have been conventionally known for extracting information on spatial and temporal changes occurring in these cells. Taylor et al. AMERICAN SCIENTIST 80 (1992
), P. 322-335, describes many of these methods and their applications.
These methods provide for the preparation of fluorescent reporter molecules to obtain, after processing and analysis, spatial and temporal resolution image measurements of the distribution, abundance, and biochemical environment of these molecules in living cells. Specially designed for.

【0001】 自動顕微鏡システムに関しては、自動顕微鏡システムは、手元の特別な研究課
題に従って、様々な装置構成に様々な種類のカメラのいずれか及びハードウェア
装置の配列を構成するものであることは従来良く知られている。特に、自動光学
顕微鏡ハードウェアハードウェアシステム及びシステム構築の陳列のために便利
である標準的な教科書は、InoueとSpringによるVIDEO MICROSCOPY、2d Ed.,
1997であり、特に第5章を参照文献としてここに導入する。より一般的には、
自動イメージ取得及び3次元イメージビジュアリゼイションの記載は、John Ru
ssのTHE IMEGE PROCESSING HANDBOOK, 3d Ed., 1999, pp:1-86,617-688であり、
ここに参照する。
Regarding automatic microscope systems, it has traditionally been the case that an automatic microscope system configures any of various types of cameras and an array of hardware devices in various device configurations according to a special research problem at hand. Well known. A standard textbook that is especially useful for displaying automated optical microscope hardware hardware systems and system construction is VIDEO MICROSCOPY, 2d Ed., By Inoue and Spring.
1997, especially Chapter 5 is hereby incorporated by reference. More generally,
John Ru is the description of automatic image acquisition and 3D image visualization.
ss is THE IMEGE PROCESSING HANDBOOK, 3d Ed., 1999, pp: 1-86,617-688,
See here.

【0002】 また、良く知られているものとして、アプリケーションソフトウェアパッケー
ジが、装置システムが動作するイメージ取得及び処理のシーケンス、方法、機能
を制御し、特定することにより、特別の装置構成を補い、重ね合わせるものであ
る。ソフトウェアパッケージが呼び出される取得及び処理動作は、再び、手持ち
の特定の研究課題に依存している。Sluder & WolfのSalmonのMETHODS IN CELL B
IOLOGY, VOL. 56, ed. 1998, pp:185-215のA High-Resolusion Multimode Digit
al Microscope Systemという章は、顕微鏡を自動化し、カメラを制御するための
アプリケーションソフトウェアとともに、自動光学顕微鏡の顕微鏡、カメラ、Z
軸フォーカス装置を含む、ハードウェアシステムの設計について議論している。
Also, as is well known, an application software package controls and specifies a sequence, method and function of image acquisition and processing in which a device system operates, thereby supplementing a special device configuration and overlapping. It is a match. The acquisition and processing operations by which the software package is invoked again depend on the particular research task in hand. Sluder &Wolf's Salmon METHODS IN CELL B
IOLOGY, VOL. 56, ed. 1998, pp: 185-215 A High-Resolusion Multimode Digit
The al Microscope System chapter describes the application software for automating the microscope and controlling the camera, as well as the microscope, camera, Z
The design of the hardware system, including the axis focus device, is discussed.

【0003】 顕微鏡システムを自動化する既存のアプリケーションソフトウェアは、動作の
ホストを方向付け、制御することができ、以下のものを含む。 勧告標準(Recommended Standards)(“RS”)−170ビデオ装置、チャ
ージカップルドデバイス、NTSC及びPALビデオソースからのイメージ取得
、 露光時間、ゲイン、アナログ−デジタル変換時間、各放射及び/あるいは励起
波長におけるカメラのセッティングのためのピクセル当たりのビットの設定、 アナログ−デジタル変換器からの取得されたイメージのデジタル化の駆動、 TIFF、BMP及び他の標準ファイルフォーマットなどの様々なフォーマッ
トの取得されたイメージの格納、 顕微鏡の光照射の駆動、 記録され、一回のクリックでプレイバックが可能なプログラムのユーザが特定
したシーケンスからマクロを生成する機能の提供、 スタックの中でイメージを配列し、3次元構築を行い、スタックをディスクに
格納し、イメージを高品質化し、画像をはっきりさせ、演算を行い、イオンの濃
度をイメージ化し、強度の変化をグラフにする割合、及び時間方向のイオンの濃
度の割合などのイメージパラメータを解析するなどの、スタックと呼ばれる関連
イメージのグループに関する特定の処理を行う。
Existing application software that automates microscope systems is capable of directing and controlling a host of operations, including: Recommended Standards (“RS”)-170 Video Equipment, CH
Image capture from NTSC and PAL video sources, exposure time, gain, analog-to-digital conversion time, bit per pixel setting for camera settings at each emission and / or excitation wavelength, analog- Driving the digitization of the acquired image from the digital converter, storing the acquired image in various formats such as TIFF, BMP and other standard file formats, driving the light illumination of the microscope, recording and one-time Provides a function to generate macros from user-specified sequences of programs that can be played back by clicking, arrange images in a stack, perform 3D construction, store the stack on disk, and improve the image quality. , Clear the image, perform the calculation, The imaged, the rate to the change in intensity in the graph, and the like for analyzing the image parameters such as the percentage of the concentration in the time direction of the ions, the specific processing for a group of related images called stack performed.

【0004】 顕微鏡システムを自動化する、広く使われている、従来のアプリケーションソ
フトウェアの例としては、Universal Imaging Corporation, West Chester, PA
から得られる、異なる機能を持つ関連アプリケーションプログラムの集団である
Meta Imaging Series(TM)がある。例えば、汎用の多目的イメージ取得、処理ア
プリケーションを欲するユーザは、MetaMorph(TM)アプリケーションプログラム
を使用するであろうし、細胞間イオン測定のratiometric解析を行う必要のある
ユーザは、MetaFluor(TM)を使用するであろう。
An example of widely used conventional application software for automating microscope systems is Universal Imaging Corporation, West Chester, PA.
Is a group of related application programs with different functions obtained from
There is Meta Imaging Series (TM). For example, general-purpose multipurpose image acquisition and processing
Users who want applications, MetaMorph (TM) application program
Would need to perform ratiometric analysis of intercellular ion measurements
Users will use MetaFluor (TM).

【0005】 上記の従来のアプリケーションソフトウェアが自動顕微鏡システムが行える様
にする動作のリストにも関わらず、従来のアプリケーションソフトウェアは、イ
メージのグループを得るように、そして、同時に、焦点位置及び放射及び/ある
いは励起波長などの取得パラメータを得るように、そして、これらのパラメータ
の連続的な変化を示すシーケンスとしてプレイバックをイメージの取得されたグ
ループについて行うようにパラメータを変化させるように自動顕微鏡システムを
駆動することはしていない。すなわち、従来のアプリケーションソフトウェアは
、イメージ取得パラメータの制御をする外部装置を、システムパラメータが連続
的に変化するシーケンスとして表示するイメージのグループを得るために、カメ
ラと非同期に動作させることができない。
Despite the list of operations that the above-mentioned conventional application software allows an automated microscope system to do, the conventional application software is able to obtain a group of images and at the same time focus position and radiation and / or Alternatively, drive an automated microscope system to obtain acquisition parameters such as the excitation wavelength, and to vary the parameters so that playback is performed on the acquired group of images as a sequence showing a continuous variation of these parameters. I haven't done it. That is, conventional application software cannot operate an external device that controls image acquisition parameters asynchronously with the camera to obtain a group of images to display as a sequence of continuously changing system parameters.

【0006】 イメージが、顕微鏡システムの特定のパラメータの連続変化を表示するシーケ
ンスとしてプレイバックできるように生物現象が生じるに従って、非同期にイメ
ージのグループを取得することは、生きている細胞の研究に非常に重要である。
本発明の細胞研究に対する重要性は、巨視的な生物系の研究に対する時間経過写
真撮影の重要性になぞらえることができる。しかし、より明快には、本発明は、
生物構造及び処理の細胞レベルでのイメージの取得の時間経過写真撮影に似てい
る方法である問うことのみではない。細胞構造及び機構のイメージを処理する従
来のアプリケーションソフトウェアを使用することによって、研究者は、時間以
外のシステムパラメータの中断なしの変化を示すイメージの連続的流れを観察す
ることができない。本発明は、イメージ取得の間、研究者が対物レンズの位置及
び、放出及び/あるいは励起波長などのパラメータを変化させることを可能とし
、プレイバックの時に、イメージの取得された集合を連続変化としてこの変化を
表示させるものである。本発明を使用することによる利益を得る研究の種類の特
定の例としては、生きているT細胞からB細胞への細胞−(免疫細胞)相互作用
の間、細胞表面のタンパク質の吸着の動きを観察し、細胞に入れられた化学物質
の拡散のソフトウェアモデルを評価するものを含む。
[0006] Acquiring groups of images asynchronously as biological phenomena occur so that the images can be played back as a sequence displaying continuous changes in certain parameters of the microscope system is very important for the study of living cells. Is important to.
The importance of the present invention for cell studies can be compared to that of time-lapse photography for the study of macroscopic biological systems. But more clearly, the present invention
It is not only the method of time-lapse photography of the acquisition of images at the cellular level of biological structure and processing that is more than just questioning. By using conventional application software to process images of cell structure and mechanics, researchers are unable to observe a continuous stream of images showing uninterrupted changes in system parameters other than time. The present invention allows the investigator to change the position of the objective lens and parameters such as emission and / or excitation wavelengths during image acquisition, and during playback, the acquired set of images can be continuously changed. This change is displayed. Specific examples of the types of studies that would benefit from using the present invention include the movement of cell surface protein adsorption during cell- (immune cell) interactions from living T cells to B cells. Includes those that observe and evaluate software models of diffusion of chemicals entrapped in cells.

【0007】 以下の技術的問題は、光学顕微鏡システムを自動化する従来のアプリケーショ
ンソフトウェアによっては解決されないままである。特に、光学顕微鏡システム
に於いて、取得の最高速度に近い動作で、カメラの外部装置がイメージ取得の様
々なパラメータの設定を連続的に変化させながらカメラを使ってイメージをどの
ように得るかと言う点である。本発明は、この技術的問題を、自動光学顕微鏡シ
ステムにおけるカメラと外部装置が、非同期に、すなわち、互いに独立に、イメ
ージ取得の間、動作し、従って、イメージ取得パラメータの連続的変化を示すシ
ーケンスとして表示するイメージの取得をカメラに可能とするようなコンピュー
タ化された方法を提供することによって解決される。 本発明の実現する最良の形態定義 スタック。これが使われる場合、スタックは、イメージ処理の余地がある1取
得イベントの間本発明の方法によって取得されたイメージの全集合を指す。
The following technical problems remain unsolved by conventional application software that automates optical microscopy systems. Especially in an optical microscope system, how to obtain an image by using the camera while the external device of the camera continuously changes the setting of various parameters of the image acquisition in the operation close to the maximum acquisition speed. It is a point. The present invention addresses this technical problem by a sequence in which the camera and the external device in an automated optical microscope system operate asynchronously, ie, independently of each other, during image acquisition and thus exhibit a continuous change in image acquisition parameters. It is solved by providing a computerized method that allows the camera to acquire an image to display as. The best form definition stack realized by the present invention. When this is used, the stack refers to the entire set of images acquired by the method of the present invention during one acquisition event, which leaves room for image processing.

【0008】 焦点面。これが使われる場合、焦点面は、興味の対象が観測され、バーチャル
焦点に入れられる縦方向の位置である。 Z位置。これが使われる場合、Z位置は、興味の対象が観測され、バーチャル
焦点に入れられる縦方向の位置である焦点面を指す。Z位置は、対物レンズ配置
器を動かす、あるいは、光学顕微鏡のステージムーバを動かすことによって変え
られるイメージ取得パラメータである。
Focal plane . When this is used, the focal plane is the vertical position at which the object of interest is observed and put into virtual focus. Z position . When this is used, the Z position refers to the focal plane, which is the vertical position at which the object of interest is observed and put into virtual focus. The Z position is an image acquisition parameter that can be changed by moving the objective locator or moving the stage mover of the optical microscope.

【0009】 イメージ取得パラメータ。これが使われる場合、イメージ取得パラメータは、
Z位置及び、励起波長及び放射波長のいずれかあるいは両方を含む照射波長を含
む。
Image acquisition parameters . When this is used, the image acquisition parameters are
The Z position and the irradiation wavelength including either or both of the excitation wavelength and the emission wavelength are included.

【0010】 ピエゾフォーカサ。これが使われる場合、ピエゾフォーカサは、1〜2ミリ秒
の範囲のスピードで焦点位置を変化させるように動作するピエゾエレクトリック
対物レンズ配置器の短縮語である。
Piezo focus . When this is used, piezofocuser is a shorthand term for piezoelectric objective lens displacers that operate to change the focus position at speeds in the range of 1-2 ms.

【0011】 非同期動作。これが使われる場合には、非同期動作は、対物レンズ配置器、ス
テージムーバ及び/あるいは、波長可変器などの外部装置がそれぞれが制御する
特定のイメージ取得パラメータを可変している間、カメラが同時にイメージ取得
の動作を行うことを意味する。
Asynchronous operation . When this is used, asynchronous operation allows the camera to simultaneously image while the external device, such as the objective locator, stage mover, and / or wavelength tunable device, varies certain image acquisition parameters controlled by each. It means to perform acquisition operation.

【0012】 フレーム間時間。これが使われる場合には、フレーム間時間は、1つのフレー
ムの撮像の終わりから次のフレームの撮像の始まりまでの間の時間である。ラス
タスキャンビデオカメラにおいては、これは、1つのフレームの再度のデジタル
スキャンラインのラスタスキャンと次のフレームのデジタルスキャンラインのラ
スタスキャンの間の時間である。フルフレームCCDカメラの場合、これは、フ
ルフレームの読み出し時間である。フレームトランスファーCCDカメラの場合
には、これは、フレームトランスファーシフト時間である。本発明の概観 本発明は、カメラの外の装置が取得パラメータを可変する間カメラの実質最大
取得速度でイメージの取得を行う、方法、コンピュータ読み取り可能な媒体、及
び自動光学顕微鏡システムを提供する。そのようにして得られたイメージのスタ
ックは、イメージ取得パラメータの連続変化を示すイメージのシーケンスとして
表示される。本発明は、カメラがフレームイメージの集合の各フレームを取得し
ている間に、イメージ取得パラメータを変化させるように外部装置を駆動するの
であって、カメラがそのフレームを撮り終わるのを外部装置に待たせるのではな
く、カメラと外部装置は非同期に動作する。言葉を変えて言うと、本発明は、外
部装置を例えば、顕微鏡対物レンズの焦点位置、放射及び/あるいは励起波長あ
るいは顕微鏡ステージの位置などのこれらが制御するイメージ取得パラメータを
カメラがイメージを取得している間に、可変するように駆動する。
Interframe time . If this is used, the interframe time is the time between the end of the imaging of one frame and the beginning of the imaging of the next frame. In a raster scan video camera, this is the time between the raster scan of the digital scan line again in one frame and the raster scan of the digital scan line in the next frame. For a full frame CCD camera, this is the full frame readout time. In the case of a frame transfer CCD camera, this is the frame transfer shift time. Overview of the Invention The present invention provides a method, a computer-readable medium, and an automated optical microscopy system that captures an image at a substantially maximum acquisition rate of the camera while a device outside the camera varies the acquisition parameters. The stack of images so obtained is displayed as a sequence of images showing a continuous change in image acquisition parameters. The present invention drives an external device to change the image acquisition parameters while the camera captures each frame of a set of frame images, and the external device waits for the camera to finish capturing the frame. Instead of having to wait, the camera and the external device work asynchronously. In other words, the present invention allows the camera to capture an image from external equipment, such as the focus position of the microscope objective, the emission and / or excitation wavelength, or the position of the microscope stage, which they control. While driving, drive so that it can change.

【0013】 本発明の方法は、以下のステップを含む。 a)自動顕微鏡、カメラ、及びカメラの外部の装置であって、焦点面、励起波
長及び/あるいは放射波長及び、コンピュータのイメージ取得パラメータを可変
し、従って、カメラと非同期にイメージを取得するように外部装置を駆動するも
のからなるイメージ取得システムを構成する b)カメラの実質的に最大イメージ取得速度に近い速度でイメージを取得し、
取得されたイメージをデジタルデータとして格納する。
The method of the present invention includes the following steps. a) an automatic microscope, a camera, and a device external to the camera, wherein the focal plane, the excitation wavelength and / or the emission wavelength, and the image acquisition parameters of the computer are varied so that the image is acquired asynchronously with the camera. Configuring an image acquisition system consisting of driving an external device b) acquiring images at a speed substantially close to the maximum image acquisition speed of the camera,
Store the captured image as digital data.

【0014】 c)イメージの取得及び格納の間、少なくとも1つの前記外部装置を動作させ
、少なくとも1つのイメージ取得パラメータを変化させる。 本発明の方法は、ブライトフィールド、蛍光、ダークフィールド、位相コント
ラスト、干渉及び差分干渉コントラスト(DIC)を含む、広い範囲の顕微鏡モ
ードの下に使用可能である。本発明の方法の実施形態の一つは、情報処理システ
ムに存在する命令の集合となる。他の本発明の方法の実施形態は、コンピュータ
読み取り可能な媒体に存在する命令の集合となる。
C) Operating at least one said external device and changing at least one image acquisition parameter during image acquisition and storage. The method of the present invention can be used under a wide range of microscope modes, including bright field, fluorescence, dark field, phase contrast, interference and differential interference contrast (DIC). One of the embodiments of the method of the present invention is a set of instructions existing in the information processing system. Another embodiment of the method of the invention is a collection of instructions residing on a computer-readable medium.

【0015】 スタックと呼ばれるイメージのグループが、焦点位置の可変が行われ、そのよ
うにして得られたイメージのグループがZ位置の連続的変化を示すシーケンスと
して表示されるように取得されることが本発明の特徴である。イメージのスタッ
クが放射及び/あるいは励起波長が可変され、イメージのグループが、放射及び
/あるいは励起波長の連続変化を示すシーケンスとして表示されるように取得さ
れることは本発明の他の特徴である。イメージのスタックが、焦点位置及び放射
及び/あるいは励起波長のような様々な取得パラメータが一緒に変化され、イメ
ージのグループが、様々な選択された取得パラメータにおいて連続的に変化を示
すシーケンスとして表示されるように、取得されることも本発明の更なる特徴で
ある。本発明の他の実施形態の特徴は、定期的な時間間隔において、イメージの
スタックが、様々なイメージパラメータが同時に可変され、イメージのスタック
がシーケンスとして、時間方向に連続的に変化し、取得パラメータが連続的に変
化するように表示されるように取得されることである 本発明の利点は、イメージのスタックは、問題の細胞機構、プロセス、及び/
あるいは、構造が、細胞への化学物質の導入、あるいは細胞分裂などの生物学的
イベントの間、3次元的描写を可能にすることである。更なる利点は、イメージ
の多重スタックは、イメージ取得パラメータが変化する間、及び選択された時間
間隔に渡って、興味の生物学的イベントの3次元描写を可能にすることである。 システムの一般的構成 図1〜4及び以下の議論は、本発明の例示的光学顕微鏡システムを記述するこ
とを意図したものである。本発明のシステムは、本発明の方法を実行する情報処
理サブシステムからなる自動光学顕微鏡システムからなる。この方法は、システ
ムの顕微鏡の外部装置がイメージ取得パラメータを変えている間にカメラの実質
最大取得速度でイメージを取得することからなる。
[0015]   A group of images, called a stack, has a variable focus position.
A sequence of groups of images obtained in this way showing a continuous change of the Z position and
It is a feature of the present invention that the information is acquired and displayed. Image stack
The wavelengths of the radiation and / or the excitation wavelength are tuned so that a group of images
/ Or acquired to be displayed as a sequence showing a continuous change in excitation wavelength
What is provided is another feature of the present invention. Image stack has focus position and radiation
And / or various acquisition parameters, such as excitation wavelength, are changed together,
Groups of images show continuous changes in various selected acquisition parameters.
It is a further feature of the present invention that it can be acquired, as displayed as a sequence.
is there. Another feature of another embodiment of the invention is that the image is captured at regular time intervals.
The stack is a stack of images where various image parameters can be changed simultaneously.
As a sequence changes continuously in the time direction, and the acquisition parameter changes continuously.
Is to be acquired so that it is displayed as   The advantage of the present invention is that the stack of images is
Alternatively, the structure is such that a chemical substance is introduced into a cell, or a biological condition such as cell division.
It is to enable a three-dimensional depiction during the event. Further benefits are images
Multiple stacks of are used during image acquisition parameter changes and at selected times.
To enable a three-dimensional depiction of a biological event of interest over an interval. General system configuration   1-4 and the following discussion describe an exemplary optical microscopy system of the present invention.
It is intended to be. The system of the present invention is an information processing system for performing the method of the present invention.
It consists of an automatic optical microscope system consisting of a processing subsystem. This method is
Of the camera while an external device of the microscope on the system is changing the image acquisition parameters.
It consists of acquiring images at maximum acquisition speed.

【0016】 当業者は、本発明は、パーソナルコンピュータシステム、マイクロプロセッサ
、携帯装置、マルチプロセッサシステム、ミニコンピュータ、メインフレームコ
ンピュータ等を含む様々な情報処理構成によって実現できることが理解されるで
あろう。更に、当業者によれば、本発明は、通信ネットワークを介して接続され
たあるいは、ソフトウェア方法がアクセスされ、使用されるインターネットで接
続されたサーバに接続されたローカルあるいはリモート処理装置によって問題が
処理される分散計算機環境によって実現されることが理解されるであろう。
Those skilled in the art will appreciate that the present invention can be implemented in various information processing configurations, including personal computer systems, microprocessors, handheld devices, multiprocessor systems, minicomputers, mainframe computers, and the like. Furthermore, according to the person skilled in the art, the present invention allows the problem to be handled by a local or remote processing device connected via a communication network or connected to a server connected via the internet where the software method is accessed and used. It will be appreciated that it is implemented by a distributed computing environment.

【0017】 更に、当業者によれば、特定の研究目標及びニーズは、特に、これらの目標は
、生物学的イベントの間、生きている細胞のイメージ処理を関係付けるので、自
動光学顕微鏡システムに使用される構成や特定の装置を使用することが理解され
るであろう。本発明のプログラムモジュールを使用するイメージ処理システムの
要素は、顕微鏡、カメラ、本発明のプログラムモジュールの命令に従ったイメー
ジ処理の手段、及び、少なくとも一つの、顕微鏡の外部で、少なくとも1つのイ
メージ処理パラメータを可変する手段を備える。
Furthermore, according to those skilled in the art, specific research goals and needs, in particular for automated light microscopy systems, as these goals relate to the imaging of living cells during biological events. It will be appreciated that the configuration used and the particular device used. The elements of the image processing system using the program module of the present invention include a microscope, a camera, means for image processing according to the instructions of the program module of the present invention, and at least one image processing outside the microscope. A means for changing the parameters is provided.

【0018】 図1は、本発明の例示的システムのブロック図であり、光学顕微鏡サブシステ
ム100及び情報処理サブシステム200を有している。同図では、顕微鏡サブ
システム100は、その最も全体的なパーツに関して記載されており、限定とし
て解釈されるべきではない。
FIG. 1 is a block diagram of an exemplary system of the present invention, which includes an optical microscope subsystem 100 and an information processing subsystem 200. In the figure, the microscope subsystem 100 is described in terms of its most general parts and should not be construed as limiting.

【0019】 例示的顕微鏡サブシステム100は、ここでは、図示目的で垂直顕微鏡として
示されている光学顕微鏡160を備えている。顕微鏡160の外部の装置は、エ
ピイルミネーション部材104、放射波長可変器120及びカメラ130を含ん
でいる。顕微鏡160は、伝送光源106を含む部材106〜110−例えば、
ハロゲンランプ、伝送光シャッタ108、及びコンデンサ110を含む伝送光照
射アーム102からなっている。顕微鏡160は、また、接眼レンズ122、ス
テージ126及び対物レンズ124を備えている。
The exemplary microscope subsystem 100 comprises an optical microscope 160, shown here as a vertical microscope for illustration purposes. The external device of the microscope 160 includes the epi-illumination member 104, the emission wavelength tunable device 120, and the camera 130. Microscope 160 includes members 106-110 including transmitted light source 106-e.g.,
The transmission light irradiation arm 102 includes a halogen lamp, a transmission light shutter 108, and a condenser 110. The microscope 160 also includes an eyepiece lens 122, a stage 126, and an objective lens 124.

【0020】 エピイルミネーション部材104は、図示の目的で、蛍光ランプ112、シャ
ッタ114及び励起波長可変器116を含む、エピイルミネーション抗原112
を含む部材112〜116を含んでいる。カメラ130は、顕微鏡サブシステム
100及び情報処理システム200の両方に接続されている。
The epi-illumination member 104 includes, for purposes of illustration, an epi-illumination antigen 112 that includes a fluorescent lamp 112, a shutter 114 and an excitation wavelength tunable device 116.
The members 112 to 116 are included. The camera 130 is connected to both the microscope subsystem 100 and the information processing system 200.

【0021】 図1に示されている情報処理サブシステム200は、ここでは、パーソナルコ
ンピュータ211として描かれている、中央処理ユニット213、ハードドライ
ブ215、CD−ROM217、フロッピー(登録商標)ドライブ219、グラ フィックアダプタ221、イーサネット(登録商標)ネットワークカード223 、コンピュータ211とカメラ130をインターフェースするPCIカード22 5及びピエゾエレクトリック対物レンズ配置器(図3の340)を制御するデジ タル−アナログ変換器[DAC]カード227及び、顕微鏡サブシステム100 に含まれる場合には、励起波長可変器(図1の116、図3の316)と同じ目 的のモノクロメータ蛍光照射器(不図示)からなる例示的コンピュータ211を 備えている。情報処理システム200の周辺機器は、グラフィックディスプレイ モニタ231及びビデオモニタ241を含む。アプリケーションソフトウェア2 45顕微鏡サブシステム100の構成要素の制御を可能にし、特に、イメージ取 得及び処理と共に、照射、焦点及びカメラを制御する。本発明の方法は、アプリ ケーションソフトウェア245のプログラムモジュールとして動作する。
The information processing subsystem 200 shown in FIG. 1 is depicted here as a personal computer 211, a central processing unit 213, a hard drive 215, a CD-ROM 217, a floppy (registered trademark) drive 219, Graphic adapter 221, Ethernet (registered trademark) network card 223, PCI card 225 for interfacing the computer 211 and camera 130, and a digital-analog converter [DAC] card for controlling the piezo electric objective lens arrangement device (340 in FIG. 3). 227 and, if included in the microscope subsystem 100, an exemplary computer 211 comprising a monochromator fluorescence illuminator (not shown) for the same purpose as the excitation tunable device (116 in FIG. 1, 316 in FIG. 3). hand There is. Peripheral devices of the information processing system 200 include a graphic display monitor 231 and a video monitor 241. The application software 245 enables control of the components of the microscope subsystem 100, in particular controlling the illumination, focus and camera, as well as image acquisition and processing. The method of the present invention operates as a program module of application software 245.

【0022】 図2は、情報処理サブシステム200と光学顕微鏡サブシステム100の例示
的実施形態の間の例示的ハードウェア接続構成の図示的表現である。図2は、パ
ーソナルコンピュータ211の形式のコンピュータの実施形態である。コンピュ
ータ211の後ろ側251は、様々なシリアル及びパラレルポート251,26
1、271、281及び291と物理的接続253、263、273、283、
及び293を示しており、コンピュータ211が光学顕微鏡サブシステム100
の様々な外部装置と通信し、制御するようになっている。図示のポート及び接続
は、カメラ(図1の130、図3の330)に接続する接続253とつながるポ
ート251、放射及び/あるいは励起波長変換器(図1の116及び120、図
3の320)を接続する接続263へのポート261、外部シャッタ(図1の1
14、図3の314)に接続する接続273へのポート271、ピエゾエレクト
リック対物配置器(図3の340)を接続する接続283へのポート281、及
び、ステージムーバ(図3の336)へ接続する接続293へのポート291を
含んでいる。
FIG. 2 is a pictorial representation of an exemplary hardware connection configuration between the information processing subsystem 200 and the exemplary embodiment of the optical microscope subsystem 100. FIG. 2 is an embodiment of a computer in the form of a personal computer 211. The rear side 251 of the computer 211 has various serial and parallel ports 251, 26
1, 271, 281, and 291 and physical connections 253, 263, 273, 283,
And 293, the computer 211 displays the optical microscope subsystem 100.
It is designed to communicate with and control various external devices. The ports and connections shown are the connection 253 connecting to the camera (130 in FIG. 1, 330 in FIG. 3) and the port 251 connected to the emission and / or excitation wavelength converter (116 and 120 in FIG. 1, 320 in FIG. 3). Port 261 to connection 263, external shutter (1 in FIG. 1).
14, a port 271 to a connection 273 connecting to 314) of FIG. 3, a port 281 to a connection 283 connecting a piezo electric objective disposition device (340 of FIG. 3), and a stage mover (336 of FIG. 3). Includes port 291 to connection 293.

【0023】 図3は、本発明の方法を実現するのに使用される、光学顕微鏡サブシステム3
00の他の実施形態の模式的図である。図3の詳細は、図1に示される顕微鏡サ
ブシステム100のブロック図のそ速度同様であるが、図3は、本発明のシステ
ムに使用される顕微鏡とカメラ間の関係をより図示目的で表示している。
FIG. 3 illustrates an optical microscope subsystem 3 used to implement the method of the present invention.
FIG. 50 is a schematic view of another embodiment of No. 00. The details of FIG. 3 are similar to the speed of the block diagram of the microscope subsystem 100 shown in FIG. 1, but FIG. is doing.

【0024】 図3の顕微鏡サブシステム300は、図示目的の、エピイルミネーション部材
304、放射波長変換器320及びカメラ330を含む顕微鏡320の外部の装
置と共に反転顕微鏡として示される顕微鏡360を備えている。顕微鏡360は
、ハロゲンランプ306とシャッタ308として例示されている光源306を備
える伝送光照射アーム320を備える。エピイルミネーション部材304は、こ
こでは、蛍光ランプ312、エピイルミネーションシャッタ314及び励起波長
変換器316として例示されているエピイルミネーション光源312からなって
いる。
The microscope subsystem 300 of FIG. 3 comprises, for illustration purposes, a microscope 360, shown as an inverted microscope, with devices external to the microscope 320 including an epi-illumination member 304, an emission wavelength converter 320 and a camera 330. Microscope 360 includes a transmitted light illumination arm 320 that includes a halogen lamp 306 and a light source 306 illustrated as a shutter 308. The epi-illumination member 304 comprises an epi-illumination light source 312, illustrated here as a fluorescent lamp 312, an epi-illumination shutter 314 and an excitation wavelength converter 316.

【0025】 観察されるべき試料332は、機構ステッパモータ336として、図3に記載
されている、ステージムーバ336によって垂直に上下に移動する顕微鏡ステー
ジ326が配置されている。ピエゾエレクトリック対物レンズ配置器340は、
対物レンズ324を覆い、試料332を視野焦点に入れたり出したりするために
、垂直上下にレンズ324を移動させる。回転するノーズピース342は、1以
上の対物レンズ324が載せられている。
The sample 332 to be observed has a microscope stage 326 as a mechanical stepper motor 336, which is vertically movable by a stage mover 336 shown in FIG. The piezo electric objective lens placement device 340 is
The lens 324 is moved vertically up and down to cover the objective lens 324 and bring the sample 332 into and out of the field focus. One or more objective lenses 324 are mounted on the rotating nosepiece 342.

【0026】 カメラ330は、カメラポート350によって、顕微鏡サブシステム300に
接続されている。放射波長変換器320は、顕微鏡360とカメラ330の間に
配置されている。
The camera 330 is connected to the microscope subsystem 300 by a camera port 350. The emission wavelength converter 320 is arranged between the microscope 360 and the camera 330.

【0027】 図4は、本発明のシステムに使用される顕微鏡460の実施形態の図示的表示
である。伝送光照射アーム402は、伝送光406を収容し、コンデンサ410
を含んでいる。研究者は、ステージ426に置かれた試料432を、接眼レンズ
422を通して見て、図4に粗/精密フォーカシングノブ436として示される
ステージムーバ436を操作することによって、手動で焦点に持ってくることが
できる。もし必要なら、ステッパモータ(不図示)に、ステージ動作を機構化す
るために、フォーカシングノブ436を取り付けても良い。
FIG. 4 is a pictorial representation of an embodiment of a microscope 460 used in the system of the present invention. The transmitted light irradiation arm 402 accommodates the transmitted light 406 and has a condenser 410.
Is included. The researcher can manually bring the sample 432 placed on the stage 426 into focus by looking through the eyepiece 422 and manipulating the stage mover 436, shown as coarse / fine focusing knob 436 in FIG. You can If necessary, a stepper motor (not shown) may be fitted with a focusing knob 436 to mechanize the stage motion.

【0028】 エピイルミネーション光源、シャッタ及び、励起波長変換器(全て不図示)を
含むエピイルミネーション部材(不図示)は、回転するノーズピース442と対
物レンズ424の後ろに顕微鏡460に取り付けても良い。ピエゾエレクトリッ
ク対物レンズ配置器(不図示)は、対物レンズ424の上に密着しても良い。放
射波長変換器(不図示)は、顕微鏡460とカメラ(不図示)を接続するカメラ
ポート450に接続される。自動顕微鏡システムの動作 図3を続けて参照すると、自動顕微鏡システム300は、本発明の方法に従っ
て、光学顕微鏡360を介して見られるようにイメージを取得し、これらのイメ
ージをデジタルデータとして、取得カメラ330の最大取得速度あるいはこれに
近い速度で記録する。同時にこの方法は、外部装置340、336、316及び
320をイメージ取得に関連したパラメータ、すなわち、試料の焦点面及び/あ
るいは、励起及び/あるいは放射波長を変更するように駆動する。焦点面は、興
味の対象が観察され、視野の焦点に持ってこられる垂直位置である。焦点面は、
対物レンズ324(対物レンズ配置器340を使って)あるいは、ステージ32
6(ステージムーバ336を使って)のいずれかの垂直位置を可変する事によっ
て、変えられる。ここで使われるように、Z位置という語は、対物レンズ配置器
340あるいはステージムーバ336のいずれかによって可変される焦点面を示
す。
An epi-illumination member (not shown) including an epi-illumination light source, a shutter, and an excitation wavelength converter (all not shown) may be attached to the microscope 460 behind the rotating nosepiece 442 and objective lens 424. A piezo electric objective lens arrangement device (not shown) may be closely attached onto the objective lens 424. An emission wavelength converter (not shown) is connected to the camera port 450 that connects the microscope 460 and a camera (not shown). Operation of the Automatic Microscopy System Continuing to refer to FIG. 3, the automatic microscopy system 300, according to the method of the present invention, acquires images as seen through the optical microscope 360 and captures these images as digital data in an acquisition camera. The maximum acquisition speed of 330 or a speed close to this is recorded. At the same time, the method drives the external devices 340, 336, 316 and 320 to change the parameters related to image acquisition, ie the focal plane of the sample and / or the excitation and / or emission wavelength. The focal plane is the vertical position at which the object of interest is observed and brought to the focus of the field of view. The focal plane is
Objective lens 324 (using objective lens positioner 340) or stage 32
It can be changed by changing the vertical position of any one of 6 (using the stage mover 336). As used herein, the term Z position refers to the focal plane that is varied by either the objective locator 340 or the stage mover 336.

【0029】 従って、本発明のシステム300は、カメラ300の最大速度、あるいはそれ
に近い速度でイメージ取得の間にカメラ300と外部装置340、336、31
6、及び320を非同期に動作させることにより、本発明の方法を行わせるよう
な命令のプログラムされたセットを有することによって、イメージを取得する機
能を果たす。上述したように、外部装置340、336、316及び320は、
対物レンズ324を垂直に上下する対物レンズ配置器340、顕微鏡ステージ3
26を垂直に上下するステージムーバ336及び試料を励起するのに使用される
光の波長を変え、及び/あるいは、試料332から放射される光をフィルタリン
グする波長可変器316及び320を含んでいる。
Accordingly, the system 300 of the present invention allows the camera 300 and the external devices 340, 336, 31 to be used during image acquisition at or near the maximum speed of the camera 300.
Operating 6 and 320 asynchronously serves the function of acquiring an image by having a programmed set of instructions to perform the method of the present invention. As mentioned above, the external devices 340, 336, 316 and 320 are
Objective lens placement device 340 for vertically moving the objective lens 324, and microscope stage 3
It includes a stage mover 336 that vertically moves 26 up and down and wavelength tunable devices 316 and 320 that change the wavelength of the light used to excite the sample and / or filter the light emitted from the sample 332.

【0030】 本発明がどのように動作するかを理解するために、生きている細胞物質の観察
は、観測される処理が起きる速度い対応する速度で行われなければならないこと
を覚えておくことが重要である。例えば、カメラ330は、ミリ秒のリアルタイ
ムで細胞レベルで生物学的イベントのイメージを取得しなければならない。カメラ、自動顕微鏡及び外部装置の相互動作 生きている細胞及び組織のイベントを観察するには、顕微鏡サブシステム30
0は、カメラ330がイメージを本質的に2次元「スナップショット」として、
問題の3次元の生きている構成の異なる深さで取得するようにセットアップ、す
なわち、構成される。対物レンズ324の垂直位置を変えるのは、効果としては
、細胞内の2次元の「スナップショット」が撮られる焦点の深さが変わるという
ことである。焦点の深さを変えることは、文字通り、異なる細胞構成と細胞の異
なる深さでのプロセスの知覚状態を変えることである。対物レンズ324が位置
を変える度に、異なる焦点が結ばれ、内部の細胞構造の異なる視覚的知見をもた
らす。焦点の垂直位置が変化する度にカメラから素早く「スナップショット」を
えると、プレイバックされたとき、研究者は、例えば、細胞の上面から下面(あ
るいはその反対)と見ることができるイメージのシーケンスあるいはムービーと
して表示される「写真」の集合となる。垂直位置(及び/あるいは 以下に議論
するように、選択された波長)の特定数についてシステム300で撮られたイメ
ージの集合はスタックである。
To understand how the present invention works, keep in mind that observations of living cellular material must be made at a corresponding rate to the rate at which the observed process occurs. is important. For example, the camera 330 must capture an image of biological events at the cellular level in milliseconds real time. Interaction of cameras, automated microscopes and external devices To observe live cell and tissue events, the microscope subsystem 30
0 means that the camera 330 is essentially a two-dimensional “snapshot” of the image,
Set up, or configured, to capture at different depths of the three-dimensional live configuration of interest. Changing the vertical position of the objective lens 324 has the effect, in effect, of changing the depth of focus at which a two-dimensional "snapshot" within the cell is taken. Changing the depth of focus literally changes the perceptual state of processes at different cell configurations and different depths of cells. Each time the objective lens 324 changes position, it is focused differently, providing different visual insights into the internal cell structure. Taking a quick “snapshot” from the camera each time the vertical position of the focal point changes, a sequence of images that, when played back, allows a researcher to see, for example, the top to the bottom of a cell (or vice versa). Alternatively, it is a set of “photos” displayed as a movie. The collection of images taken by system 300 for a particular number of vertical positions (and / or selected wavelengths, as discussed below) is a stack.

【0031】 例えば、研究者が、細胞の外壁の膜、あるいはその上で起きるイベントを観察
したいと思うときは、例えば、研究者は、まず、手動で、機構336を動かし、
ステージ326を細胞の外壁膜が視野の焦点の垂直位置にくるようにすることに
よって、顕微鏡300を目で焦点合わせをする。それから、カメラ330は、細
胞の膜のイメージを取得し、研究者は、対物レンズ324を動かすことによって
、焦点位置を変える選択をすることができる。本発明のシステムでは、本発明の
ソフトウェア方法は、ピエゾエレクトリック対物配置器340、以後ピエゾフォ
ーカサと呼ぶ、と呼ばれる機構装置を対物レンズ324を垂直に動かして、細胞
膜内の異なる深さに焦点を結ばせる。対物レンズ324が移動する各位置は、当
該技術分野でZ位置と呼ばれる。細胞研究のためのZ位置間の距離は、ナノメー
タであるので、対物レンズをピエゾエレクトリック機構で動かすと、微細な動作
と、機械的スリップなしに必要な配置ができ、典型的には、2ミリ秒(ms)の
速度で移動する。これは、ほとんどの場合、カメラ330が異なる焦点深さにお
いて、イメージのスタックを取得し、スタックが、プレイバックの時に、細胞膜
上の起こっている生物学的イベントを素早く表示するのに十分である。
For example, when a researcher wants to observe an event that occurs at or on the outer wall membrane of a cell, for example, the researcher first manually moves the mechanism 336,
The microscope 300 is visually focused by positioning the stage 326 so that the outer wall of the cell is in the vertical position of the focus of the field of view. The camera 330 then captures an image of the cell's membrane and the investigator can choose to change the focus position by moving the objective lens 324. In the system of the present invention, the software method of the present invention moves the objective lens 324 vertically to move a mechanism called a piezoelectric objective 340, hereafter referred to as piezofocuser, to focus on different depths in the cell membrane. To tie. Each position that the objective lens 324 moves is referred to in the art as the Z position. The distance between the Z positions for cell studies is nanometers, so moving the objective lens with a piezoelectric mechanism allows for fine movement and the required placement without mechanical slip, typically 2 mm. Move at a speed of seconds (ms). This is sufficient, in most cases, for the camera 330 to acquire a stack of images at different depths of focus, the stack being able to quickly display the biological events taking place on the cell membrane during playback. .

【0032】 対物レンズ324のZ位置を変えるのに加え、サブシステム300も、イメー
ジのスタックの取得の間、試料332を照射するのに使用される光の波長を可変
するように構成することができる。生きている細胞物質の細胞の構造、プロセス
及びイベントは、蛍光化学物質あるいはタンパク質プローブを導入することによ
って、蛍光顕微鏡を使ってしばしば観測される。更に、蛍光顕微鏡を使って問題
を解決する能力は、蛍光着色された試料を励起するのに使用される光の波長をシ
ステマチックに変える、あるいは、試料から放出される光をフィルタリングする
ことによって改良される。
In addition to changing the Z position of objective lens 324, subsystem 300 may also be configured to tune the wavelength of light used to illuminate sample 332 during acquisition of a stack of images. it can. Cellular structures, processes and events of living cellular material are often observed using fluorescence microscopy by introducing fluorescent chemicals or protein probes. Furthermore, the ability to solve problems using fluorescence microscopy is improved by systematically changing the wavelength of the light used to excite the fluorescently colored sample or by filtering the light emitted from the sample. To be done.

【0033】 異なるfluorophore、蛍光化学物質、あるいは蛋白質分子は、光の特定の波長
の電磁放射を吸収し、励起され、光の特定の波長の蛍光を放射する。更に、異な
る蛍光染料で着色された細胞の構成は、光の異なる波長範囲の蛍光によって励起
され、これを放射する。蛍光着色された試料に照射される励起光の波長あるいは
、カメラ330によってとらえられる放射光の波長を限定あるいはフィルタリン
グすることによって、研究者は、異なる細胞構造あるいは細胞イベントを時間及
び細胞あるいは組織の異なる深さにおいて観察することができる。更に、蛍光励
起及び/あるいは放射波長をそのように限定しあるいはフィルタリングすること
によって、研究者は、選択された細胞構造に注目することができ、あるいは、細
胞構成内の条件を測定することができる。
Different fluorophore, fluorescent chemistries, or protein molecules have different wavelengths of light.
Absorbs the electromagnetic radiation of and is excited to emit fluorescence of a specific wavelength of light. In addition, the constituents of cells colored with different fluorescent dyes are excited by and radiate by fluorescence in different wavelength ranges of light. By limiting or filtering the wavelength of the excitation light that illuminates the fluorescently colored sample or the wavelength of the emitted light that is captured by the camera 330, researchers can identify different cell structures or cell events at different times and cells or tissues. It can be observed in depth. Furthermore, by so limiting or filtering the fluorescence excitation and / or emission wavelengths, the investigator can focus on the selected cell structure or measure conditions within the cell composition. .

【0034】 例えば、外部の細胞膜の近くにある細胞小器官を蛍光染料Aで着色し、細胞核
にあるクロロサムを蛍光染料Bで着色することによって、研究者は、両細胞小器
官を含む異なる細胞イベントに注目したイメージのスタックを得ることができる
。これは、蛍光染料の性質によるものである。つまり、例えば、蛍光染料Aは、
波長Aで励起され、蛍光染料Bは、波長Bで励起されるからである。カメラ33
0で2次元「スナップショット」を撮りながら、励起波長AとBの間を行ったり
来たりと切り替えることによって、研究者は、プレイバックしたときに、波長B
のみ、波長Aのみあるいは両方の波長によって励起された構造を表示するための
処理のためのイメージのスタックを作ることができ、複合的な細胞イベントから
興味のあるだた一つのエレメント内の変化を切り出すことができる。このコンセ
プトは、カメラがテレビのスクリーンの写真を各チャネルのスイッチングの後に
写真をとりながら、リモコンを使って、チャネル間を行ったり来たりと急いで切
り替えることに似ている。
For example, by staining the organelles near the outer cell membrane with fluorescent dye A and the chlorosam in the cell nucleus with fluorescent dye B, researchers have shown that different cellular events involving both organelles are involved. You can get a stack of images focused on. This is due to the nature of fluorescent dyes. That is, for example, the fluorescent dye A is
This is because it is excited at the wavelength A and the fluorescent dye B is excited at the wavelength B. Camera 33
By taking a two-dimensional "snapshot" at 0 and switching back and forth between excitation wavelengths A and B, the researchers can
Can be made into a stack of images for processing to display structures excited by only wavelength A, only wavelength A, or both wavelengths, allowing changes in only one element of interest from complex cellular events. It can be cut out. The concept is similar to a camera taking a picture of a television screen after switching each channel, and then using the remote control to quickly switch back and forth between channels.

【0035】 励起あるいは放射波長を変えるときには、ある波長可変器は、1.2msの速
度で動作する。多くのカメラでは、プレイバックの時に、1以上の細胞エレメン
トあるいは生物学的プロセスを含む生物学的イベントが急速に起こっているのを
スタックが表示するために、異なる波長でイメージのスタックをカメラ330に
取得させるのに充分高速である 本発明のシステムは、カメラ330がイメージを取得している間に、Z位置と
波長の両方を変えるようにセットアップする。研究者がZ位置と波長の両方を変
える選択をした時は、本発明の方法は、まず、ピエゾフォーカサ340を駆動し
て、対物レンズ324を新しいZ位置に動かし、次に、波長可変器316及び/
あるいは320を駆動して、新しい波長に切り替える。カメラ330が選択され
た波長のそれぞれにおいてイメージを取得するのを終了した後においてのみ、こ
の方法では、ピエゾフォーカサ340は、新しいZ位置に移動するように駆動さ
れる。理論的には、この方法により、研究者は、切り替える波長としてどの様な
数のものでも選択できる。本発明の実施形態によれば、研究者は、4つの異なる
波長を選択できる。
When changing the excitation or emission wavelength, some tunable devices operate at a speed of 1.2 ms. In many cameras, a stack of images at different wavelengths can be viewed by the camera 330 at playback time so that the stack shows a rapidly occurring biological event involving one or more cellular elements or biological processes. The system of the present invention, which is fast enough to cause the image acquisition, is set up to change both the Z position and the wavelength while the camera 330 is acquiring the image. When the investigator chooses to change both the Z position and the wavelength, the method of the present invention first drives the piezofocuser 340 to move the objective lens 324 to the new Z position and then the tunable device. 316 and /
Alternatively, drive 320 to switch to a new wavelength. Only after the camera 330 has finished acquiring images at each of the selected wavelengths, in this method, the piezofocuser 340 is driven to move to the new Z position. Theoretically, this method allows the researcher to choose any number of wavelengths to switch. Embodiments of the present invention allow researchers to select four different wavelengths.

【0036】 上述したように、ピエゾフォーカサ340は、対物レンズ324のZ位置を3
msで変える能力があり、波長可変器316及び/あるいは320は、1.2m
sで波長を変える能力があるので、サブシステム300のシステム限定の構成要
素は、ほとんどの場合カメラ330である。究極的には、カメラ330がイメー
ジを取得する速度は外部装置340、336、316あるいは320が次のイメ
ージが取得される前に各パラメータを変える十分な時間があるかどうかによって
決められる。方法/システムの動作原理 本質的には、本発明の方法は、カメラ330の取得速度と、プレイバックした
場合、選択されたパラメータが連続的に変化する表示ができるイメージのスタッ
クを得るために、ピエゾフォーカサ340、ステージムーバ336、波長可変器
316及び/あるいは320の動作速度間の違いに依存している。本発明の原理
的動作原理は、カメラ330がイメージをもっと遅く、あるいは、ほとんど外部
装置が動作する程度の速度でイメージを得る場合、ピエゾフォーカサ340及び
波長可変器316及び/あるいは320は、カメラが次のイメージを得始める前
に、それぞれZ位置及び波長を変えることができる。別の言い方をすれば、カメ
ラ330は、Z位置及び波長が、次の取得されたイメージがこれらの変化値をと
らえ、表示できる程度に充分速く変化するために、外部装置340、336、3
16及び/あるいは320よりもマージン分のみ遅いべきである。
As described above, the piezofocuser 340 sets the Z position of the objective lens 324 to 3 degrees.
The wavelength tunable device 316 and / or 320 has a capacity of 1.2 m
Due to its ability to change wavelength in s, the system-specific component of subsystem 300 is most often camera 330. Ultimately, the speed at which the camera 330 acquires an image is determined by whether the external device 340, 336, 316 or 320 has sufficient time to change each parameter before the next image is acquired. Method / System Principles of Operation In essence, the method of the present invention provides a stack of images that can be displayed at the acquisition speed of the camera 330 and, when played back, with continuously changing selected parameters. It depends on the difference between the operating speeds of the piezofocuser 340, the stage mover 336, the wavelength tunable device 316 and / or 320. The principle of operation of the present invention is that the piezofocuser 340 and the wavelength tunable devices 316 and / or 320 can be used by the camera 330 when the camera 330 acquires the image at a slower speed or at a speed at which most external devices operate. The Z position and the wavelength can be changed before each starts to acquire the next image. Stated differently, the camera 330 uses the external devices 340, 336, 3 in order to change the Z position and wavelength fast enough for the next captured image to capture and display these change values.
It should be slower than 16 and / or 320 by a margin.

【0037】 本発明の方法の第2の原理的動作原理は、イメージ取得は、ピエゾフォーカサ
340、ステージムーバ336、波長可変器316及び/あるいは320が、カ
メラ330と非同期に動作する間に起きるものである。非同期動作は、ピエゾフ
ォーカサ340、ステージムーバ336、波長可変器316及び/あるいは32
0が、Z位置及び/あるいは波長が変わる前に、撮像されたイメージの読み出し
が終わる信号を待たないことを意味する。非同期動作は、カメラ読み出しの間の
、外部装置は、次の必要な波長に切り替えるか及び/あるいは焦点面を次の必要
なZ位置まで移動するかのいずれかである。他言すれば、カメラ330と外部装
置340、336、316及び320は、多かれ少なかれ同時に動作しており、
シーケンシャルに動作するものではない。これとは反対に、シーケンシャルに、
すなわち、同期して動作は、外部装置340、336、316及び/あるいは3
20は、事実、カメラ330がパラメータを変える信号を受信する前に取得と読
み出しを完了するまで待つ。同期動作は、従って、サブシステム300の全体の
取得速度を遅くし、従って、本発明の主目的である、カメラ330の最高取得速
度で、あるいは、それに近い速度でイメージを取得することができなくなる。カメラとイメージ取得速度の根拠 本発明のこれら本質的動作原理の文脈と根拠を提供するために、以下の項では
、簡単に、カメラによるイメージ取得について議論する。カメラによるイメージ
取得は、Inoue and Spring, Video Miroscopy, 2d. Edition, 1997の特に第5
章に十分に記載されており、参照文献として導入する。カメラは、フォトセンシ
ティブな面に照射された光学イメージを電気信号のシーケンスに変換し、ビデオ
信号を生成するものである。北米(NTSC)フォーマットを使用するカメラで
は、1/30秒毎に525横スキャンラインを含む長方形のページで有るかのよ
うに、光学イメージはサンプリングされ、すなわち、先頭から末尾まで、左から
右に読み出される。これは、ラスタスキャン読み出しシーケンスと呼ばれる。ヨ
ーロッパ(PAL)フォーマットを使用するカメラでは、読み出し速度は、1/
25秒毎に525横スキャンラインである。これらの数字は、以下の標準に変換
される。NTSCフォーマットのカメラでは、33ミリ秒毎に1フレームが読み
出され、PALフォーマットカメラでは、40ミリ秒毎に1フレーム読み出され
る。これらの標準読み出し速度は、ビジコンチューブカメラや固体カメラであろ
うと、ビデオレートカメラの広い範囲に渡って成り立つものである。後者のカメ
ラは光検出にフォトダイオードを使用する。ラスタスキャンビデオカメラでは、
フレーム間時間は、1フレームの最後のデジタルスキャンラインのラスタスキャ
ンと次のフレームの最初のデジタルスキャンラインのラスタスキャンの間の時間
である。
A second principle of operation of the method of the present invention is that image acquisition occurs while the piezofocuser 340, stage mover 336, tunable device 316 and / or 320 operate asynchronously with the camera 330. It is a thing. Asynchronous operation includes piezofocuser 340, stage mover 336, wavelength tunable device 316 and / or 32.
0 means do not wait for a signal to finish reading the imaged image before changing Z position and / or wavelength. Asynchronous operation is that during camera readout, the external device either switches to the next required wavelength and / or moves the focal plane to the next required Z position. In other words, the camera 330 and the external devices 340, 336, 316 and 320 are operating more or less simultaneously,
It does not work sequentially. Contrary to this, sequentially,
That is, the operation is synchronized with the external devices 340, 336, 316 and / or 3.
The 20 in effect waits until the camera 330 completes the acquisition and readout before receiving a signal changing parameters. Synchronous operation thus slows down the overall acquisition speed of subsystem 300, and thus, is unable to acquire images at or near the maximum acquisition speed of camera 330, which is the main object of the present invention. . Basis for Camera and Image Acquisition Speed To provide context and rationale for these essential operating principles of the present invention, the following section briefly discusses image acquisition by a camera. Image acquisition by a camera is described in Inoue and Spring, Video Miroscopy, 2d. Edition, 1997, especially No. 5.
It is fully described in the chapter and is incorporated by reference. The camera converts the optical image illuminated on the photosensitive surface into a sequence of electrical signals to produce a video signal. For cameras using the North American (NTSC) format, the optical image is sampled as if it were a rectangular page containing 525 horizontal scanlines every 1/30 second, ie, from start to end, left to right. Read out. This is called a raster scan read sequence. For cameras using the European (PAL) format, the read speed is 1 /
There are 525 horizontal scan lines every 25 seconds. These numbers are converted to the following standards. The NTSC format camera reads one frame every 33 milliseconds, and the PAL format camera reads one frame every 40 milliseconds. These standard read speeds hold across a wide range of video rate cameras, whether they are vidicon tube cameras or solid state cameras. The latter camera uses a photodiode for light detection. With a raster scan video camera,
The interframe time is the time between the raster scan of the last digital scan line of one frame and the raster scan of the first digital scan line of the next frame.

【0038】 固体フォトダイオードカメラの1種類として、チャージカップルドデバイス (CCD)カメラがある。そのようなカメラのチャージカップルドデバイスは、
シリコン基板上に配置されたフォトダイオードの巨大な長方形配列からななって
いる。各フォトダイオードは、チャネルストップによって隣と電気的に分けられ
、孤立化したセンサ素子である。露光の時間の間、光子は、フォトダイオードに
降り注ぎ、各フォトダイオードのディプリションレイヤの電子は、接合アイソレ
ートポテンシャル井戸に移動する。各井戸は、多くの電子を集め、特定の電荷を
蓄える。長方形配列内の全ての井戸が、カメラによって満たされたと検出される
と、従って、露光の終了の信号が出ると、蓄積された電荷の読み出しが起こる。
As one type of solid-state photodiode camera, there is a charge coupled device (CCD) camera. Charge coupled devices for such cameras are
It consists of a huge rectangular array of photodiodes arranged on a silicon substrate. Each photodiode is an isolated sensor element that is electrically separated from its neighbors by a channel stop. During the time of exposure, photons fall on the photodiodes and the electrons in the depletion layer of each photodiode move to the junction isolated potential well. Each well collects many electrons and stores a specific charge. When all the wells in the rectangular array are detected as filled by the camera and thus signal the end of exposure signal, a read-out of the accumulated charge occurs.

【0039】 CCD固体カメラの読み出しは、システマチックに、井戸から電子を出力ノー
ドに移動することによって行われ、各井戸の電子の電荷は、フォトダイオード配
列を構成する井戸の配列から同じラスタスキャンシーケンスで「読み」出される
。出力ノードは、各井戸がそれ自身の特定の電荷を持っているとして、上から下
へ、左から右へのシーケンスで読む。出力ノードは、各井戸の電荷を電圧、これ
は各井戸あるいはピクセルに蓄積された電荷に比例する、に変換する増幅器に接
続される。
The CCD solid-state camera is read out systematically by moving electrons from the wells to the output node, and the charge of the electrons in each well is the same raster scan sequence from the array of wells that make up the photodiode array. Is read out. The output nodes are read in a top-to-bottom, left-to-right sequence, with each well having its own specific charge. The output node is connected to an amplifier that converts the charge in each well into a voltage, which is proportional to the charge stored in each well or pixel.

【0040】 チャージカップルドデバイスにおけるフォトダイオードのアーキテクチャには
、3つの最も知られた配列がある。フルフレーム、フレームトランスファー及び
インターラインである。フルフレームCCDアーキテクチャは、全体のフォトダ
イオードフレームが集積され、すなわち、読み出しが起こるに、全てのフレー
ム井戸において、電荷を含むように露光されることを意味している。従って、フ
ルフレームCCDカメラの場合、フレーム間時間は、チップの読み出し時間であ
る。
There are three best known arrays of photodiode architecture in charge coupled devices. Full frame, frame transfer and interline. The full frame CCD architecture means that the entire photodiode frame is integrated, i.e. exposed to contain charge in all frame wells before reading occurs. Therefore, in the case of a full frame CCD camera, the interframe time is the read time of the chip.

【0041】 フルフレームアーキテクチャは、現在、機械的シャッタを使用するスロースキ
ャンCCDカメラに使用されている。シャッタは、イメージ取得の間開かれ、電
荷移動及び読み出しの間しめられる。フルフレームアーキテクチャの示すところ
は、イメージ取得速度は、フォトダイオード配列のディテクタサイズ、機械的シ
ャッタのスピード及びチャージカップルドデバイスからコンピュータへのイメー
ジデータの読み出し速度によって制限されることである。
Full-frame architecture is currently used for slow scan CCD cameras that use mechanical shutters. The shutter is opened during image acquisition and closed during charge transfer and readout. The full frame architecture shows that the image acquisition speed is limited by the detector size of the photodiode array, the speed of the mechanical shutter and the speed of reading the image data from the charge coupled device to the computer.

【0042】 フレームトランスファーCCDアーキテクチャを使ったカメラは、フォトダイ
オードのフルフレームを2つの領域に分割する。イメージング部とマスクド格納
部である。インテグレーション(露光)の間、イメージは、イメージング部の井
戸のみに電子の電荷として格納される。露光が完了すると、蓄積された電荷は、
マスクド部に移動され、2つのプロセスが同時に起きる。イメージング部は、再
び露光を始めるため空にされ、マスクド部は、最初の露光から蓄積された電荷が
読み出される。結果として、CCDカメラのこの種のフレーム間時間は、蓄積さ
れた電荷をイメージング部からマスクド部へ移動するのにかかる時間である。フ
レームトランスファーCCDカメラは、露光と読み出しの2つの作業をほとんど
同時に行うことができる。
A camera using a frame transfer CCD architecture divides the full frame of photodiodes into two regions. An imaging unit and a masked storage unit. During integration (exposure), the image is stored as electron charges only in the wells of the imaging part. When the exposure is completed, the accumulated charge is
Moved to the masked part, two processes occur simultaneously. The imaging section is emptied to start exposure again, and the masked section reads out the charge accumulated from the first exposure. As a result, this type of interframe time of a CCD camera is the time it takes to transfer the accumulated charge from the imaging section to the masked section. The frame transfer CCD camera can perform two operations, exposure and readout, almost at the same time.

【0043】 インターラインCCDアーキテクチャのカメラでは、フォトダイオードのフル
フレームは、1つの列がイメージングフォトダイオードを含み、次の列がマスク
ドフォトダイオードを含むように交互の列にフォトダイオードのフルフレームを
配列する。インテグレーションの間、イメージングフォトダイオードの列は、マ
スクドフォトダイオード部を含む隣接列へ井戸の電荷を移動する。フレームトラ
ンスファーカメラの動作において、電荷がマスクド列に移動された後、フォトダ
イオードのマスクされていない列は再び露光される。フレームトランスファーカ
メラと同様に、重なっているマスクされた及びマスクされていないダイオードを
含むインターライントランスフォーカメラ、フレームトランスファーカメラと同
様にイメージ取得を行う。シーケンシャルモードで動作するインターラインCC
Dカメラでは、フレーム間時間は、フレームトランスファーCCDと同じであり
、すなわち、フォトダイオード配列の読み出し時間である。インターラインCC
Dカメラがオーバラップモードで動作する場合には、フレーム間時間は、マスク
ド部の下に蓄積された電荷を転送するシフト時間である。システムの構成及び外部装置の非同期動作 外部装置340、336、316及び/あるいは320が、カメラ330の取
得速度より速いか同程度の速度で動作するときは、外部装置340、336、3
16及び/あるいは320は、カメラ330と非同期に動作することができ、ま
たこれは、システムの構成について示唆するものである。システムに汲み上げら
れる外部装置340、336、316及び/あるいは320がカメラ330と非
同期に動作できる時は、カメラ330と外部装置を直接に接続する必要がない。
従って、本発明のシステムにおいては、外部装置340、336、316及び/
あるいは320は、例えば、接続283と261によって、システムコンピュー
タ211に接続される。これらの装置は、カメラ330には直接には接続されな
い。非同期動作は、本発明のソフトウェア方法によって、信号装置340、33
6、316及び320が、カメラ330の取得ルーチンと相まってパラメータ値
を変化させることによって行われる。本発明の方法の実現 最も原理的には、本発明の方法は、以下のように動作する。研究者は、システ
ムをカメラ330と選択された外部装置340、336、316及び/あるいは
320を含むように構成する。研究者は、イメージが取得されるZ位置及び/あ
るいは波長の数を入力する。そのように入力して、研究者は、実際、実験あるい
は取得イベント間において、1つのスタックにおいてカメラ330が取得するフ
レームの数を選択していることになる。例えば、20のZ位置と2つの波長を入
力することは、40フレームのスタックに変換される。スタックは、Unversal I
magingから得られるMetaMorphなどの適当なアプリケーションソフトウェアによ
って処理され、選択されたZ位置と波長のパラメータにおける連続した変化を表
示するシーケンスとなる。
In a camera with an interline CCD architecture, a full frame of photodiodes is arranged in alternating rows, with one row containing the imaging photodiode and the next row containing the masked photodiode. To do. During integration, the columns of imaging photodiodes transfer the charge in the wells to adjacent columns containing the masked photodiode portion. In operation of a frame transfer camera, after the charge has been transferred to the masked columns, the unmasked columns of photodiodes are exposed again. Similar to the frame transfer camera, image acquisition is performed in the same manner as the interline transform camera and the frame transfer camera including overlapping masked and unmasked diodes. Interline CC operating in sequential mode
In the D camera, the interframe time is the same as the frame transfer CCD, that is, the readout time of the photodiode array. Interline CC
If the D camera operates in overlap mode, the interframe time is the shift time for transferring the charge stored under the masked portion. System Configuration and Asynchronous Operation of External Devices When the external devices 340, 336, 316 and / or 320 operate at a speed faster than or similar to the acquisition speed of the camera 330, the external devices 340, 336, 3
16 and / or 320 can operate asynchronously with the camera 330, and this is an indication of system configuration. When the external devices 340, 336, 316 and / or 320 pumped into the system can operate asynchronously with the camera 330, there is no need to directly connect the camera 330 to the external device.
Therefore, in the system of the present invention, the external devices 340, 336, 316 and / or
Alternatively, 320 is connected to system computer 211 by, for example, connections 283 and 261. These devices are not directly connected to the camera 330. Asynchronous operation is achieved by the signaling method 340, 33 according to the software method of the present invention.
6, 316 and 320 are performed by changing the parameter values in conjunction with the acquisition routine of the camera 330. Implementation of the Method of the Invention In principle, the method of the invention operates as follows. Researchers configure the system to include a camera 330 and selected external devices 340, 336, 316 and / or 320. The researcher inputs the Z position and / or the number of wavelengths at which the image is acquired. With that input, the researcher will actually be selecting the number of frames that the camera 330 will capture in a stack between experimental or capture events. For example, entering 20 Z positions and 2 wavelengths translates into a stack of 40 frames. The stack is Unversal I
With appropriate application software such as MetaMorph obtained from maging
Processed into a sequence displaying successive changes in the selected Z position and wavelength parameters.

【0044】 研究者がイメージ取得を始めるコマンドを出すと、当該方法は、カメラ330
を駆動し、最初の選択されたZ位置と最初の選択された波長において露光を始め
る。処理は当該分野で良く知られているが、イメージをデジタル化し、コンピュ
ータ211に読み出し、一時的メモリロケーションあるいはバッファにデジタル
化してイメージとして格納される。カメラ330が、露光されたイメージの読み
出しを始める時は、当該方法は、外部装置340、336、316及び/あるい
は320を駆動して、値を変えさせる。ピエゾフォーカサ340及び波長可変器
316及び/あるいは320が、システムに組み込まれている場合、当該方法は
、ピエゾフォーカサ340を、対物レンズ324を次のZ位置に移動するように
駆動する前に、現在のZ位置において、全ての選択された波長へ切り替えるよう
に波長可変器316あるいは320を駆動することに注意されたい。当該方法は
、外部装置340、336、316及び/あるいは320を駆動し続け、これら
の装置が選択された値の全ての集合について移動するまで、各イメージの読み出
しを開始時において値を変化させる。
When the researcher issues a command to start the image acquisition, the method uses the camera 330
To start exposure at the first selected Z position and the first selected wavelength. Processing is well known in the art, where an image is digitized, read into computer 211, digitized into a temporary memory location or buffer and stored as an image. When the camera 330 begins reading the exposed image, the method drives the external devices 340, 336, 316 and / or 320 to change the values. If the piezofocuser 340 and the wavelength tunable devices 316 and / or 320 are incorporated into the system, the method is prior to driving the piezofocuser 340 to move the objective lens 324 to the next Z position. , At the current Z position, drive tunable device 316 or 320 to switch to all selected wavelengths. The method continues to drive external devices 340, 336, 316 and / or 320, changing the values at the beginning of each image readout until these devices move for the entire set of selected values.

【0045】 本発明の方法の理解に重要なのは、カメラ330は、当該方法が外部装置34
0、336、316及び/あるいは320の動作をカメラ330からの読み出し
と一致させている間、その取得速度あるいはそれに近い速度でイメージを取得す
るのに、いわば、制限がない。本発明の方法及びシステムの一実施形態に重要な
のは、外部装置340、336、316及び/あるいは320の動作速度が、カ
メラ330のフレーム間時間と同じか、それより速くなくてはいけないという限
定である。例えば、研究者は、高速のフレーム間時間のカメラ、すなわち、1か
ら2ミリ秒のピエゾフォーカサ340及び/あるいは波長可変器316及び/あ
るいは320の動作速度と同程度のフレームトランスファーカメラ、あるいは、
オーバラッピングモードで動作しているインターライントランスファーカメラを
使用できる。本実施形態では、カメラ330は、実際、これらの装置340、3
36、316及び320がZ位置あるいは波長を変えるのと同じ速度でイメージ
を取得している。
Important to the understanding of the method of the present invention is that the camera 330 uses the external device 34 as the method.
There is, so to speak, no limitation on acquiring an image at or near its acquisition rate while matching the operation of 0, 336, 316 and / or 320 with the readout from the camera 330. Important to one embodiment of the method and system of the present invention is the limitation that the operating speed of the external device 340, 336, 316 and / or 320 must be equal to or faster than the interframe time of the camera 330. is there. For example, researchers have found that fast interframe time cameras, ie, frame transfer cameras that are comparable in speed to the piezofocusers 340 and / or wavelength tuners 316 and / or 320 for 1-2 milliseconds, or
Interline transfer cameras operating in overwrapping mode can be used. In this embodiment, the camera 330 is, in effect, the device 340, 3,
Images are acquired at the same rate that 36, 316 and 320 change the Z position or wavelength.

【0046】 外部装置340、336、316及び/あるいは320の動作速度が、カメラ
330のフレーム間よりも遅い場合、当該方法は、カメラ330が、現在のイメ
ージをコンピュータ211へ読み出している間、Z位置及び/あるいは波長を変
えるように外部装置340、336、316及び320を駆動することはできな
い。例えば、選択された波長間を切り替えるのに動作の遅い波長可変器を使うと
、混合した波長を含むイメージとなってしまう。イメージの改変を少なくするた
めに、本実施形態では、研究者は、カメラ330を駆動して各フレームにおいて
、露光イメージに先に移動するが、イメージを露光する前に、例えば、3などの
選択された数のフレームをスキップする。そうすると、本実施形態の方法は、効
果的に、外部装置340、336、316及び/あるいは320に、パラメータ
を変化させ、カメラに追いつく余分な時間を与えることができる。特定の装置及びアプリケーションソフトウェア 本発明の方法を使って非同期に動作させるため、本発明のシステムを構成する
特定の装置は、以下のものからなる。Roper ScientificのPhotometrics部門から
得られるCoolsnap FXカメラのラインと共に、Roper ScientificのPrinceton Ins
trument部門から得られるMicroMax及びPentaMaxカメラのライン。また、本発明
のシステム及び方法は、ビデオフレームグラバーと呼ばれるデジタイザを介して
、プロセッサとのインターフェースとなる限り、RS-170あるいはCCIR標準に従う
、いずれのカメラを使っても動作させることができる。本発明の方法が、カメラ
を駆動し、外部装置が変化している間に、同時に、イメージを取得することがで
きるようにするための、ソフトウェア割り込みを生成するビデオフレームグラバ
ーの例としては、FlashBus MV PRO PCIバスマスタリングデジタイザカードがあ
る。
If the operation speed of the external device 340, 336, 316 and / or 320 is slower than the frame of the camera 330, the method can be performed while the camera 330 reads the current image to the computer 211. External devices 340, 336, 316 and 320 cannot be driven to change position and / or wavelength. For example, using a slow-tuning wavelength tunable device to switch between selected wavelengths results in an image containing mixed wavelengths. In order to reduce the alteration of the image, in this embodiment, the researcher drives the camera 330 to move forward in each frame to the exposure image, but before exposing the image, a choice, such as 3, is made. Skip the specified number of frames. Then, the method of this embodiment can effectively allow the external devices 340, 336, 316 and / or 320 to change the parameters and give the camera extra time to catch up. Specific Device and Application Software In order to operate asynchronously using the method of the present invention, the specific device that constitutes the system of the present invention is as follows. Princeton Ins from Roper Scientific with a line of Coolsnap FX cameras from Roper Scientific's Photometrics division
A line of MicroMax and PentaMax cameras obtained from the trument category. Also, the present invention
The system and method can be operated with any camera that complies with the RS-170 or CCIR standards as long as it interfaces with the processor via a digitizer called a video frame grabber. An example of a video frame grabber that generates a software interrupt to allow the method of the present invention to drive a camera and simultaneously capture an image while an external device is changing is FlashBus. MV PRO PCI bus mastering digitizer card
It

【0047】 本発明のシステム及び方法において動作するピエゾフォーカサは、Physik Ins
trumenteから得られる、Miroscope Objective NanopositionersのPIFOCRライン
を含む。本発明のシステム及び方法において動作する適切な波長可変器は、以下
のものを含む。Sutter Instrumentsから得られる、Lambda DG5 Illuminator, La
mbda DG4 Illuminator, Lambda 10-2 Wavelength changer及びLambda 10 Wavele
ngth Changer、TILLから得られるPolychrome II Monochromator、Kinetic Imagi
ngから得られるMonochromator及びPTIから得られるDeltaRAM Monochromator。
Piezofocusers operating in the systems and methods of the present invention are Physik Ins
Includes Miroscope Objective Nanopositioners PIFOCR line from trumente. Suitable tunable devices operating in the system and method of the present invention include: Lambda DG5 Illuminator, La from Sutter Instruments
mbda DG4 Illuminator, Lambda 10-2 Wavelength changer and Lambda 10 Wavele
ngth Changer, Polychrome II Monochromator from TILL, Kinetic Imagi
Monochromator obtained from ng and DeltaRAM Monochromator obtained from PTI.

【0048】 カメラと外部装置の非同期動作をサポートするアプリケーションソフトウェア
は、MetaMorph(TM)及びMetaFluorRを含む。例示的情報処理サブシステム 図1を参照すると、情報処理装置200がパーソナルコンピュータの形式の計
算装置211からなる場合には、本発明の例示的サブシステム200は、現在5
50MHz、700MHz、750MHz、800MHzあるいは850MHz
を含む、インテル(登録商標)、ペンティアム(登録商標)IIIクラスのプロ セッサを使用できる。
Application software that supports asynchronous operation of the camera and the external device includes MetaMorph (TM) and MetaFluor®. Exemplary Information Processing Subsystem With reference to FIG. 1, when the information processing device 200 comprises a computing device 211 in the form of a personal computer, the exemplary subsystem 200 of the present invention is currently 5
50MHz, 700MHz, 750MHz, 800MHz or 850MHz
Intel (R), Pentium (R) III class processors, including, can be used.

【0049】 好適なマザーボードは、Asusから得られるP3BFあるいはCUBXを含む。ディスプ
レイアダプタについては、研究者は、ATI Expert@Play98-8 megabyte、Matrox G
400-32 megabyte dual displayあるいはATI Tage Fury Pro-23 megabyteとする
ことができる。
Suitable motherboards include P3BF or CUBX available from Asus. For display adapters, researchers are ATI Expert @ Play98-8 megabyte, Matrox G
400-32 megabyte dual display or ATI Tage Fury Pro-23 megabyte
be able to.

【0050】 このように構成されたシステムの好適なメモリ環境は、256メガバイトから
1ギガバイトのSDRAMメモリである。様々な装置については、Weatern Digi
talから得られるWDC WD205BA IDE(20.4ギガバイト)ハードウェアドライブ
、1.4メガバイト3.5フロッピードライブ、CD-R58S read/write 8x24 SCSI CD-ROMドライブである。
The preferred memory environment for a system configured in this way is 256 megabytes to 1 gigabyte of SDRAM memory. For a variety of equipment, see Waitern Digi
WDC WD205BA IDE (20.4 GB) hardware drive from tal
, 1.4 MB 3.5 floppy drive, CD-R58S read / write 8x24 SCSI CD-ROM drive.

【0051】 好適なカードは、SCSIカードについては、Adaptec 2930 Ultra SCSI2キッ
ト、入出力カードについては、SIG Cyber PCI-1serial, one parallel portであ
り、ネットワークカードについては、3COM 3C905TX-M 10/100PCIである。 方法 図1及び3を続けて参照すると、図5は、本発明の方法のフローチャートであ
る。本発明の方法は、ここでは、カメラの外部装置が連続的に取得パラメータを
可変している間に、カメラの実質的に最大取得速度でイメージを取得するコンピ
ュータプログラムモジュールに関して記載するが、これらは、当業者によれば、
他のプログラムモジュール、ルーチン、アプリケーションプログラムなど他の特
定の処理を行うものと一緒に実装することができることが理解されるであろう。
Suitable cards are Adaptec 2930 Ultra SCSI2 kit for SCSI cards, SIG Cyber PCI-1serial, one parallel port for I / O cards, 3COM 3C905TX-M 10/100 PCI for network cards. is there. Method Continuing to refer to FIGS. 1 and 3, FIG. 5 is a flowchart of the method of the present invention. The method of the present invention is described herein with respect to a computer program module that acquires an image at substantially the maximum acquisition rate of the camera while an external device of the camera continuously varies the acquisition parameters, but these are , According to those skilled in the art,
It will be appreciated that it can be implemented with other program modules, routines, application programs, etc. that perform other particular operations.

【0052】 イメージが取得されている間可変されるイメージ取得パラメータは、Z位置、
励起及び/あるいは放射波長及び、顕微鏡ステージの垂直位置を含む。Z位置は
、ピエゾフォーカサ340を受かって、サンプル対物レンズ324を相対的に移
動するか、ステージムーバ336を使って、顕微鏡ステージ326を移動するこ
とにより、変えることができる。図5に示されるイメージ取得パラメータは、Z
位置と波長を含んでいる。システムを構成する カメラ330がイメージの取得を始める前に、研究者は、研究の目的を決め、
試料332の準備をしており、システムが使用する特定のハードウェアを構成、
すなわち、システムに対して特定する準備がある。図5に示されるように、本発
明の方法は、ステップ500で始まり、研究者は、本発明のシステムを特定のイ
メージ取得装置を選択することによって構成する。システムを構成することは、
事実、プログラムモジュールが対応するハードウェアを動作させるために必要な
情報を含むイメージ取得/処理プログラムにおける、予め格納されるソフトウェ
アファイルである適当な装置ドライバの選択である。構成可能なイメージ取得装
置は、カメラ330、ピエゾフォーカサ340、ステージムーバ336を含むZ
位置を可変する手段、及び、波長可変器316及び320である。
The image acquisition parameters that are varied while the image is acquired are the Z position,
Includes excitation and / or emission wavelengths and vertical position of the microscope stage. The Z position can be changed by receiving the piezofocuser 340 and moving the sample objective lens 324 relatively, or by using the stage mover 336 to move the microscope stage 326. The image acquisition parameter shown in FIG. 5 is Z
Contains position and wavelength. Before the cameras 330 that make up the system begin to acquire images, the researcher decides the purpose of the study,
Preparing sample 332, configuring the specific hardware used by the system,
That is, there are preparations to identify to the system. As shown in FIG. 5, the method of the present invention begins at step 500 and a researcher configures the system of the present invention by selecting a particular image acquisition device. Configuring the system is
In fact, it is the selection of an appropriate device driver, which is a pre-stored software file in the image acquisition / processing program that contains the information the program module needs to operate the corresponding hardware. The configurable image acquisition device includes a camera 330, a piezofocuser 340, and a stage mover 336.
They are means for changing the position and wavelength changers 316 and 320.

【0053】 図3及び図5を引き続き参照すると、図6〜9は、自動光学顕微鏡サブシステ
ム300を構成する例示的ユーザダイアログを示す。図6は、カメラ330をイ
ンストールする例示してダイアログを示す、左に示されているのは、イメージ取
得/処理245のための例示的ソフトウェアパッケージに含まれる利用可能なカ
メラドライバ610のリストである。利用可能なドライバ610のリストから特
定のドライバ612をハイライト表示し、ADD614ボタンをクリックするこ
とにより、選択されたドライバは、インストールされたドライバ616のリスト
に現れる。ドライバ構成618ウィンドウに例示されているシステムは、ただ一
つのカメラを含むように構成されている。
With continued reference to FIGS. 3 and 5, FIGS. 6-9 show exemplary user dialogs that make up the automated optical microscope subsystem 300. FIG. 6 shows an exemplary dialog for installing the camera 330, shown on the left is a list of available camera drivers 610 included in an exemplary software package for image acquisition / processing 245. . By highlighting a particular driver 612 from the list of available drivers 610 and clicking the ADD 614 button, the selected driver will appear in the list of installed drivers 616. The system illustrated in the driver configuration 618 window is configured to include only one camera.

【0054】 図7は、図6のインストールされたカメラに関するパラメータ、特に、露光時
間620及びカメラシャッタ622を構成する例示的ダイアログを示す。露光時
間620は、全露光時間を意味し、620においては、100msと例示してい
る。ユーザは、626において、露光時間の間、カメラシャッタを開きっぱなし
にすることを選択することもできる。そのように選択し、図8の下に占めあれる
サブシステム300に波長可変器を組み込むことにより、研究者は、システム3
00に対して、シャッタを波長可変器(316、320)として動作させること
ができる。
FIG. 7 illustrates an exemplary dialog that configures parameters for the installed camera of FIG. 6, specifically exposure time 620 and camera shutter 622. The exposure time 620 means the total exposure time, and in 620, it is illustrated as 100 ms. The user may also choose to leave the camera shutter open at 626 for the exposure time. By so selecting and incorporating the tunable device into the subsystem 300 occupied at the bottom of FIG.
00, the shutter can be operated as a wavelength tunable device (316, 320).

【0055】 図3の308あるいは314に示されるようなカメラ330の外部の機械シャ
ッタは、散逸するのに時間がかかる項で夏によって駆動されるので、25msよ
りも大きなサイクル時間で動作されなければならないことは重要である。これら
のシャッタを25msよりも短いサイクル長で駆動すると、熱が溜まり、最終的
にパンクしてしまう。この理由で、1.2msのスイッチング時間の高速波長可
変器は、シャッタとして駆動するのに便利である。これにより、カメラ330は
、その最大取得速度で、あるいは、それに近い速度でイメージの取得がかのうに
なり、外部装置340、336、316及び/あるいは320との非同期動作を
促進する。
Mechanical shutters external to the camera 330, such as shown at 308 or 314 in FIG. 3, are driven by summer in terms that take time to dissipate, so must be operated at cycle times greater than 25 ms. Not becoming important is important. If these shutters are driven with a cycle length shorter than 25 ms, heat will accumulate and eventually cause puncture. For this reason, a fast tunable device with 1.2 ms switching time is convenient to drive as a shutter. This allows camera 330 to capture images at or near its maximum acquisition rate, facilitating asynchronous operation with external devices 340, 336, 316 and / or 320.

【0056】 図8は、外部装置をシステムに組み込む例示的ダイアログを示す。632で、
特定の装置の名前をハイライト表示し、ADD634ボタンをクリックすること
により、装置632をインストール装置636に表示させる。図7に示されるよ
うに、2つの外部装置が、例示的システムにインストールされる。632におい
て、ピエゾフォーカサと638の波長可変器である。
FIG. 8 shows an exemplary dialog for incorporating an external device into the system. At 632,
The device 632 is displayed on the installation device 636 by highlighting the name of the particular device and clicking the ADD 634 button. As shown in Figure 7, two external devices are installed in the exemplary system. 632 is a piezofocuser and 638 wavelength tunable device.

【0057】 図9は、ピエゾフォーカサをシステム300に組み込む例示的ダイアログを示
す。ダイアログの下には、研究者がピエゾフォーカサ340が対物レンズ324
を動かす距離の範囲を決定する3つのボタンスイッチ644、646、648が
示されている。セットホーム646をクリックすることにより、ユーザは、ピエ
ゾフォーカサ340が対物レンズ324を、イメージ取得の最後にホームポジシ
ョンにセットする。ホームは、任意の位置でよく、研究目標に依存する。例えば
、研究者は、目での焦点合わせ、あるいは、以前に取得されたスタックイベント
を処理することにより、あるクリティカルなZ位置を決定する。そのようなZ位
置は、ホームとして設定される。セットトップ644位置は、対物レンズ324
が動く、ホーム上の最大上限である。セットボトム648位置は、ホームの下の
最大下限である。トップ、ホーム、ボトム位置は、露光時間の間、ピエゾフォー
カサ340が対物レンズ324を動かす全距離を規定する。研究者は、カレント
ポジション642をチェックすることにより、対物レンズ324の始まりの位置
を初期設定することができる。ムーブインクリメント640オプションは、ユー
ザが、図示では、例示的に1.0マイクロメータに設定されているZ位置をイン
クリメントする距離を選択するのを可能にする。
FIG. 9 shows an exemplary dialog for incorporating a piezofocuser into the system 300. At the bottom of the dialog, the researcher finds that the piezo focuser 340 is the objective lens 324.
Three button switches 644, 646, 648 are shown that determine the range of distances to move. By clicking on the set home 646, the user causes the piezofocuser 340 to set the objective lens 324 to the home position at the end of image acquisition. The home can be in any position and depends on the research goals. For example, a researcher determines some critical Z-positions by eye focusing or by processing previously acquired stack events. Such a Z position is set as the home. The set top 644 position is the objective lens 324.
Is the maximum limit on the home that moves. The set bottom 648 position is the maximum lower bound for the home. The top, home, and bottom positions define the total distance that the piezofocuser 340 moves the objective lens 324 during the exposure time. The researcher can initialize the starting position of the objective lens 324 by checking the current position 642. The move increment 640 option allows the user to select a distance to increment the Z position, which is illustratively set to 1.0 micrometer.

【0058】 640におけるムーブインクリメントと共に、644と648で、トップとボ
トムの位置を設定することにより、研究者は、イメージが取得されるZ位置の全
数を計算する。例えば、図9において、ピエゾフォーカサが動く全垂直距離は、
22マイクロメータだる。インクリメントの距離が1マイクロメータのとき、イ
メージは、最小で23のZ位置で、(スタート位置=1+22マイクロメータ=
23個の全位置)取得される。ユーザ入力 図5に戻って参照すると、システムを構築した後の方法における次のステップ
は、ステップ502のユーザインプットである。ここで、ユーザは、当該方法に
よって、ピエゾフォーカサ340と波長可変器316及び/あるいは320を駆
動し、イメージ取得の間、特定のZ位置と波長い可変させるように、値の範囲を
入力する。
By setting the top and bottom positions at 644 and 648, along with the move increment at 640, the researcher calculates the total number of Z positions at which the image is acquired. For example, in FIG. 9, the total vertical distance that the piezofocuser moves is
22 micrometers. When the increment distance is 1 micrometer, the image has a minimum of 23 Z positions (start position = 1 + 22 micrometers =
All 23 positions are acquired. User Inputs Referring back to FIG. 5, the next step in the method after building the system is the user input of step 502. Here, the user drives the piezofocuser 340 and the wavelength tunable devices 316 and / or 320 according to the method, and inputs a range of values so as to tune a specific Z position and wavelength during image acquisition. .

【0059】 ユーザインプットのストリーム取得の実施形態 図10〜13は、Z位置と波長値を入力するユーザダイアログの第1の実施形
態であり、ストリーム取得702の実施形態として示されている。図14〜20
は、そのようなユーザダイアログの第2の実施形態であって、マルチディメンシ
ョナル取得802の実施形態として示されている。
User Input Stream Acquisition Embodiment FIGS. 10 to 13 are a first embodiment of a user dialog for inputting the Z position and wavelength value, and are shown as an embodiment of stream acquisition 702. 14 to 20
Is a second embodiment of such a user dialog and is shown as an embodiment of multidimensional acquisition 802.

【0060】 図10は、ストリーム取得702の実施形態が、4つの別のユーザダイアログ
あるいは、タブである、取得704、フォーカス706、波長708及びカメラ
パラメータ710を含むことが示されおり、これによって、研究者は、取得条件
の値を入力する。図10は、取得704ダイアログを示し、ダイアログ内のユー
ザ選択を示している。オプション718及び720によって、研究者は、カメラ
330ピエゾフォーカサと高速波長可変器と共に動作しているかをチェックする
ことができる。718と720をチェックし、図8に示されるように、システム
に特定の装置を組み込んでおくことにより、ユーザは、実装された装置が、イメ
ージ取得間にカメラとの非同期動作をサポートし、可能であることの確認をフィ
ールド730において受ける。
FIG. 10 shows that an embodiment of stream acquisition 702 includes four separate user dialogs or tabs, acquisition 704, focus 706, wavelength 708, and camera parameters 710, thereby The researcher inputs the value of the acquisition condition. FIG. 10 shows the Get 704 dialog, showing the user selection within the dialog. Options 718 and 720 allow researchers to check if they are working with a camera 330 piezofocuser and a fast tunable device. By checking 718 and 720 and having a specific device built into the system, as shown in FIG. 8, the user can enable the installed device to support asynchronous operation with the camera during image capture and Confirmation is received in field 730.

【0061】 ストリーム取得702とマルチディメンショナル取得802の実施形態におい
て、ユーザは、ピエゾフォーカサ340あるいはステージムーバ336及び波長
可変器316及び/あるいは320が、Z位置と励起及び/あるいは放射波長を
可変している間、イメージを取得することを選択することができる。これは、上
記した方法の基本的動作原理に関連する。外部装置340、336、316及び
320は、カメラ330と非同期で動作するので、外部装置は、各パラメータを
変える前に、カメラが読み出しを酋長するのを待たない。当該方法の一実施形態
においては、外部装置がカメラのフレーム間時間より速く、あるいは、同程度で
動作している限り、いくつかの外部装置を一緒に取り付けて、カメラが取得して
いる間に、これら全てが、イメージ取得パラメータを可変するようにする。実際
は、しかし、カメラと外部装置は、非同期に動作するものの、外部装置は、互い
に相対的に同期して動作する。特には、図10のフィールド718及び720に
示されるように、研究者がピエゾフォーカサ340と波長可変器316及び/あ
るいは320の両方を使用することを選択した時は、当該方法は、最初にピエゾ
フォーカサ340に信号を与えて、新しいZ位置に移動させる。本発明のシステ
ムは、次に、波長可変器316及び/あるいは320に信号を与えて、連続する
フレームの各選択された波長に変える。フレームが各選択された波長において露
光された後においてのみ、当該方法は、ピエゾフォーカサ340に信号を与えて
、Z位置を変えさせる。外部装置の互いに相対的な順次動作は、図22により詳
しく示されている。
In the embodiments of stream acquisition 702 and multi-dimensional acquisition 802, the user can tell the piezo focuser 340 or stage mover 336 and the wavelength tunable device 316 and / or 320 to change the Z position and the excitation and / or emission wavelength. You can choose to acquire an image while doing so. This relates to the basic operating principle of the method described above. Since the external devices 340, 336, 316 and 320 operate asynchronously with the camera 330, the external devices do not wait for the camera to read long before changing each parameter. In one embodiment of the method, as long as the external device operates faster than, or comparable to, the frame-to-frame time of the camera, several external devices can be attached together and while the camera is acquiring. , All of which make the image acquisition parameters variable. In reality, however, the camera and the external device operate asynchronously, but the external device operates in synchronization with each other. In particular, when a researcher chooses to use both a piezofocuser 340 and a tunable device 316 and / or 320, as shown in fields 718 and 720 of FIG. A signal is given to the piezofocuser 340 to move it to a new Z position. The system of the present invention then provides a signal to the wavelength tuners 316 and / or 320 to change to each selected wavelength in successive frames. Only after the frame has been exposed at each selected wavelength, the method signals the piezofocuser 340 to change the Z position. The sequential operation of the external devices relative to each other is shown in more detail in FIG.

【0062】 図10は、ユーザが、対物レンズ324をピエゾフォーカサ340が動かして
、自治の数、フィールド712において、23と示されている、を選択すること
が示されている。理論的には、ユーザは、イメージを取得するZ位置をいくつで
も選択できるが、興味の対象の生物学的対象や、研究課題などによって制限され
、カメラと外部装置を非同期に動作させる本発明のよっては制限されない。図1
0のダイアログは、トップ、ボトム、ホームZ位置を示す図9のダイアログと共
に、動作する。
FIG. 10 shows that the user moves the objective lens 324 by the piezofocuser 340 to select the number of autonomy, indicated in the field 712 as 23. Theoretically, the user can select any number of Z positions to acquire images, but it is limited by the biological object of interest, the research subject, etc., and the camera and the external device are operated asynchronously. Therefore, it is not limited. Figure 1
The 0 dialog works with the dialog of FIG. 9 showing the top, bottom and home Z positions.

【0063】 図10は、外部シャッタ714選択を示す。716に示されているのは、高速
波長可変器、Sutter DG4が、カメラ330の外部シャッタとして働くような例示
的ユーザ選択である。図7においては、ユーザは、全露光時間の間、カメラシャ
ッタを開きっぱなしにすることを選択するものであった。外部ちゃった714選
択は、図7のダイアログと共に動作し、高速波長可変器を駆動して、外部シャッ
タとして機能させる。
FIG. 10 illustrates external shutter 714 selection. Shown at 716 is an exemplary user selection in which a fast tunable device, the Sutter DG4, acts as an external shutter for the camera 330. In FIG. 7, the user chose to leave the camera shutter open for the entire exposure time. The externally-chosen 714 selection operates together with the dialog of FIG. 7 to drive the high-speed wavelength tunable device to function as an external shutter.

【0064】 図11は、フォーカス706を示し、これにおいては、ユーザは、取得の間、
ピエゾフォーカサ340を移動する方向と共に、対物レンズ324の最初と最後
のZ位置を選択可能である。フォーカス706ダイアログは、トップ644、ホ
ーム646、ボトム648及びカレント642の位置を入力する図9と共に、動
作する。図11に示されているように、イメージ取得732の最初では、ピエゾ
フォーカサ340は、選択された範囲のトップ644にある、646(図9)。
イメージ取得734の間、ピエゾフォーカサ340は、対物レンズ324を下方
向に、範囲のボトムに向かって移動する、648(図9)。イメージ取得後、ピ
エゾフォーカサ340は、レンズ324を現在の位置に移動し、642(図9)
、これは、646(図9)に示されているように、この例では、ホームに相当す
る。
FIG. 11 shows focus 706, in which the user is
The first and last Z positions of the objective lens 324 can be selected together with the direction in which the piezofocuser 340 is moved. The Focus 706 dialog works with FIG. 9 to enter the positions of Top 644, Home 646, Bottom 648 and Current 642. As shown in FIG. 11, at the beginning of image acquisition 732, piezofocuser 340 is at the top 644 of the selected range, 646 (FIG. 9).
During the image acquisition 734, the piezofocuser 340 moves the objective lens 324 downward, towards the bottom of the range 648 (FIG. 9). After acquiring the image, the piezo focuser 340 moves the lens 324 to the current position, and 642 (FIG. 9).
, Which corresponds to home in this example, as shown at 646 (FIG. 9).

【0065】 図11は、例1として、プレインディスタンス738を示し、これは、図9の
ムーブインクリメント640に対応する。更に、トータルディスタンス740は
、22として例示されており、図9の上述の議論において計算されてアクセス全
距離に対応する。
FIG. 11 shows, as example 1, pre-instance 738, which corresponds to move increment 640 of FIG. Further, the total distance 740 is illustrated as 22, and corresponds to the total access distance calculated in the above discussion of FIG.

【0066】 図12は、ユーザ入力のストリーム取得702の実施形態に対する波長708
ダイアログを示す。ここに例示されるように、研究者は、750において、図8
の638で実装されると示されている構築された波長可変器が、イメージ取得の
間2つの波長間を切り替えることを選択している。波長の例として、752のFI
TC及び754のRHODがある。
FIG. 12 illustrates wavelength 708 for an embodiment of user input stream acquisition 702.
Show a dialog. As illustrated here, the researcher, at 750, sees FIG.
The built tunable device, shown to be implemented at 638, has selected to switch between the two wavelengths during image acquisition. As an example of wavelength, FI of 752
There is TC and 754 RHOD.

【0067】 図13は、カメラパラメータ710ダイアログを示す。取得モード760を選
択するにおいて、研究者は、本発明の方法の異なる実施形態を選択することがで
きる。例えば、研究者は、カメラ330を駆動し、イメージの取得をそのフレー
ムレート762で、すなわち、シャッタが一旦開くと、露光が、カメラの最大動
作速度で行われることを選択することができる。他の実施形態においては、研究
者は、カメラを駆動し、外部トリガ764によってイメージを取得させることを
選択することもできる。
FIG. 13 shows a camera parameter 710 dialog. In selecting the acquisition mode 760, the researcher can select different embodiments of the method of the present invention. For example, a researcher can drive the camera 330 and select that the image acquisition be done at its frame rate 762, ie, once the shutter is open, the exposure is at the maximum operating speed of the camera. In other embodiments, the researcher can also choose to drive the camera and have the image captured by an external trigger 764.

【0068】 更に、異なる実施形態においては、研究者は、ある条件の下では、カメラ33
0を駆動し、特定のフレームに対してのみイメージを露光するように選択するこ
とができ、これは、スキップるフレームの数を入力することによて行われる、7
66。カメラ330にフレームをスキップさせることは、研究者が組み込まれて
アクセスカメラの読み出しそくどよりも遅い外部装置340、336、316及
び/あるいは320を使用するときに便利である。そのような外部装置340、
336、316及び/あるいは320は、カメラ330が、イメージを露光して
いる間、Z位置と波長を可変するので、取得されるスタックは、不明瞭な状態で
表示される。当該方法のこの実施形態が有効な時のシステム構成の例としては、
研究者が、波長を変えるために、高速波長可変器ではなくて、フルフレームCC
Dカメラとフィルタホイールを使っている時である。
Further, in different embodiments, the researcher may find that under certain conditions, the camera 33
You can choose to drive 0 and expose the image only for specific frames, which is done by entering the number of frames to skip, 7
66. Having the camera 330 skip frames may be useful when a researcher is incorporated and uses an external device 340, 336, 316 and / or 320 that is slower than the access camera's readout throat. Such an external device 340,
336, 316 and / or 320 vary the Z position and wavelength while the camera 330 is exposing the image so that the acquired stack is displayed in an obscure state. An example of a system configuration when this embodiment of the method is effective is:
Researchers decided to use full-frame CC instead of high-speed wavelength tuner to change wavelength.
It's when I'm using a D camera and a filter wheel.

【0069】 例えば、766において、カメラ330に3フレームスキップするように選択
することによって、研究者は、実際、装置を4フレーム毎にのみZ位置と波長を
変えるように駆動することになる。システムに使われるカメラの露光と読み出し
の速度が25msならば、選ばれた波長可変器の動作速度は、例えば、75ms
であり、4フレーム毎にパラメータを切り替えるように、装置にスキップさせる
よう選択すれば、波長可変器316及び/あるいは320にそれぞれ、波長を切
り替えさえる十分な時間を与えることができる。マルチディメンショナル取得の実施形態 図5を続けて参照すると、ステップ502において、研究者は、様々な取得条
件の値を入力するのに、図14〜20に示される他の実施形態を選択することが
できる。これは、マルチディメンショナル取得802の実施形態と呼ぶ。マルチ
ディメンショナル取得802の実施形態と、ストリーム取得702の実施形態の
異なる特徴は、マルチディメンショナル取得802の実施形態においては、研究
者は、同じ取得条件で、定期的時間間隔で、同じ試料のイメージの集合を得るこ
とができる。異なる時間間隔における同じ条件の下に、イメージを取得する目的
は、時間経過ビデオを生成することである。
For example, at 766, selecting the camera 330 to skip 3 frames would actually drive the device to change the Z position and wavelength only every 4 frames. If the exposure and readout speed of the camera used in the system is 25 ms, the operating speed of the selected wavelength tunable device is, for example, 75 ms.
Therefore, if the device is selected to skip so that the parameters are switched every four frames, it is possible to give the wavelength tunable devices 316 and / or 320 sufficient time to switch the wavelengths. Multi-Dimensional Acquisition Embodiments Continuing to refer to FIG. 5, in step 502, a researcher may select other embodiments shown in FIGS. 14-20 to enter values for various acquisition conditions. You can This is referred to as the multidimensional acquisition 802 embodiment. A different feature of the multi-dimensional acquisition 802 embodiment and the stream acquisition 702 embodiment is that in the multi-dimensional acquisition 802 embodiment, a researcher can obtain the same sample under the same acquisition conditions at regular time intervals. You can get a set of images. Under the same conditions at different time intervals, the purpose of acquiring images is to generate time-lapse video.

【0070】 図14は、マルチディメンショナル取得802の実施形態のメイン802ユー
ザダイアログを示している。研究者は、各取得条件、時間経過814、多重波長
816、Do Zシリーズ816及びストリーム820をチェックしなければならず
、対応するダイアログのダイアログ、時間経過806、波長808、Zシリーズ
810及びストリーム812が現れ、研究者にアクセス可能とするために示され
ている。
FIG. 14 illustrates a main 802 user dialog of an embodiment of multidimensional acquisition 802. The researcher must check each acquisition condition, time passage 814, multiple wavelengths 816, Do Z series 816 and stream 820, and the corresponding dialog dialog, time passage 806, wavelength 808, Z series 810 and stream 812. Appears and is shown to make it accessible to researchers.

【0071】 図14は、また、研究者が、パーマネントメモリに特定して格納するイメージ
の取得された集合にファイルのタイトルを入力するデスクリプションボックス8
22を示している。図示されているように、デスクリプションボックス822は
、例示的な実験においてイメージは、ピエゾフォーカサ340が、Z位置を化へ
、波長可変器316及び/あるいは320が、3つの波長を切り替える間、10
秒づつに離れた、3つの異なる時点において崇徳される。ぼっくsる824にお
いて、ユーザが決めた名前は、イメージの取得されたスタックを有する格納され
たファイルに入力される。
FIG. 14 also illustrates a description box 8 in which a researcher enters the title of the file into the acquired set of images to be stored specifically in permanent memory.
22 is shown. As shown, the description box 822 shows that in an exemplary experiment, the image shows that the piezo focuser 340 switches to the Z position and the tunable devices 316 and / or 320 switch between the three wavelengths. 10
Be worshiped at three different times, separated by seconds. At box 824, the user-determined name is entered into the stored file with the retrieved stack of images.

【0072】 図15の時間経過806ダイアログによって、研究者は、10秒と示されてい
る「時間間隔」832と共に、3と示されている「時点の数」830を入力する
The time lapse 806 dialog of FIG. 15 allows the researcher to enter a “time interval” 832, shown as 10 seconds, as well as a “number of time points” 830, shown as 3.

【0073】 図16は、Zシリーズ810ダイアログを開くと、研究者は、イメージの取得
の間に、ピエゾフォーカサ340がZ位置を可変できるように駆動するのにプロ
グラムモジュールが必要とする関連する全ての情報を入力することができる。こ
の情報は、ピエゾフォーカサ340の現在位置840、プログラムモジュールが
、ピエゾフォーカサ340を次のZ位置に移動するように駆動するインクリメン
ト842、現在位置840からのトップ846及びボトム848距離、ピエゾフ
ォーカサ340がイメージ取得の間にとるステップ852の全数を含む。Zダイ
アログ810は、Zシリーズ情報をストリーム取得702の実施形態よりも直接
的に入力可能にし、イメージ取得の間にピエゾフォーカサ340が対物レンズ3
24を動かす全範囲844を直接に計算する。特に、マルチディメンショナル種
痘802の実施形態は、810ダイアログを使って、図7及び図9で示された2
つのダイアログで、ストリーム取得702の実施形態において、入力するように
、同じZシリーズの情報を入力する。
FIG. 16 shows that when the Z Series 810 dialog is opened, the researcher needs a program module to drive the piezo focuser 340 to allow variable Z position during image capture. You can enter all the information. This information includes the current position 840 of the piezofocuser 340, the increment 842 that the program module drives to move the piezofocuser 340 to the next Z position, the top 846 and bottom 848 distances from the current position 840, the piezofocus. It includes the total number of steps 852 that the Casa 340 takes during image acquisition. The Z-dialog 810 allows Z-series information to be entered more directly than the embodiment of stream acquisition 702, and the piezo focuser 340 allows the objective lens 3 to move during image acquisition.
The full range 844 moving 24 is calculated directly. In particular, the multi-dimensional smallpox 802 embodiment uses the 810 dialog to display the two shown in FIGS.
In one dialog, enter the same Z-series information as you would enter in the Get Streams 702 embodiment.

【0074】 図17〜19は、波長808ダイアログを示す、研究者は、Waves860ボッ
クスの#において、カメラ330がイメージを取得している間に、切り替えるこ
とのできる8波長の最大を特定することができる。ここに示されるように、3波
長が、選択されている。研究者は、名前864ボックスにおいて各番号付けされ
た波長に一意の名前を打ち込むことができる。現在波長862ボックスは、入力
された波長の名前のリスト、及び、プログラムモジュールが波長可変器316及
び/あるいは320がカメラ330が露光を開始したとき、どの波長で照射する
ように駆動するかを示す。
17-19 show a wavelength 808 dialog, the researcher has a Waves 860 box.
In box #, the maximum of 8 wavelengths that can be switched can be identified while the camera 330 is capturing an image. As shown here, three wavelengths have been selected. The researcher can type a unique name for each numbered wavelength in the Name 864 box. The Current Wavelength 862 box shows a list of entered wavelength names, and which program module the wavelength tuners 316 and / or 320 will drive to illuminate when the camera 330 begins exposure. .

【0075】 図17においては、現在波長862は、1で、DAPIとして、図18におい
て、2で、FITCとして、図19においては、3で、RHODとしてリスとさ
れている。DAPI、FITC、RHODの名前は、特定の波長で励起されたと
き、それぞれ異なる照射色を有する、当該分野で知られている蛍光染料の略であ
る。従って、その波長で照射すると、特に見ることができるようになる蛍光染料
の名前を波長で特定することは、研究者に、様々な波長を特定するのに、容易な
記憶方法を与える。波長の名前を入力するときは、研究者は、特定の名前と順番
を関連図蹴る必要がある。すなわち、各入力波長は、取得の間に照射する順番を
示す番号が与えられる。このように、各波長に、順番を打ち込んで、与えること
により、プログラムモジュールは、波長テーブルを作成することができる。
In FIG. 17, the current wavelength 862 is 1 for DAPI, 2 for FIG. 18, FITC for 3, and 3 for RHOD in FIG. The names DAPI, FITC, RHOD are abbreviations for fluorescent dyes known in the art that each have a different illumination color when excited at a particular wavelength. Thus, identifying by name the name of a fluorescent dye that becomes particularly visible when illuminated at that wavelength provides the researcher with an easy memory method to identify various wavelengths. When entering the name of the wavelength, the researcher must kick the specific name and order into the relevant diagram. That is, each input wavelength is given a number that indicates the order of irradiation during acquisition. In this way, the program module can create a wavelength table by entering and giving an order to each wavelength.

【0076】 プログラムモジュールが、カメラがイメージを取得する間に、これらの装置を
駆動して、Z位置と波長を変えさせるのに充分速い動作を行うピエゾフォーカサ
と波長可変器をユーザが構成する時、フィールド866及び868は、図17〜
19に示されるように、チェックされたように現れる。実際には、866と86
8のチェックは、ユーザに、システム300が、本発明の方法を実行するために
使用できるカメラ330と外部装置340、336、316及び/あるいは32
0と構成されてることの通知と確認を与えるものである。
A user configures a piezofocuser and a wavelength tunable device in which the program module drives these devices to operate fast enough to change the Z position and wavelength while the camera captures the image. When fields 866 and 868 are shown in FIG.
Appears to be checked, as shown at 19. In fact, 866 and 86
A check of 8 tells the user that the system 300 can use the camera 330 and the external devices 340, 336, 316 and / or 32 to carry out the method of the invention.
It provides notification and confirmation that it is configured as zero.

【0077】 図20は、ストリーム812ダイアログを示し、これは、反復のために、ユー
ザが、メイン804ユーザダイアログのストリーム820オプションをクリック
したときにのみ現れる。このオプションをクリックし、システムを適当なカメラ
及び外部装置と構成することにより、本発明の方法を利用可能であることを情報
処理システム200に通知し、これによりユーザにもこれを使えることができる
。重要なことは、ダイアログ802は、研究者がイメージ取得を始めた後、当該
方法が実行するシステムパラメータあるいは大きさの1ページの要約を研究者に
与える。フィールド870に示されているのは、イメージ取得の間に変化して大
きさのリストであり、図示されているのは、Z位置及び波長である。
FIG. 20 shows a stream 812 dialog, which only appears when the user clicks on the stream 820 option of the main 804 user dialog, due to iterations. By clicking this option and configuring the system with an appropriate camera and external device, the information processing system 200 is notified that the method of the present invention is available and thus available to the user. . Importantly, the dialog 802 provides the researcher with a one-page summary of the system parameters or magnitudes the method performs after the researcher has begun image acquisition. Shown in field 870 is a list of magnitudes that have changed during image acquisition, and shown are Z position and wavelength.

【0078】 ボックス872においては、全体の取得間の露光時間は、50msと図示され
ている。ストリーム照射874ボックスは、882において研究者が取得の間に
、波長を変えるのに使用される組み込まれた波長可変器のリストを選択できるよ
うにする。図示されているように、Sutter DG4が選択されている。
In box 872, the total exposure time between acquisitions is illustrated as 50 ms. The stream illumination 874 box allows the researcher at 882 to select a list of built-in tunables used to change the wavelength during acquisition. As shown, Sutter DG4 is selected.

【0079】 876において、研究者は、取得の間、デジタル化されたイメージを一時的に
格納するメモリロケーションを選択でき、ここでは、RAMと図示されている。 メモリアロケーション 図5と図10を引き続き参照すると、研究者が要求された取得情報を入力した
後、プログラムモジュールは、ステップ504において、情報処理サブシステム
200が、要求されたイメージのスタックを取得し、格納する十分な一時的メモ
リを有しているか否かを判断する。ストリーム取得702の実施形態においては
、図10の取得704ダイアログは、722において、例示的なスタックのため
のメモリ条件を示している。フィールド728において示されているように、例
示的なスタックにおけるフレームの全数は、46であり、46フレームを格納す
るのに必要な一時的なメモリ722の量は、23.00メガバイトである。利用
できるメモリ量724は、例示的に、255.50メガバイトとしている。研究
者は、従って、図10及び11に示されるようなシステムパラメータが与えられ
たとき、46イメージの例示的スタックを得るために十分な一時的メモリをシス
テムが有していることが知らされる。
[0079]   At 876, the researcher temporarily captured the digitized image during acquisition.
A memory location for storage can be selected, here illustrated as RAM. Memory allocation   With continued reference to FIGS. 5 and 10, the researcher has entered the requested acquisition information.
Then, the program module proceeds to step 504, the information processing subsystem.
200 has enough temporary memory to retrieve and store the requested stack of images.
It is determined whether or not the In the embodiment of stream acquisition 702,
The Get 704 dialog of FIG. 10, at 722, for the exemplary stack
Shows the memory conditions of. An example, as shown in field 728
The total number of frames in the illustrative stack is 46 and stores 46 frames.
The amount of temporary memory 722 needed to store is 23.00 megabytes. Use
The possible memory amount 724 is, for example, 255.50 megabytes. the study
The person therefore is given the system parameters as shown in FIGS.
System, enough sys- tem memory to obtain an exemplary stack of 46 images.
System is informed.

【0080】 図20を続けて参照すると、ユーザ入力のマルチディメンショナル取得802
の実施形態においては、研究者には、フィールド878において、例示的なスタ
ックが要求する一時的なメモリがどのくらいかが通知され、34.50メガバイ
トと図示されており、フィールド880いおいて、例示的な情報処理システムに
おいて利用可能なメモリがどのくらいかが通知され、255.50メガバイトと
図示されている。初期設定 図1、3及び5を続けて参照すると、一度システムが構築され、特定の値が入
力され、メモリアロケーションが行われると、プログラムモジュールは、ステッ
プ506において、コンピュータ211を駆動して、Z位置がストリーム取得の
間に変化するか否かを判断させる。もしそうであれば、ステップ508において
、プログラムモジュールは、ピエゾフォーカサ340あるいはステージムーバ3
36を動かして、ユーザがスタート位置として指定した位置に移動することによ
って、最初のZ位置を初期設定する。ストリーム取得702の実施形態において
は、これは、図11のStart At732フィールドであり、図9に示されている
ように、トップ644あるいはボトム648位置のいずれかとすることができる
。マルチディメンショナル取得802の実施形態においては、上述の図16の構
成要素846及び848の議論を参照されたい。ステップ509においては、プ
ログラムモジュールは、図17の記載の上記において議論したZ位置のテーブル
を生成する。
With continued reference to FIG. 20, multi-dimensional acquisition 802 of user input.
In an embodiment of the present invention, the researcher is informed in field 878 how much temporary memory the exemplary stack requires, illustrated as 34.50 megabytes, and in field 880, the example How much memory is available in a typical information processing system is reported and is shown as 255.50 megabytes. Initialization Continuing to refer to FIGS. 1, 3 and 5, once the system has been configured, certain values have been entered, and memory allocations have been made, the program module drives the computer 211 in step 506 to drive Z Lets determine if the position changes during stream acquisition. If so, in step 508, the program module causes the piezofocuser 340 or stage mover 3 to move.
The initial Z position is initialized by moving 36 to the position designated by the user as the start position. In the stream acquisition 702 embodiment, this is the Start At 732 field of FIG. 11 and is shown in FIG.
As such, it can be in either the top 644 or bottom 648 position. For the embodiment of multi-dimensional acquisition 802, see the discussion of components 846 and 848 of FIG. 16 above. In step 509, the program module creates the table of Z positions discussed above in the description of FIG.

【0081】 ステップ510においては、プログラムモジュールは、コンピュータ211を
駆動して、ストリーム取得の間に波長が変化するか、そして、そうならば、波長
可変器316及び/あるいは320をユーザが位置1としてステップ502で選
択した位置まで移動するか否かを判断させる。ストリーム取得702の実施形態
においては、これは、図12の構成要素752、波長#1フィールドである。マ
ルチディメンショナル取得802の実施形態においては、図17の構成要素86
2の上記議論を参照されたい。
In step 510, the program module drives the computer 211 to change the wavelength during stream acquisition and, if so, the wavelength tunable devices 316 and / or 320 to the position 1 by the user. It is determined whether or not to move to the position selected in step 502. In the embodiment of stream acquisition 702, this is component 752, wavelength # 1 field of FIG. In the embodiment of multidimensional acquisition 802, component 86 of FIG.
See the discussion above in 2.

【0082】 ステップ513において、プログラムモジュールは、図17〜19における構
成要素862の議論に戻って関連するが、波長可変器316及び/あるいは32
0が、波長を切り替える順番を特定する波長値のテーブルを生成する。
In step 513, the program module is back to the discussion of component 862 in FIGS.
0 creates a table of wavelength values that specifies the order in which the wavelengths are switched.

【0083】 ステップ514においては、プログラムモジュールは、フレーム番号を“0”
に設定し、カメラを初期化し、ステップ516において、カメラ330が外部シ
ャッタ314を有しているか否かを判断する。そのような場合、プログラムモジ
ュールは、518で外部シャッタを開き、ステップ520において、カメラを駆
動し、イメージの取得が始まる前にシャッタが開いていることを確認するため、
所定の遅延時間だけ待たせる。そのような遅延の長さは、シャッタのそれぞれに
よる。イメージ取得 ステップ522において、システムは、イメージ取得開始準備よしである。研
究者が取得ルーチンを一度始めると、カメラは、外部装置が非同期に動作して、
Z位置及び/あるいは波長を変えている間に、イメージ取得を始める。ストリー
ムライン取得702の実施形態については、図10は、取得732ボタンを示し
、これにより、取得ルーチンが始まる。マルチディメンショナル取得802の実
施形態においては、取得826ボタンは、図14に示されている。
In step 514, the program module sets the frame number to “0”.
To initialize the camera, and in step 516, it is determined whether the camera 330 has an external shutter 314. In such a case, the program module opens the external shutter at 518 and drives the camera at step 520 to ensure that the shutter is open before image acquisition begins.
Wait for a predetermined delay time. The length of such delay depends on each of the shutters. In the image acquisition step 522, the system is ready to begin image acquisition. Once the researchers start the acquisition routine, the camera is
Start image acquisition while changing Z position and / or wavelength. For the embodiment of get streamline 702, FIG. 10 shows the get 732 button, which initiates the get routine. In the embodiment of multi-dimensional acquisition 802, the acquisition 826 button is shown in FIG.

【0084】 ステップ522の取得ルーチンは、図21及び図22により詳しく記載されて
おり、以下に述べる。ステップ522の要約は、以下の通りである。露光された
フレームが、カメラ330からコンピュータ211の一時的なメモリロケーショ
ンに読み出されるに従い、本発明のプログラムモジュールは、Z位置及び/ある
いは波長を次の位置にインクリメントさせる。カメラは、次に、次のフレームを
露光し、従って、異なったZ位置及び/あるいは波長を示すイメージを取得する
。そのフレームの読み出しの間、プログラムモジュールは、再び、Z位置及び/
あるいは波長をインクリメントする。最後のフレームを読み出した後は、プログ
ラムモジュールは、スタックの取得を終了する。
The acquisition routine of step 522 is described in more detail in FIGS. 21 and 22 and is described below. A summary of step 522 is as follows. As the exposed frame is read from camera 330 to a temporary memory location on computer 211, the program module of the present invention increments the Z position and / or wavelength to the next position. The camera then exposes the next frame and thus acquires images showing different Z positions and / or wavelengths. During the reading of that frame, the program module again returns to the Z position and / or
Alternatively, the wavelength is incremented. After reading the last frame, the program module ends the acquisition of the stack.

【0085】 ステップ524〜526において、全てのイメージが読み出され、格納された
後は、プログラムモジュールは、外部シャッタ314を駆動して、(もし取得中
に行われるので有れば)、閉じさせる。ステップ528において、取得されたイ
メージのスタックは、一時的メモリロケーションからコピーされ、より半永久の
なシステムメモリロケーションに移され、従って、530でシステムメモリ資源
を開放し、次の取得イベントを始める、あるいは、必要なら、532において処
理を終了する。
After all the images have been read and stored in steps 524-526, the program module drives the external shutter 314 to close it (if it was done during acquisition). . In step 528, the stack of acquired images is copied from the temporary memory location and moved to a more semi-permanent system memory location, thus freeing system memory resources at 530 and initiating the next acquisition event, or If necessary, the process ends at 532.

【0086】 本発明のシステムの異なる実施形態は、取得されたイメージを異なる一時的な
メモリロケーションに格納する。プロセッサとしてパソコンを使用する一実施形
態においては、一時的なメモリロケーションは、コンピュータのRAMの中のバ
ッファからなる。他のシステム実施形態では、取得されたイメージを、Redundan
t Array of Inexpensive Drives (RAID)あるいは、他のコンピュータ読み取り可
能な媒体あるいは、分散計算環境を使用する実施形態あるいは、プログラムモジ
ュールのアクセスが、インターネットを介して、ローカルあるいはリモートのサ
ーバに行われる実施形態のばあいを含むリアルタイムハードディスクに格納する
。更に、本発明の異なる実施形態は、取得されたイメージを異なる半永久メモリ
ロケーションに格納する。当業者によれば、光学的顕微鏡システム100の異な
る実施形態特に、取得されたイメージを処理するのに、異なったコンピュータ構
成211を用いることに関連するかぎり、イメージを格納するのに、様々な半永
久メモリロケーションを使用することが理解されるであろう。イメージ取得間のカメラと外部装置の非同期動作 図2及び3を続けて参照すると、図21及び10は、外部装置340、336
、316及び/あるいは320が、カメラと非同期に動作する間、最大の速度あ
るいは、それに近い速度で動作するカメラ330によってイメージが取得される
ステップのシーケンスをより詳しく述べている。図21のステップ900におい
ては、ユーザは、プログラムモジュールの取得ルーチンを開始させ、その全体は
、図5のステップ522に対応する。ステップ902において、プログラムモジ
ュールは、システムのフレーム番号を0にリセットする。ステップ904におい
て、プログラムモジュールは、イメージ取得のステップを開始する。
Different embodiments of the system of the present invention store the captured image in different temporary memory locations. In one embodiment using a personal computer as the processor, the temporary memory location consists of a buffer in computer RAM. In another system embodiment, the captured image is redundan
Embodiments using t Array of Inexpensive Drives (RAID) or other computer-readable media or distributed computing environment, or embodiments in which program modules are accessed to a local or remote server via the Internet Store on a real-time hard disk including the case. Further, different embodiments of the present invention store the captured image in different semi-permanent memory locations. Those skilled in the art will appreciate that different embodiments of the optical microscope system 100, particularly those associated with using different computer configurations 211 to process the acquired images, can be used to store various images in a semi-permanent manner. It will be appreciated that memory locations are used. Asynchronous Operation of Camera and External Device During Image Acquisition Continuing to refer to FIGS. 2 and 3, FIGS.
, 316 and / or 320 more closely describe the sequence of steps in which an image is acquired by the camera 330 operating at or near maximum speed while operating asynchronously with the camera. In step 900 of FIG. 21, the user initiates a program module acquisition routine, the whole of which corresponds to step 522 of FIG. In step 902, the program module resets the system frame number to zero. In step 904, the program module initiates the image acquisition step.

【0087】 この点において、本発明の方法は、互いに関連した2つの処理のラインに分岐
し、1つのラインは、カメラ330によって実行され、ステップ912〜916
及び922〜928によって示されている。これらのステップの網掛けのノード
は、カメラコントローラの処理を示している。第2の相互に関連したラインは、
メインコンピュータ内で行われる処理に関連しており、918、932、936
、938及び940のステップからなっている。ステップ932、936、93
8及び940は、メインプロセッサによって実行され、対角線を伴ったノードに
よってそれが示されている。ステップ918は、ソフトウェア割り込みハンドラ
によって実行され、たすき網掛けによってそれが示されている。イメージ取得とソフトウェア割り込み ステップ912において、プログラムモジュールは、カメラ330に研究者が
要求したフレームの全数(Z位置の数に波長の数をかけたものに等しい、図10
の議論を参照されたい)を通知し、カメラに最初のフレームの露光を開始させる
。同時に、コンピュータ211は、ステップ932において、処理のライン、す
なわち、フレーム数がインクリメントされたか否かを判断する処理を始める。
In this regard, the method of the present invention branches into two processing lines that are related to each other, one line being executed by the camera 330 and steps 912-916.
And 922-928. The shaded nodes in these steps represent the processing of the camera controller. The second interrelated line is
Related to the processing performed in the main computer, 918, 932, 936
, 938 and 940 steps. Steps 932, 936, 93
8 and 940 are executed by the main processor and are indicated by the nodes with diagonal lines. Step 918 is performed by the software interrupt handler and is indicated by the crosshatching. In the image acquisition and software interrupt step 912, the program module causes the camera 330 to generate the total number of frames requested by the researcher (equal to the number of Z positions times the number of wavelengths, FIG.
(See the discussion in) and let the camera start the exposure of the first frame. At the same time, in step 932, the computer 211 starts the process of determining whether the line of processing, that is, the number of frames has been incremented.

【0088】 ステップ912が終了するのと、ステップ916において読み出しが始まる前
の時間の間、コンピュータ211は、ソフトウェア割り込み(コンピュータ21
1をフレーム番号の連続的処理からストップさせる命令)を受信することによっ
て、露光が終了することのアラートをあげる。アラートをあげるステップは、ノ
ード914において生じる。ステップ918においては、プログラムモジュール
の取得ルーチンの記述であるソフトウェア割り込みハンドラは、コンピュータ2
11にフレーム番号を更新するよう通知する。これは、ノード918とノード9
32を接続する点線919によって示されている。一度コンピュータ211がフ
レーム番号を1だけインクリメントすると、ほとんどの処理時間をフレーム番号
のインクリメントを待つことに使うループ933に戻る。
Between the end of step 912 and the time before the beginning of reading in step 916, the computer 211 executes a software interrupt (computer 21
By receiving a command to stop 1 from consecutive processing of frame numbers), an alert that the exposure is completed is given. The step of raising an alert occurs at node 914. In step 918, the software interrupt handler, which is the description of the acquisition routine of the program module, is executed by the computer 2.
11 is notified to update the frame number. This is node 918 and node 9
It is indicated by a dotted line 919 connecting 32. Once the computer 211 increments the frame number by 1, it returns to loop 933 which spends most of the processing time waiting for the frame number to increment.

【0089】 ステップ916においては、露光イメージの読み出しは、ダイレクトメモリア
クセス(DMA)によって、一時的メモリロケーション、例えばRAMに対して
行われる。図1を参照すると、DMAは、コンピュータ211に設けられるカメ
ラインターフェースカード225が、カメラ130から、直接アプリケーション
ソフトうぇえあ245の仲介を要求することなく、コンピュータ211のメモリ
にイメージデータを転送する方法である。
In step 916, the exposure image is read by direct memory access (DMA) to a temporary memory location, eg RAM. Referring to FIG. 1, in the DMA, the camera interface card 225 provided in the computer 211 transfers the image data from the camera 130 to the memory of the computer 211 without requesting the intermediary of the application software 245 directly. Is the way.

【0090】 この点において、プログラムモジュールは、組み込まれたカメラに従う方法の
異なる実施形態を介して、移植することができる。研究者が、フレームトランス
ファーCCDカメラあるいは、オーバラップモードで動作するインターラインC
CDカメラをシステムに組み込んだ時には、プログラムモジュールは、現在のフ レームの露光されたイメージがまだ一時的メモリに読み出されている間に、 ステ
ップ926へ直接進む。
In this respect, the program module can be ported via different embodiments of the method according to the integrated camera. Researcher has a frame transfer CCD camera or an interline C operating in overlap mode
When incorporating CD camera system, program modules, while being exposed in the current frame image is read out yet in the temporary memory, the process proceeds directly to step 926.

【0091】 この実施経路は、これらのカメラの特別な構成に依存する。上述したように、
フレームトランスファーカメラのCCD装置は、前のフレームが一時的メモリに
転送されている間に、現在のフレームを取得できるアーキテクチャを有している
。特に、フレームトランスファーCCD装置は、イメージング領域のフォトダイ
オードと、マスクド領域を有しており、前のフレームの露光されたイメージがイ
メージングフォトダイオード領域からマスクド領域に非常に高速に転送される。
カメラのイメージング領域は、前のイメージが一時的メモリに完全に読み出され
る前でも現在のフレームにおけるイメージの露光を開始するために空にされる。
実際、マスクドフォトダイオード領域は、カメラが、露光機能と読み出し機能を
オーバラップさせることのできるストップギャップ格納の一種を示している。こ
れら2つの機能のオーバラップによって、非常に速いイメージ取得が可能になる
。オーバラッピングモードで動作するインターラインCCDカメラは、フレーム
トランスファーカメラと同様に機能し、結果として、同様に高速のイメージ取得
が可能である。デジタルカメラのこれらの種類の様々なモデルのイメージ取得速
度は、ビデオカメラのようには標準化されていない。例えば、上記特定の装置部
にリストされている1フレームトランスファーカメラモデル、Princeton Instru
mentsから得られるPentaMaxラインは、約1.5msのフレームトランスファー
時間を有している。
This implementation path depends on the special configuration of these cameras. As mentioned above,
The CCD device of a frame transfer camera has an architecture that allows the current frame to be captured while the previous frame is being transferred to temporary memory. In particular, the frame transfer CCD device has a photodiode in the imaging area and a masked area, and the exposed image of the previous frame is transferred from the imaging photodiode area to the masked area very quickly.
The imaging area of the camera is emptied to begin exposing the image in the current frame even before the previous image has been completely read into temporary memory.
In fact, the masked photodiode region represents a type of stop gap storage where the camera can overlap the exposure and readout functions. The overlap of these two functions allows for very fast image acquisition. The interline CCD camera operating in the overwrapping mode functions similarly to the frame transfer camera, and as a result, similarly high speed image acquisition is possible. The image acquisition speed of various models of these types of digital cameras is not standardized as with video cameras. For example, the Princeton Instru, a 1-frame transfer camera model listed in the Specific Equipment section above.
PentaMax line obtained from ments is about 1.5ms frame transfer
Have time

【0092】 あるいは、取得カメラが、フレームトランスファーCCDあるいは、オーバラ
ップモードで動作しているインターラインCCDカメラでない場合、プログラム
モジュールは、当該方法の異なる実施形態間で移植することができる。すなわち
、ステップ926に行く前に、プログラムモジュールは、現在のフレームの露光
されたイメージが完全に読み出されるまで、待つことによって、ステップ924
を実行する。この経路は、例えば、フルフレームCCDカメラが、システムの組
み込みカメラを構成する場合に使用できる。
Alternatively, if the acquisition camera is not a frame transfer CCD or an interline CCD camera operating in overlap mode, the program module can be ported between different embodiments of the method. That is, before going to step 926, the program module waits until the exposed image of the current frame has been completely read, by step 924.
To execute. This path can be used, for example, when a full frame CCD camera constitutes the system's built-in camera.

【0093】 特定のカメラの構成は、ステップ914において、どのように、ソフトウェア
割り込みが生成されるかについての示唆を与える。本発明の方法は、カメラコン
トローラあるいは、PCIインターフェースカード225が、露光が終わり、読
み出しが始まった後の移行期間にコンピュータ211にアラートを挙げる機能を
要求する。デジタルカメラの場合、カメラコントローラは、適当な移行時期にお
いて、ソフトウェア割り込みを生成することによって、コンピュータ211にそ
のようなアラートをあげる。異なる毛MRアクセスメーカは、移行時期を異なる
言葉で表すであろう。例えば、Princeton Instruments及び、科学目的デジタル
カメラのPhotometrics linesを製造するRoper Scientificは、この移行時期をフ
レームの開始(Beginning of Frame)あるいはBOFと呼び、これを読み出しの
はじめと規定する。
The particular camera configuration gives an indication as to how a software interrupt is generated in step 914. The method of the present invention requires the camera controller or PCI interface card 225 to be capable of alerting the computer 211 during the transitional period after the end of exposure and the start of reading. In the case of a digital camera, the camera controller raises such an alert to the computer 211 by generating a software interrupt at the appropriate transition time. Different hair MR access makers will refer to transition times in different words. For example, Princeton Instruments and digital for scientific purposes
Roper Scientific, which manufactures Photometrics lines for cameras, calls this transition time the Beginning of Frame or BOF, and defines this as the beginning of reading.

【0094】 RS-170あるいはCCIR monochromeあるいはRGB仕様に適合するビデオカメラ
をシステムに組み込む場合に、ソフトウェア割り込みが生成されるためには、P
CIデジタイザカード(図1の225)あるいは、フレームグラバーがシステム
に組み込まれなくてはならず、フレームグラバーがが現在のフレームを完全にデ
ジタル化したとき、ソフトウェア割り込みの形で、信号を生成できなくてはなら
ない。フレームのデジタル化の完了時、垂直ブランクあるいはv−ブランクと当
該分野で知られるイベントが生成される。FlashBus MV-Pro frame grabber card
を製造するIntegral Technologiesは、v−ブランクが起こるときソフトウェア
割り込みを実装している。フレームグラバーカードの他の製造会社も、このイベ
ントのためのソフトウェア割り込みを作ることができるであろう。本発明の方法
は、デジタルカメラのBOFにおいて、あるいは、ビデオフレームグラバーのv
−ブランクにおいて、カメラ330が1フレームの露光を完了した方法をコンピ
ュータ211に注告する信号として生成される、ソフトウェア割り込みを用いる
Video camera conforming to RS-170 or CCIR monochrome or RGB specifications
In order to generate a software interrupt when the
A CI digitizer card (225 in Figure 1) or a frame grabber must be integrated into the system, and when the frame grabber has completely digitized the current frame, it cannot generate a signal in the form of a software interrupt. must not. Upon completion of the digitization of the frame, an event known in the art as a vertical blank or v-blank is generated. FlashBus MV-Pro frame grabber card
Integral Technologies, Inc. manufactures software when v-blanks occur.
Implements interrupts. Other manufacturers of frame grabber cards could also make software interrupts for this event. The method of the present invention can be used in a BOF of a digital camera or in a v of a video frame grabber.
-In the blank, using a software interrupt, which is generated as a signal to inform the computer 211 how the camera 330 completed one frame of exposure.

【0095】 プログラムモジュールがステップ926に進んだ後、カメラは、最後のフレー
ムが露光されたか否かを判断する。もしそうならば、カメラは、ステップ928
において、取得を終了する。そうでないならば、カメラは、継続し、次のフレー
ムを露光する。Z位置及び/あるいは波長の可変とソフトウェア割り込み 図21を続けて参照すると、本発明の方法において、とらえるべき重要な点は
、ステップ916とステップ936が同時に生じると言うことである。すなわち
、ステップ916において、カメラコントローラが、露光され、デジタル化され
たイメージをコンピュータ211のメモリバッファに転送するに従い、プログラ
ムモジュールは、末936において、図22に示されるルーチンを実行する。ス
テップ918において、ソフトウェア割り込みハンドラは、プログラムモジュー
ルの記述であるが、フレーム番号をインクリメントさせる。カメラコントローラ
あるいは、ビデオフレームグラバーからステップ914において、ソフトウェア
割り込みを受け取ると、ソフトウェア割り込みハンドラは、経路919を通って
、システムコンピュータ211のサブルーチン933処理に割り込みをかけ、コ
ンピュータにフレーム番号を1インクリメントするよう通知する。ステップ93
2において、フレーム番号の更新においては、プログラムモジュールは、ステッ
プ936に進むが、これは、図22のルーチンの実行である。
After the program module proceeds to step 926, the camera determines if the last frame was exposed. If so, the camera proceeds to step 928.
At, the acquisition ends. If not, the camera continues and exposes the next frame. Variable Z Position and / or Wavelength and Software Interrupts With continued reference to FIG. 21, an important point to note in the method of the present invention is that step 916 and step 936 occur simultaneously. That is, as the camera controller transfers the exposed and digitized image to the memory buffer of computer 211 in step 916, the program module executes the routine shown in FIG. In step 918, the software interrupt handler increments the frame number, which is a description of the program module. When a software interrupt is received from the camera controller or the video frame grabber in step 914, the software interrupt handler interrupts the processing of the subroutine 933 of the system computer 211 through the path 919 and causes the computer to increment the frame number by 1. Notice. Step 93
At 2, in updating the frame number, the program module proceeds to step 936, which is the execution of the routine of FIG.

【0096】 要約すると、図21に示されるステップ936は、カメラ330が、図21の
ステップ916〜924を実行していると同時に、コンピュータ211によって
実行される、Z位置及び/あるいは波長を可変する図22に示されるルーチンか
らなる。ステップ936がステップ916〜924と同時に行われることは、カ
メラの外部装置との非同期動作を構成する。
In summary, step 936 shown in FIG. 21 varies the Z position and / or wavelength performed by computer 211 while camera 330 is performing steps 916-924 of FIG. It consists of the routine shown in FIG. That step 936 is performed concurrently with steps 916-924 constitutes an asynchronous operation of the camera with an external device.

【0097】 図22において、ステップ952では、プログラムモジュールは、システムが
取得中に波長を変えるかどうかを問い合わせる。そうでない場合には、プログラ
ムモジュールは、ステップ964に進んで、取得中にZ位置が変化するか否かを
判断する。
In FIG. 22, in step 952, the program module inquires whether the system changes wavelength during acquisition. If not, the program module proceeds to step 964 to determine if the Z position changes during acquisition.

【0098】 システムが波長を可変するよう構成されている場合には、図12に示されるス
トリーム取得702の実施形態のもとで、あるいは、図17〜19に示されるマ
ルチディメンショナル取得802の実施形態のもとで、ステップ954において
、プログラムモジュールは、最後のフレームの照射波長は、波長テーブルの最後
にリストされたものであったか否かを問い合わせる。そうでない場合、ステップ
956と960において、プログラムモジュールは、波長可変器316及び/あ
るいは320を駆動して、波長テーブルにリスとされる次のものに波長を切り替
える。この点で、当該方法は、図21のステップ938に戻り、その点では、プ
ログラムモジュールは、変えられた波長で新しい露光を実行すべきかあるいは、
取得を終了すべきかを判断する。
If the system is configured to tunable wavelengths, under the embodiment of stream acquisition 702 shown in FIG. 12, or performing multidimensional acquisition 802 shown in FIGS. 17-19. Under morphology, in step 954, the program module inquires whether the illumination wavelength of the last frame was the last one listed in the wavelength table. Otherwise, in steps 956 and 960, the program module drives the wavelength tunable devices 316 and / or 320 to switch the wavelength to the next one listed in the wavelength table. At this point, the method returns to step 938 of FIG. 21, at which point the program module should perform a new exposure at the changed wavelength, or
Determine if the acquisition should end.

【0099】 あるいは、最後のフレームの波長が波長テーブルの最後のものであった場合に
は、ステップ958と962において、プログラムモジュールは、波長可変器3
16及び/あるいは320を駆動して、テーブルの最初にリストされている波長
に切り替える。これは、特定のZ位置において、各選択された波長が、異なるフ
レームでイメージに照射されることを意味する。
Alternatively, if the wavelength of the last frame is the last one in the wavelength table, in steps 958 and 962, the program module causes the wavelength tunable device 3 to operate.
Drive 16 and / or 320 to switch to the wavelength listed first in the table. This means that at a particular Z position, each selected wavelength illuminates the image in a different frame.

【0100】 この点で、当該方法は、ステップ964に進み、プログラムモジュールは、Z
位置が、イメージのこのスタックの取得の間変化するか否かを問い合わせる。層
でない場合には、ステップ968において、当該方法は、図21の938に戻り
、プログラムモジュールは、最後のフレームが取得されたか否かを判断する。
At this point, the method proceeds to step 964, where the program module
Queries if the position changes during the acquisition of this stack of images. If not, then in step 968 the method returns to 938 of FIG. 21 and the program module determines if the last frame was acquired.

【0101】 この取得イベントの間にZ位置が変化する場合は、ステップ966において、
プログラムモジュールは、Z位置の値を変化させるべきか否かを判断する。対物
レンズ324あるいはステージ326が既に、Z位置テーブルのリストの最後の
値にある場合には、ステップ972において、プログラムモジュールは、次のZ
位置をテーブルの最初の値にリセットする。あるいは、Z位置テーブルの最後の
値に至っていない場合には、プログラムモジュールは、ステップ970において
、Z位置の値を1インクリメントする。ステップ974では、プログラムモジュ
ールは、ピエゾフォーカサ340あるいはステージムーバ336を駆動して、次
のZ位置に移動させる。ステップ976において、当該方法は、図21のステッ
プ938に戻る。
If the Z position changes during this acquisition event, in step 966,
The program module determines whether to change the Z position value. If the objective 324 or stage 326 is already at the last value in the list of Z position tables, then in step 972 the program module causes the next Z
Reset the position to the first value in the table. Alternatively, if the last value in the Z position table has not been reached, the program module increments the Z position value by 1 in step 970. In step 974, the program module drives the piezofocuser 340 or the stage mover 336 to move it to the next Z position. In step 976, the method returns to step 938 of FIG.

【0102】 ここで、プログラムモジュールは、これが最後のフレームか否かを判断する。
そうでない場合、プログラムモジュールは、ステップ932において、フレーム
番号を1インクリメントし、ステップ936において、図22のルーチンに再び
入り、再び、波長及び/あるいはZ位置を変える。図22のルーチンは、プログ
ラムモジュールがステップ938において、最後のフレームが露光されたと判断
するまで行われる。
Here, the program module determines whether this is the last frame.
Otherwise, the program module increments the frame number by 1 in step 932 and reenters the routine of FIG. 22 in step 936 to change the wavelength and / or Z position again. The routine of FIG. 22 continues until the program module determines in step 938 that the last frame has been exposed.

【0103】 ユーザ入力のマルチディメンショナル802の実施形態に関して上記したよう
に、研究者は、異なる時点で、イメージの集合を取得するよう選択することがで
きる。図15のフィールド830において、3と示されているように、異なる時
間列が選択された場合、プログラムモジュールは、Z位置の数に波長の数と時点
の数をかけた数に等しいフレーム数を計算する。そして、上記例を続けると、2
3のZ位置、3波長、3時点の場合、フレームの全数は、23×3×3あるいは
、207フレームに等しい。
As described above with respect to the user input multi-dimensional 802 embodiment, the researcher can choose to acquire a collection of images at different times. If a different time sequence is selected, as indicated by 3 in field 830 of FIG. 15, the program module will generate a number of frames equal to the number of Z positions times the number of wavelengths times the number of time points. calculate. And continuing the above example, 2
In the case of 3 Z positions, 3 wavelengths, and 3 time points, the total number of frames is equal to 23 × 3 × 3 or 207 frames.

【0104】 ステップ940において、プログラムモジュールは、取得ルーチンを終了し、
当該方法は、図5のステップ524に進む。図5の記載において、上記に議論し
たように、当該方法は、ステップ524〜530にすすみ、必要ならば外部シャ
ッタを閉じ、イメージのスタックを一時的から半永久的メモリにコピーし、一時
的メモリを空にして、当該方法を完了する。取得後処理 全てのイメージが取得され、半永久的メモリに格納された後は、当該方法は終
了する。しかし、当該方法の終了後、研究者は、取得されたスタックを様々な既
知の方法で、適切なアプリケーションソフトウェアで処理し、以前には得ること
のできなかった知見を得るであろう。例えば、取得されたスタックを処理する非
常に重要で、価値のある方法は、イメージの中断されないシーケンスをプレイバ
ックする、すなわち、焦点面における変化及び、連続としての照射光を示す「ム
ービー」として表示することである。
In step 940, the program module ends the acquisition routine,
The method proceeds to step 524 in FIG. In the description of FIG. 5, as discussed above, the method proceeds to steps 524-530, closes the external shutter if necessary, copies the stack of images from temporary to semi-permanent memory, and stores temporary memory. Empty and complete the method. Post-Acquisition Processing After all images have been acquired and stored in semi-permanent memory, the method ends. However, after the end of the method, the investigator will process the acquired stack in a variety of known ways with appropriate application software to gain insights previously unavailable. For example, a very important and valuable way of processing the acquired stack is to play back an uninterrupted sequence of images, i.e. display as a "movie" showing changes in the focal plane and illuminating light as a continuum. It is to be.

【0105】 図23は、MetaMorph(TM)のレビューマルチディメンショナルデータ1100
ユーザダイアログの例を示し、ユーザが、取得したイメージのスタックを連続ス
トリーム、すなわち、ムービーとして表示することを選択可能な、イメージのス
タックを処理するソフトウェアアプリケーションである。図23のセレクトベー
スファイル1102ボタンをクリックすることにより、研究者は、処理されるべ
き、イメージの必要なスタックを含むファイルを選択することができる。図14
のフィールド824においては、研究者は、本発明の方法を使用することによっ
て、取得イベントに対し、識別することのできるファイル名を入力することがで
きることを思い出されたい。ファイルを選択すると、研究者は、波長1104ボ
ックスにおいて、イメージの選択されたファイルをある波長で照射されたとして
表示することを要求することができる。ここで、1104と示されているように
、研究者は、図17〜19において選択された、DAPI、FITC及びRHO
Dとして表示されている、これらの照射波長のいずれか、あるいは、全てについ
て、チェックすることができる。1104で図示されている各チェックされた波
長は、そのウィンドウに現れる。
FIG. 23 shows the review multidimensional data 1100 of MetaMorph (TM).
FIG. 6 is an example of a user dialog, a software application that processes a stack of images that allows the user to choose to display the acquired stack of images as a continuous stream, or movie. By clicking the Select Base File 1102 button in FIG. 23, the researcher can select the file containing the required stack of images to be processed. 14
Recall that, in field 824 of, a researcher can enter an identifiable file name for an acquisition event by using the method of the present invention. Upon selecting a file, the researcher can request in the wavelength 1104 box to display the selected file of images as illuminated at a wavelength. Here, as indicated at 1104, the researcher selects the DAPI, FITC and RHO selected in FIGS.
Any or all of these illumination wavelengths, labeled D, can be checked. Each checked wavelength, shown at 1104, appears in that window.

【0106】 Zテーブル1106は、選択されたZ位置において、異なる時系列において取
得されたフレームの全ての2次元配列である。テーブル1106に示される列の
数は、ユーザによって入力された時系列の数に等しい。図15のフィールド83
0に示されているように、時系列の数は、3であり、これは、テーブル1106
の列の数に対応する。テーブル1106の行の数は、図16においてフィールド
852で入力されたZ位置の数に対応し、そこでは、例として23とされていた
。従って、テーブル1106の列1は、第1の時系列の間、取得された23のZ
位置を表し、列2は、第2の時系列の間に取得された23のZ位置を表す、など
である。
The Z-table 1106 is a two-dimensional array of all the frames acquired in different time series at the selected Z position. The number of columns shown in table 1106 is equal to the number of time series entered by the user. Field 83 of FIG.
As shown in 0, the number of time series is 3, which is table 1106.
Corresponds to the number of columns in. The number of rows in the table 1106 corresponds to the number of Z positions entered in the field 852 in FIG. 16, where there was 23 as an example. Therefore, column 1 of table 1106 contains 23 Z's acquired during the first time series.
Position, column 2 represents the 23 Z positions acquired during the second time series, and so on.

【0107】 あるZ位置で、特定の時系列で、ボックス1104でチェックされた波長の一
つによって照射されて取得された各フレームを見るには、研究者は、テーブル1
106の特定のセルをクリックする。1104でチェックされた各波長の当該時
系列のそのZ位置に対応するイメージは、ボックス1122に表示される。例え
ば、ハイライト表示されたセル1120は、第2の時系列の第5のZ位置のチェ
ックされた全ての波長に対応する。
To view each frame acquired by illuminating with one of the wavelengths checked in box 1104 at a particular Z position and in a particular time series, the researcher should
Click on a particular cell at 106. The image corresponding to that Z position of the time series for each wavelength checked at 1104 is displayed in box 1122. For example, highlighted cell 1120 corresponds to all checked wavelengths in the fifth Z position of the second time series.

【0108】 ある時系列の全てのZ位置のムービーを見たい場合には、研究者は、1106
配列の例えば、列1のセルをハイライト表示し、1108の適当な矢印ボタンを
クリックして、第1の時系列の23のZ位置について、前方向や後ろ方向に表示
させる。あるZ位置の時間経過のイメージを見たいためには、研究者は、例えば
、第5のZ位置のセル1120など、あるセルをハイライト表示し、1112の
適当な矢印ボタンをクリックして、3つの時系列のZ位置#5の3つのイメージ
を前方向及び後ろ方向に表示させる。
To view a movie at all Z positions in a time series, the researcher would
For example, highlight the cell in column 1 of the array and click the appropriate arrow button 1108 to display the 23 Z positions of the first time series in the forward or backward direction. To see an image of a Z position over time, the researcher would highlight a cell, for example cell 5120 at the fifth Z position, and click on the appropriate arrow button at 1112. Three images at the Z position # 5 in three time series are displayed in the front and rear directions.

【0109】 ロードイメージ1114ボタンをクリックすると、全ての選択されたフレーム
は、最初に取得されたスタックの部分集合として関係付けられる。このように、
部分集合スタッは、そのパラメータの時間経過の変化を見るために、ムービーと
してプレイバックされる。更に重要なことは、セレクトベストフォーカス111
6ボタンをクリックすることにより、研究者は、どの位置、あるいは、どの焦点
面が、最もピントのあったイメージを含むかを決定するために、ある時系列の全
てのZ位置イメージを自動フォーカシングするアルゴリズムを起動することがで
きる。アルゴリズムが最もピントのあった位置を発見すると、1120に示され
るように、その場所に、「X」が配置される。自動フォーカシングは、1120
、1124、及び1126に「X」で示されている、各時系列の最良ピント位置
のテーブルが生成されるまで続けられる。研究者は、1112の適当なボタンを
使って、これらのフレームを表示させるか、あるいは、1114をクリックして
、部分集合スタックをこれらのフレームに集めて、時間経過と共に、最もピント
のあった位置のムービーをプレイバックさせる。
When the load image 1114 button is clicked, all selected frames are related as a subset of the stack originally acquired. in this way,
The subset stack is played back as a movie to see the change over time of its parameters. More importantly, Select Best Focus 111
By clicking the 6 button, the researcher autofocuses all Z-position images in a time series to determine which position, or which focal plane, contains the most focused image. The algorithm can be activated. When the algorithm finds the most in-focus location, an "X" is placed in that location, as shown at 1120. Automatic focusing is 1120
, 1124, and 1126, until the table of best focus positions for each time series is generated. The researcher can use the appropriate buttons at 1112 to view these frames, or click 1114 to assemble the subset stacks at these frames and position the most focused position over time. Play back the movie.

【0110】 本発明を使って取得されたフレームのスタックの取得後処理のこの議論は、本
発明の請求項に記載した構成要素を記載しないが、研究者が以前にはできなかっ
た細胞レベルでの生物学的イベントの知見を生成するために、既知の方法で処理
できるイメージの集合の以前には知られていない種類を本発明がいかに提供する
かを明示するために含めた。
This discussion of post-acquisition processing of stacks of frames acquired using the present invention does not describe the claimed components of the present invention, but at the cellular level that researchers could not previously do. It was included to demonstrate how the present invention provides a previously unknown class of image sets that can be processed in known ways to generate knowledge of biological events in.

【0111】 本発明は、特定の実施形態を参照して、特定的に示し、記載したが、当業者に
よれば、形式や詳細についての様々な変形が、本発明の思想及び範囲から離れる
ことなくできることが理解されるであろう。
Although the present invention has been particularly shown and described with reference to particular embodiments, various modifications in form and detail are departing from the spirit and scope of the invention by those skilled in the art. It will be understood what can be done.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の例示的実施形態の動作環境を提供する自動光学顕微鏡システムのブロ
ック図である。
FIG. 1 is a block diagram of an automated optical microscopy system that provides an operating environment for an exemplary embodiment of the invention.

【図2】情報処理サブシステムと顕微鏡サブシステムの例示的実施形態間の
例示的ハードウェア接続構成の図式的表現である。
FIG. 2 is a schematic representation of an exemplary hardware connection configuration between an exemplary embodiment of an information processing subsystem and a microscope subsystem.

【図3】 本発明の方法を実現するのに使用される例示的顕微鏡サブシステムの模式的図
である。
FIG. 3 is a schematic diagram of an exemplary microscope subsystem used to implement the method of the present invention.

【図4】 本発明の方法を実現するのに使用される例示的顕微鏡サブシステムの図式的表
現である。
FIG. 4 is a schematic representation of an exemplary microscope subsystem used to implement the method of the present invention.

【図5】 本発明の全体方法の例示的実施形態を示すフローチャートである。[Figure 5]   3 is a flow chart illustrating an exemplary embodiment of the overall method of the present invention.

【図6】 本発明のシステムにカメラをインストールするための例示的ユーザインターフ
ェースダイアログを示す図である。
FIG. 6 illustrates an exemplary user interface dialog for installing a camera in the system of the present invention.

【図7】 図6のインストールされたカメラに関連するパラメータを構築する例示的ユー
ザインターフェースダイアログを示す図である。
FIG. 7 illustrates an exemplary user interface dialog for building parameters associated with the installed camera of FIG.

【図8】 本発明のシステムに、イメージ取得パラメータを変化させる顕微鏡の外部装置
をインストールするための例示的ユーザインターフェースダイアログを示す図で
ある。
FIG. 8 illustrates an exemplary user interface dialog for installing a microscope external device with varying image acquisition parameters in the system of the present invention.

【図9】 本発明のシステムに、インストールされた対物レンズ配置器を構成する例示的
ユーザインターフェースダイアログを示す図である。
FIG. 9 illustrates an exemplary user interface dialog that configures an objective lens placer installed in the system of the present invention.

【図10】 本発明の方法のストリームアクイジション実施形態のアクワイヤーユーザイ
ンターフェースダイアログを示す図である。
FIG. 10 illustrates an Acquire user interface dialog of a stream acquisition embodiment of the method of the present invention.

【図11】 ユーザがインストールされた対物レンズ配置器のスタート及び終了焦点位置を
入力する本発明のストリームアクイジション実施形態のフォーカスユーザインタ
ーフェースダイアログを示す図である。
FIG. 11 illustrates a focus user interface dialog of a stream acquisition embodiment of the present invention for a user to enter start and end focus positions for an installed objective lens dispositioner.

【図12】ユーザが、イメージ取得の間、試料に光照射するのに使う波長を
入力する本発明のストリームアクイジション実施形態の波長ユーザインターフェ
ースダイアログを示す図である。
FIG. 12 shows a wavelength user interface dialog of a stream acquisition embodiment of the present invention in which the user inputs the wavelength used to illuminate the sample during image acquisition.

【図13】 本発明のストリームアクイジション実施形態のカメラパラメータユーザインタ
ーフェースダイアログを示す図である。
FIG. 13 is a diagram showing a camera parameter user interface dialog of the stream acquisition embodiment of the present invention.

【図14】 本発明のマルチディメンショナルアクイジション実施形態のメインユーザイン
ターフェースダイアログを示す図である。
FIG. 14 is a diagram illustrating a main user interface dialog of a multidimensional acquisition embodiment of the present invention.

【図15】 ユーザが、任意の取得イベントにおいて、本発明の方法でイメージを取得する
回数を入力する本発明のマルチディメンショナルアクイジション実施形態のタイ
ムラップスユーザインターフェースダイアログを示す図である。
FIG. 15 illustrates a Time Lapse User Interface dialog of a multi-dimensional acquisition embodiment of the present invention in which the user enters the number of times to acquire an image with the method of the present invention at any acquisition event.

【図16】 ユーザが、本発明の方法を実行している間、Z位置を変える値を入力する本発
明のマルチディメンショナルアクイジション実施形態のZシリーズユーザインタ
ーフェースダイアログを示す図である。
FIG. 16 illustrates a Z-series user interface dialog of a multidimensional acquisition embodiment of the present invention in which a user inputs a value to change the Z position while performing the method of the present invention.

【図17】 ユーザが、本発明の方法を実行している間、波長を変えるための値を入力する
本発明のマルチディメンショナルアクイジション実施形態の波長ユーザインター
フェースダイアログを示す図である。
FIG. 17 shows a wavelength user interface dialog of a multidimensional acquisition embodiment of the present invention in which a user inputs a value for changing the wavelength while performing the method of the present invention.

【図18】 ユーザが、本発明の方法を実行している間、波長を変えるための値を入力する
本発明のマルチディメンショナルアクイジション実施形態の波長ユーザインター
フェースダイアログを示す図である。
FIG. 18 shows a wavelength user interface dialog of a multi-dimensional acquisition embodiment of the present invention in which a user inputs a value for changing the wavelength while performing the method of the present invention.

【図19】 ユーザが、本発明の方法を実行している間、波長を変えるための値を入力する
本発明のマルチディメンショナルアクイジション実施形態の波長ユーザインター
フェースダイアログを示す図である。
FIG. 19 shows a wavelength user interface dialog of a multi-dimensional acquisition embodiment of the present invention in which a user inputs a value for changing the wavelength while performing the method of the present invention.

【図20】 本発明のマルチディメンショナルアクイジション実施形態のストリームユーザ
インターフェースダイアログを示す図である。
FIG. 20 is a diagram illustrating a stream user interface dialog of a multidimensional acquisition embodiment of the present invention.

【図21】 カメラと非同期に外部装置が動作している間、カメラが、イメージの取得の最
大速度か、それに近い速度で動作させる本発明のアクワイヤールーチンのステッ
プの例示的実施形態を示すフローチャートである。
FIG. 21 is a flow chart illustrating an exemplary embodiment of the steps of an Acquire routine of the present invention in which a camera operates at or near the maximum rate of image acquisition while an external device is operating asynchronously with the camera. Is.

【図22】 外部装置がカメラと非同期に動作している間、イメージ取得パラメータを変化
させるように外部装置を動かすための本発明の方法のステップの例示的実施形態
を示すフローチャートである。
FIG. 22 is a flow chart illustrating an exemplary embodiment of the method steps of the present invention for moving an external device to change image acquisition parameters while the external device is operating asynchronously with the camera.

【図23】 ユーザが、本発明の方法で作られたイメージのシーケンスを連続ストリームあ
るいはムービーとしてプレイバックすることができる、例示的イメージ処理ソフ
トウェアアプリケーションのレビューマルチディメンショナルデータユーザイン
ターフェースダイアログを示す図である。
FIG. 23 shows a review multi-dimensional data user interface dialog of an exemplary image processing software application that allows a user to play back a sequence of images created by the method of the present invention as a continuous stream or movie. is there.

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,MZ,SD,SL,SZ,TZ,UG ,ZW),EA(AM,AZ,BY,KG,KZ,MD, RU,TJ,TM),AE,AG,AL,AM,AT, AU,AZ,BA,BB,BG,BR,BY,BZ,C A,CH,CN,CR,CU,CZ,DE,DK,DM ,DZ,EE,ES,FI,GB,GD,GE,GH, GM,HR,HU,ID,IL,IN,IS,JP,K E,KG,KP,KR,KZ,LC,LK,LR,LS ,LT,LU,LV,MA,MD,MG,MK,MN, MW,MX,MZ,NO,NZ,PL,PT,RO,R U,SD,SE,SG,SI,SK,SL,TJ,TM ,TR,TT,TZ,UA,UG,US,UZ,VN, YU,ZA,ZW (72)発明者 ペターソン,ウィリアム アメリカ合衆国,ペンシルベニア州 19380,ウェスト チェスター,シャーウ ッド ドライブ 1329 (72)発明者 コーエン,アブラム アメリカ合衆国,ペンシルベニア州 19355,マルバーン,チャールストン グ リーネ 812 (72)発明者 スジャスタッド,マイケル,ディー. アメリカ合衆国,カリフォルニア州 94301,パロ アルト,グインダ ストリ ート 525 (72)発明者 スタッキー,ジェフリー,エー. アメリカ合衆国,ペンシルベニア州 19403,ジェファーソンビル,イースト インディアン レーン 28 Fターム(参考) 2H052 AC04 AD03 AD16 AF00 AF14 AF25 5C022 AA01 AA08 AB15 AC42 AC52 AC69 5C053 FA09 FA11 FA27 GB06 GB10 KA04 KA24 LA02 LA11 5C054 AA01 CH02 EA01 EA05 EA07 EB05 ED07 FC15 FF02 GA04 GB11 HA05 ─────────────────────────────────────────────────── ─── Continued front page    (81) Designated countries EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, I T, LU, MC, NL, PT, SE), OA (BF, BJ , CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP (GH, GM, K E, LS, MW, MZ, SD, SL, SZ, TZ, UG , ZW), EA (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM), AE, AG, AL, AM, AT, AU, AZ, BA, BB, BG, BR, BY, BZ, C A, CH, CN, CR, CU, CZ, DE, DK, DM , DZ, EE, ES, FI, GB, GD, GE, GH, GM, HR, HU, ID, IL, IN, IS, JP, K E, KG, KP, KR, KZ, LC, LK, LR, LS , LT, LU, LV, MA, MD, MG, MK, MN, MW, MX, MZ, NO, NZ, PL, PT, RO, R U, SD, SE, SG, SI, SK, SL, TJ, TM , TR, TT, TZ, UA, UG, US, UZ, VN, YU, ZA, ZW (72) Inventor Petterson, William             Pennsylvania, United States             19380, West Chester, Shaw             Dead Drive 1329 (72) Inventor Cohen, Abram             Pennsylvania, United States             19355, Malvern, Charlestong             Linee 812 (72) Inventor Sujastad, Michael, Dee.             California, United States             94301, Palo Alto, Guindustri             525 (72) Inventor Stucky, Jeffrey, A ..             Pennsylvania, United States             19403, Jeffersonville, East             Indian lane 28 F term (reference) 2H052 AC04 AD03 AD16 AF00 AF14                       AF25                 5C022 AA01 AA08 AB15 AC42 AC52                       AC69                 5C053 FA09 FA11 FA27 GB06 GB10                       KA04 KA24 LA02 LA11                 5C054 AA01 CH02 EA01 EA05 EA07                       EB05 ED07 FC15 FF02 GA04                       GB11 HA05

Claims (26)

【特許請求の範囲】[Claims] 【請求項1】光学顕微鏡システムを用いたイメージを取得する方法であって
、 a)カメラ、顕微鏡、情報処理システム及び、少なくとも1つの取得パラメー
タを可変するように動作する、顕微鏡の外部の少なくとも1つの装置を備える、
光学顕微鏡システムを組み立てるステップと、 b)該カメラの最大イメージ取得速度に実質的に近い速度でイメージを取得す
るステップと、 c)イメージの取得の間、該カメラの最大イメージ取得速度に実質的に近い速
度で、該少なくとも1つのシステム装置を駆動し、少なくとも1つのイメージ取
得パラメータを変更し、取得されたイメージは、少なくとも1つのイメージ取得
パラメータの変化を表示するステップと、 d)取得されたイメージをデジタル化されたデータイメージの少なくとも1つ
のスタックとして格納するステップとからなり、 光学顕微鏡システムの組み立ては、 (i)該システムを初期化し、該カメラのイメージ取得速度を入力し、該外
部装置が、イメージ取得パラメータを可変するように動作する速度を入力するス
テップと、 (ii)イメージの取得の間に、該イメージ取得パラメータが変化する値の
範囲を初期設定するステップと、 (iii)イメージ取得パラメータの変化における該外部装置の動作速度と
、該カメラの速度を比較し、該組み立てられたシステムは、該外部装置がイメー
ジ取得波他メータを可変している間に、該カメラの取得速度で、あるいは、それ
に近い速度でイメージを取得することができるか否かを判断するステップと、 (iv)該システムは、該システム装置が該値の範囲に渡ってイメージ取得
パラメータを可変するように動作している間に取得されるデジタル化されたイメ
ージのスタックを格納する十分なメモリを有しているか否かを判断するステップ
と、 からなることを特徴とする方法。
1. A method of acquiring an image using an optical microscope system, comprising: a) a camera, a microscope, an information processing system and at least one external to the microscope operable to vary at least one acquisition parameter. Equipped with one device,
Assembling an optical microscope system; b) acquiring an image at a speed substantially close to the maximum image acquisition speed of the camera; and c) substantially acquiring a maximum image acquisition speed of the camera during image acquisition. Driving the at least one system unit at a near speed, modifying at least one image acquisition parameter, the acquired image displaying a change in at least one image acquisition parameter, and d) the acquired image. Is stored as at least one stack of digitized data images, and the assembly of the optical microscope system comprises: (i) initializing the system, inputting the image acquisition rate of the camera, the external device Enter the speed at which you want to work, changing the image acquisition parameters And (ii) initializing a range of values in which the image acquisition parameter changes during image acquisition, (iii) the operating speed of the external device in the change of the image acquisition parameter, and the camera Comparing speeds, and whether the assembled system can acquire images at or near the acquisition speed of the camera while the external device varies the image acquisition wave and other meters. And (iv) the system is a stack of digitized images acquired while the system unit is operating to vary the image acquisition parameters over the range of values. Determining whether or not it has sufficient memory to store.
【請求項2】光学顕微鏡システムを用いたイメージ取得のための方法であっ
て、 a)カメラ、顕微鏡、情報処理システム及び、少なくとも1つの取得パラメー
タを可変するように動作する、顕微鏡の外部の少なくとも1つの装置を備える、
光学顕微鏡システムを組み立てるステップと、 b)該カメラの最大イメージ取得速度に実質的に近い速度でイメージを取得す
るステップと、 c)イメージの取得の間、該カメラの最大イメージ取得速度に実質的に近い速
度で、該少なくとも1つのシステム装置を駆動し、少なくとも1つのイメージ取
得パラメータを変更し、取得されたイメージは、少なくとも1つのイメージ取得
パラメータの変化を表示するステップと、 d)取得されたイメージをデジタル化されたデータイメージの少なくとも1つ
のスタックとして格納するステップとからなり、 光学顕微鏡システムの組み立ては、 (i)該システムを初期化し、該カメラのイメージ取得速度を入力し、該外
部装置が、イメージ取得パラメータを可変するように動作する速度を入力するス
テップと、 (ii)イメージの取得の間に、該イメージ取得パラメータが変化する値の
範囲を初期設定するステップと、 (iii)イメージが取得される時間を初期設定するステップと、 (iv)イメージ取得パラメータの変化における該外部装置の動作速度と、
該カメラの速度を比較し、該組み立てられたシステムは、該外部装置がイメージ
取得波他メータを可変している間に、該カメラの取得速度で、あるいは、それに
近い速度でイメージを取得することができるか否かを判断するステップと、 (v)該システムは、該システム装置が該値の範囲に渡ってイメージ取得パ
ラメータを可変するように動作している間に取得されるデジタル化されたイメー
ジのスタックを格納する十分なメモリを有しているか否かを判断するステップと
、 からなることを特徴とする方法。
2. A method for image acquisition using an optical microscope system, comprising: a) a camera, a microscope, an information processing system and at least one external to the microscope operative to vary at least one acquisition parameter. With one device,
Assembling an optical microscope system; b) acquiring an image at a speed substantially close to the maximum image acquisition speed of the camera; and c) substantially acquiring a maximum image acquisition speed of the camera during image acquisition. Driving the at least one system unit at a near speed, modifying at least one image acquisition parameter, the acquired image displaying a change in at least one image acquisition parameter, and d) the acquired image. Is stored as at least one stack of digitized data images, and the assembly of the optical microscope system comprises: (i) initializing the system, inputting the image acquisition rate of the camera, the external device Enter the speed at which you want to work, changing the image acquisition parameters And (ii) initializing a range of values for which the image acquisition parameter changes during image acquisition, (iii) initializing the time at which the image is acquired, and (iv) image The operating speed of the external device in the change of the acquisition parameter,
Compare the speeds of the cameras and the assembled system acquires images at or near the acquisition speed of the camera while the external device is varying the image acquisition wave and other meters. (V) the system is digitized acquired while the system unit is operating to vary the image acquisition parameters over the range of values. Determining whether or not it has sufficient memory to store a stack of images, the method comprising:
【請求項3】自動光学顕微鏡システムを使った、イメージ取得の命令を有す
るコンピュータ読み取り可能な媒体内のコンピュータプログラム製品であって、 カメラ、顕微鏡、情報処理システム及び、少なくとも1つの取得パラメータを
可変するように動作する、顕微鏡の外部の少なくとも1つの装置を備える、光学
顕微鏡システムを組み立てる該コンピュータ読み取り可能な媒体内の命令と、 該カメラの最大イメージ取得速度に実質的に近い速度でイメージを取得する該
コンピュータ読み取り可能な媒体内の命令と、 イメージの取得の間、該カメラの最大イメージ取得速度に実質的に近い速度で
、該少なくとも1つのシステム装置を駆動し、少なくとも1つのイメージ取得パ
ラメータを変更し、取得されたイメージは、少なくとも1つのイメージ取得パラ
メータの変化を表示する該コンピュータ読み取り可能な媒体内の命令と、 取得されたイメージをデジタル化されたデータイメージの少なくとも1つのス
タックとして格納する該コンピュータ読み取り可能な媒体内の命令とからなり、 光学顕微鏡システムの組み立てる命令は、 該システムを初期化し、該カメラのイメージ取得速度を入力し、該外部装置
が、イメージ取得パラメータを可変するように動作する速度を入力する命令と、 イメージの取得の間に、該イメージ取得パラメータが変化する値の範囲を初
期設定する命令と、 イメージ取得パラメータの変化における該外部装置の動作速度と、該カメラ
の速度を比較し、該組み立てられたシステムは、該外部装置がイメージ取得波他
メータを可変している間に、該カメラの取得速度で、あるいは、それに近い速度
でイメージを取得することができるか否かを判断する命令と、 該システムは、該システム装置が該値の範囲に渡ってイメージ取得パラメー
タを可変するように動作している間に取得されるデジタル化されたイメージのス
タックを格納する十分なメモリを有しているか否かを判断する命令と、 からなることを特徴とするコンピュータプログラム製品。
3. A computer program product in a computer-readable medium having instructions for image acquisition using an automated optical microscope system, the camera, microscope, information processing system and at least one acquisition parameter being variable. And an instruction in the computer-readable medium for assembling an optical microscope system, comprising at least one device external to the microscope, and acquiring images at a speed substantially close to the maximum image acquisition speed of the camera. Driving the at least one system unit and changing at least one image acquisition parameter at a speed substantially close to the maximum image acquisition speed of the camera during the acquisition of the instructions in the computer readable medium and the image. And the captured image contains at least one image. The instructions in the computer-readable medium for displaying a change in a capture parameter and the instructions in the computer-readable medium for storing the captured image as at least one stack of digitized data images. The instruction for assembling the optical microscope system is to initialize the system, input the image acquisition speed of the camera, and input the speed at which the external device operates to change the image acquisition parameter. During the acquisition, a command for initializing a range of values for which the image acquisition parameter changes, the operating speed of the external device in the change of the image acquisition parameter, and the speed of the camera are compared, and the assembled system is , While the external device is changing the image acquisition wave and other meters, An instruction to determine whether an image can be acquired at or near the acquisition rate, and the system operates such that the system unit varies the image acquisition parameters over the range of values. A computer program product, comprising: instructions for determining whether or not it has sufficient memory to store a stack of digitized images acquired during the operation.
【請求項4】自動光学顕微鏡システムを使った、イメージ取得の命令を有す
るコンピュータ読み取り可能な媒体内のコンピュータプログラム製品であって、 カメラ、顕微鏡、情報処理システム及び、少なくとも1つの取得パラメータを
可変するように動作する、顕微鏡の外部の少なくとも1つの装置を備える、光学
顕微鏡システムを組み立てる該コンピュータ読み取り可能な媒体内の命令と、 該カメラの最大イメージ取得速度に実質的に近い速度でイメージを取得する該
コンピュータ読み取り可能な媒体内の命令と、 イメージの取得の間、該カメラの最大イメージ取得速度に実質的に近い速度で
、該少なくとも1つのシステム装置を駆動し、少なくとも1つのイメージ取得パ
ラメータを変更し、取得されたイメージは、少なくとも1つのイメージ取得パラ
メータの変化を表示する該コンピュータ読み取り可能な媒体内の命令と、 取得されたイメージをデジタル化されたデータイメージの少なくとも1つのス
タックとして格納する該コンピュータ読み取り可能な媒体内の命令とからなり、 光学顕微鏡システムの組み立てる命令は、 該システムを初期化し、該カメラのイメージ取得速度を入力し、該外部装置
が、イメージ取得パラメータを可変するように動作する速度を入力する命令と、 イメージの取得の間に、該イメージ取得パラメータが変化する値の範囲を初
期設定する命令と、 イメージが取得される時間を初期設定する命令と、 イメージ取得パラメータの変化における該外部装置の動作速度と、該カメラ
の速度を比較し、該組み立てられたシステムは、該外部装置がイメージ取得波他
メータを可変している間に、該カメラの取得速度で、あるいは、それに近い速度
でイメージを取得することができるか否かを判断する命令と、 該システムは、該システム装置が該値の範囲に渡ってイメージ取得パラメー
タを可変するように動作している間に取得されるデジタル化されたイメージのス
タックを格納する十分なメモリを有しているか否かを判断する命令と、 からなることを特徴とするコンピュータプログラム製品。
4. A computer program product in a computer-readable medium having instructions for image acquisition using an automated optical microscope system, the camera, microscope, information processing system and at least one acquisition parameter being variable. And an instruction in the computer-readable medium for assembling an optical microscope system, comprising at least one device external to the microscope, and acquiring images at a speed substantially close to the maximum image acquisition speed of the camera. Driving the at least one system unit and changing at least one image acquisition parameter at a speed substantially close to the maximum image acquisition speed of the camera during the acquisition of the instructions in the computer readable medium and the image. And the captured image contains at least one image. The instructions in the computer-readable medium for displaying a change in a capture parameter and the instructions in the computer-readable medium for storing the captured image as at least one stack of digitized data images. The instruction for assembling the optical microscope system is to initialize the system, input the image acquisition speed of the camera, and input the speed at which the external device operates to change the image acquisition parameter. An instruction for initializing a range of values for which the image acquisition parameter changes during acquisition, an instruction for initializing a time at which an image is acquired, an operation speed of the external device when the image acquisition parameter changes, and Comparing camera speeds, the assembled system is An instruction to determine whether an image can be acquired at or near the acquisition speed of the camera while the acquisition wave and other meters are being varied; An instruction to determine whether it has sufficient memory to store a stack of digitized images acquired while operating to vary the image acquisition parameters over a range of values; A computer program product characterized by:
【請求項5】請求項1のステップを実行するコンピュータプログラム製品を
含むようにプログラムされた自動光学顕微鏡システムであって、 顕微鏡と、 カメラと、 コンピュータとメモリからなる情報処理システムと、 少なくとも1つのイメージ取得パラメータを可変する顕微鏡の外部の少なくと
も一つの手段と、 を備えることを特徴とするシステム。
5. An automated optical microscope system programmed to include a computer program product for performing the steps of claim 1, comprising: a microscope, a camera, an information processing system comprising a computer and memory, and at least one of: At least one means external to the microscope for varying the image acquisition parameters, and a system comprising:
【請求項6】取得されたイメージは、ランダムアクセスメモリに格納される
ことをと特徴とする請求項5に記載のシステム。
6. The system of claim 5, wherein the acquired image is stored in random access memory.
【請求項7】取得されたイメージは、リアルタイムハードディスクに格納さ
れることを特徴とする請求項5に記載のシステム。
7. The system of claim 5, wherein the captured image is stored on a real-time hard disk.
【請求項8】取得されたイメージは、コンピュータ読み取り可能な媒体に格
納されることを特徴とする請求項5に記載のシステム。
8. The system of claim 5, wherein the captured image is stored on a computer-readable medium.
【請求項9】取得されたイメージは、前記情報処理システムが接続されるサ
ーバに格納されることを特徴とする請求項5に記載のシステム。
9. The system according to claim 5, wherein the acquired image is stored in a server to which the information processing system is connected.
【請求項10】デジタル化されたスタックの処理が、蛍光着色された細胞エ
レメントのイメージを取得し、処理するコンピュータ化されたイメージ処理方法
によって行われ、該コンピュータ化された方法は、以下の方法を実行するプログ
ラムモジュールを含み、該方法は、 a)カメラ、顕微鏡、情報処理システム及び、少なくとも1つの取得パラメー
タを可変するように動作する、顕微鏡の外部の少なくとも1つの装置を備える、
光学顕微鏡システムを組み立てるステップと、 b)該カメラの最大イメージ取得速度に実質的に近い速度でイメージを取得す
るステップと、 c)イメージの取得の間、該カメラの最大イメージ取得速度に実質的に近い速
度で、該少なくとも1つのシステム装置を駆動し、少なくとも1つのイメージ取
得パラメータを変更し、取得されたイメージは、少なくとも1つのイメージ取得
パラメータの変化を表示するステップと、 d)取得されたイメージをデジタル化されたデータイメージの少なくとも1つ
のスタックとして格納するステップとからなり、 光学顕微鏡システムの組み立ては、 (i)該システムを初期化し、該カメラのイメージ取得速度を入力し、該外
部装置が、イメージ取得パラメータを可変するように動作する速度を入力するス
テップと、 (ii)イメージの取得の間に、該イメージ取得パラメータが変化する値の
範囲を初期設定するステップと、 (iii)イメージ取得パラメータの変化における該外部装置の動作速度と
、該カメラの速度を比較し、該組み立てられたシステムは、該外部装置がイメー
ジ取得波他メータを可変している間に、該カメラの取得速度で、あるいは、それ
に近い速度でイメージを取得することができるか否かを判断するステップと、 (iv)該システムは、該システム装置が該値の範囲に渡ってイメージ取得
パラメータを可変するように動作している間に取得されるデジタル化されたイメ
ージのスタックを格納する十分なメモリを有しているか否かを判断するステップ
と、 からなることを特徴とする請求項5に記載のシステム。
10. Processing of the digitized stack is performed by a computerized image processing method for acquiring and processing images of fluorescently colored cellular elements, the computerized method comprising: And a) a camera, a microscope, an information processing system, and at least one device external to the microscope operative to vary at least one acquisition parameter, the method comprising:
Assembling an optical microscope system; b) acquiring an image at a speed substantially close to the maximum image acquisition speed of the camera; and c) substantially acquiring a maximum image acquisition speed of the camera during image acquisition. Driving the at least one system unit at a near speed, modifying at least one image acquisition parameter, the acquired image displaying a change in at least one image acquisition parameter, and d) the acquired image. Is stored as at least one stack of digitized data images, and the assembly of the optical microscope system comprises: (i) initializing the system, inputting the image acquisition rate of the camera, the external device Enter the speed at which you want to work, changing the image acquisition parameters And (ii) initializing a range of values in which the image acquisition parameter changes during image acquisition, (iii) the operating speed of the external device in the change of the image acquisition parameter, and the camera Comparing speeds, and whether the assembled system can acquire images at or near the acquisition speed of the camera while the external device varies the image acquisition wave and other meters. And (iv) the system is a stack of digitized images acquired while the system unit is operating to vary the image acquisition parameters over the range of values. 6. The system of claim 5, comprising: determining if it has sufficient memory to store.
【請求項11】顕微鏡手段の外部の装置は、該顕微鏡の対物レンズの垂直位
置を可変する手段を備えることを特徴とする請求項5に記載のシステム。
11. The system according to claim 5, wherein the device external to the microscope means comprises means for varying the vertical position of the objective lens of the microscope.
【請求項12】前記顕微鏡の外部の装置は、イメージが取得される放射波長
を可変する手段を備えることを特徴とする請求項5に記載のシステム。
12. The system of claim 5, wherein a device external to the microscope comprises means for varying the emission wavelength at which the image is acquired.
【請求項13】前記顕微鏡の外部の装置は、イメージが取得される励起波長
を可変する手段を備えることを特徴とする請求項5に記載のシステム。
13. The system of claim 5, wherein a device external to the microscope comprises means for varying the excitation wavelength at which the image is acquired.
【請求項14】前記顕微鏡の外部の装置は、イメージが取得される該顕微鏡
のステージの垂直位置を可変する手段を備えることを特徴とする請求項5に記載
のシステム。
14. The system of claim 5, wherein a device external to the microscope comprises means for varying the vertical position of the microscope stage on which an image is acquired.
【請求項15】前記顕微鏡の外部の全ての装置は、前記カメラがイメージを
取得している間、それぞれの取得パラメータの値を可変することを特徴とする請
求項5に記載のシステム。
15. The system of claim 5, wherein all devices external to the microscope vary the value of their respective acquisition parameters while the camera is acquiring an image.
【請求項16】請求項2のステップを実行するコンピュータプログラム製品
を含むようにプログラムされた自動光学顕微鏡システムであって、 顕微鏡と、 カメラと、 コンピュータとメモリからなる情報処理システムと、 少なくとも1つのイメージ取得パラメータを可変する顕微鏡の外部の少なくと
も一つの手段と、 を備えることを特徴とするシステム。
16. An automated optical microscope system programmed to include a computer program product for performing the steps of claim 2, comprising: a microscope, a camera, an information processing system comprising a computer and memory, and at least one of: At least one means external to the microscope for varying the image acquisition parameters, and a system comprising:
【請求項17】前記取得されたイメージは、ランダムアクセスメモリに格納
されることを特徴とする請求項16に記載のシステム。
17. The system of claim 16, wherein the captured image is stored in random access memory.
【請求項18】前記取得されたイメージは、リアルタイムハードディスクに
格納されることを特徴とする請求項16に記載のシステム。
18. The system of claim 16, wherein the captured image is stored on a real-time hard disk.
【請求項19】前記取得されたイメージは、コンピュータ読み取り可能な媒
体に格納されることを特徴とする請求項16に記載のシステム。
19. The system of claim 16, wherein the captured image is stored on a computer-readable medium.
【請求項20】前記取得されたイメージは、前記情報処理システムが接続さ
れるサーバに格納されることを特徴とする請求項16に記載のシステム。
20. The system according to claim 16, wherein the acquired image is stored in a server to which the information processing system is connected.
【請求項21】デジタル化されたスタックの処理が、蛍光着色された細胞エ
レメントのイメージを取得し、処理するコンピュータ化されたイメージ処理方法
によって行われ、該コンピュータ化された方法は、以下の方法を実行するプログ
ラムモジュールを含み、該方法は、 a)カメラ、顕微鏡、情報処理システム及び、少なくとも1つの取得パラメー
タを可変するように動作する、顕微鏡の外部の少なくとも1つの装置を備える、
光学顕微鏡システムを組み立てるステップと、 b)該カメラの最大イメージ取得速度に実質的に近い速度でイメージを取得す
るステップと、 c)イメージの取得の間、該カメラの最大イメージ取得速度に実質的に近い速
度で、該少なくとも1つのシステム装置を駆動し、少なくとも1つのイメージ取
得パラメータを変更し、取得されたイメージは、少なくとも1つのイメージ取得
パラメータの変化を表示するステップと、 d)取得されたイメージをデジタル化されたデータイメージの少なくとも1つ
のスタックとして格納するステップとからなり、 光学顕微鏡システムの組み立ては、 (i)該システムを初期化し、該カメラのイメージ取得速度を入力し、該外
部装置が、イメージ取得パラメータを可変するように動作する速度を入力するス
テップと、 (ii)イメージの取得の間に、該イメージ取得パラメータが変化する値の
範囲を初期設定するステップと、 (iii)イメージが取得される時間を初期設定するステップと、 (iv)イメージ取得パラメータの変化における該外部装置の動作速度と、
該カメラの速度を比較し、該組み立てられたシステムは、該外部装置がイメージ
取得波他メータを可変している間に、該カメラの取得速度で、あるいは、それに
近い速度でイメージを取得することができるか否かを判断するステップと、 (v)該システムは、該システム装置が該値の範囲に渡ってイメージ取得パ
ラメータを可変するように動作している間に取得されるデジタル化されたイメー
ジのスタックを格納する十分なメモリを有しているか否かを判断するステップと
、 からなることを特徴とする請求項16に記載のシステム。
21. The processing of the digitized stack is performed by a computerized image processing method of acquiring and processing images of fluorescently colored cell elements, the computerized method comprising: And a) a camera, a microscope, an information processing system, and at least one device external to the microscope operative to vary at least one acquisition parameter, the method comprising:
Assembling an optical microscope system; b) acquiring an image at a speed substantially close to the maximum image acquisition speed of the camera; and c) substantially acquiring a maximum image acquisition speed of the camera during image acquisition. Driving the at least one system unit at a near speed, modifying at least one image acquisition parameter, the acquired image displaying a change in at least one image acquisition parameter, and d) the acquired image. Is stored as at least one stack of digitized data images, and the assembly of the optical microscope system comprises: (i) initializing the system, inputting the image acquisition rate of the camera, the external device Enter the speed at which you want to work, changing the image acquisition parameters And (ii) initializing a range of values for which the image acquisition parameter changes during image acquisition, (iii) initializing the time at which the image is acquired, and (iv) image The operating speed of the external device in the change of the acquisition parameter,
Compare the speeds of the cameras and the assembled system acquires images at or near the acquisition speed of the camera while the external device is varying the image acquisition wave and other meters. (V) the system is digitized acquired while the system unit is operating to vary the image acquisition parameters over the range of values. 17. The system of claim 16, comprising: determining if it has sufficient memory to store a stack of images.
【請求項22】前記顕微鏡の外部の装置は、イメージが取得される対物レン
ズの垂直位置を可変する手段を備えることを特徴とする請求項16に記載のシス
テム。
22. The system of claim 16, wherein a device external to the microscope comprises means for varying the vertical position of the objective lens from which the image is acquired.
【請求項23】前記顕微鏡の外部の装置は、イメージが取得される放射波長
を可変する手段を備えることを特徴とする請求項16に記載のシステム。
23. The system of claim 16, wherein a device external to the microscope comprises means for varying the emission wavelength at which the image is acquired.
【請求項24】前記顕微鏡の外部の装置は、イメージが取得される励起波長
を可変する手段を備えることを特徴とする請求項16に記載のシステム。
24. The system of claim 16, wherein a device external to the microscope comprises means for varying the excitation wavelength at which the image is acquired.
【請求項25】前記顕微鏡の外部の装置は、イメージが取得される該顕微鏡
のステージの垂直位置を可変する手段を備えることを特徴とする請求項16に記
載のシステム。
25. The system of claim 16, wherein a device external to the microscope comprises means for varying the vertical position of the microscope stage on which an image is acquired.
【請求項26】前記顕微鏡の外部の全ての装置は、前記カメラがイメージを
取得している間、それぞれの取得パラメータの値を可変することを特徴とする請
求項17に記載のシステム。
26. The system of claim 17, wherein all devices external to the microscope vary the values of their respective acquisition parameters while the camera is acquiring an image.
JP2001517803A 1999-08-13 2000-08-14 System and method for acquiring an image at a maximum acquisition speed while sequentially operating a microscope device asynchronously Withdrawn JP2003507766A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14881999P 1999-08-13 1999-08-13
US60/148,819 1999-08-13
PCT/US2000/022193 WO2001013640A1 (en) 1999-08-13 2000-08-14 System and method for acquiring images at maximum acquisition rate while asynchronously sequencing microscope devices

Publications (1)

Publication Number Publication Date
JP2003507766A true JP2003507766A (en) 2003-02-25

Family

ID=22527531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001517803A Withdrawn JP2003507766A (en) 1999-08-13 2000-08-14 System and method for acquiring an image at a maximum acquisition speed while sequentially operating a microscope device asynchronously

Country Status (4)

Country Link
EP (1) EP1210822A4 (en)
JP (1) JP2003507766A (en)
AU (1) AU6904500A (en)
WO (1) WO2001013640A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2065745A2 (en) 2007-11-26 2009-06-03 Olympus Corporation Microscope observation system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5058444B2 (en) 2005-02-10 2012-10-24 オリンパス株式会社 Micrograph apparatus and micrograph apparatus control method
JP2010503847A (en) * 2006-09-14 2010-02-04 オックスフォード・ジーン・テクノロジー・アイピー・リミテッド Device for imaging single molecules
CN113395483B (en) * 2020-03-12 2023-07-18 平湖莱顿光学仪器制造有限公司 Method and device for presenting multiple microscopic sub-video information

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5053626A (en) * 1989-09-29 1991-10-01 Boston University Dual wavelength spectrofluorometer
US5548661A (en) * 1991-07-12 1996-08-20 Price; Jeffrey H. Operator independent image cytometer
US5233197A (en) * 1991-07-15 1993-08-03 University Of Massachusetts Medical Center High speed digital imaging microscope
US5517251A (en) * 1994-04-28 1996-05-14 The Regents Of The University Of California Acquisition of video images simultaneously with analog signals
US5760950A (en) * 1996-07-25 1998-06-02 Advanced Scanning, Ltd. Scanning confocal microscope
AU7019798A (en) * 1997-04-09 1998-10-30 Northern Edge Associates Inc. Color translating uv microscope

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2065745A2 (en) 2007-11-26 2009-06-03 Olympus Corporation Microscope observation system
US8102418B2 (en) 2007-11-26 2012-01-24 Olympus Corporation Microscope observation system

Also Published As

Publication number Publication date
EP1210822A4 (en) 2004-07-28
WO2001013640A1 (en) 2001-02-22
AU6904500A (en) 2001-03-13
EP1210822A1 (en) 2002-06-05

Similar Documents

Publication Publication Date Title
US6724419B1 (en) System and method for acquiring images at maximum acquisition rate while asynchronously sequencing microscope devices
JP6437947B2 (en) Fully automatic rapid microscope slide scanner
Edelstein et al. Advanced methods of microscope control using μManager software
JP2017194699A5 (en)
JP2017194700A5 (en)
JP2003507766A (en) System and method for acquiring an image at a maximum acquisition speed while sequentially operating a microscope device asynchronously
JP7119085B2 (en) Impact rescan system
Soenksen A fully integrated virtual microscopy system for analysis and discovery

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071106