JP2010160371A - Confocal microscope - Google Patents

Confocal microscope Download PDF

Info

Publication number
JP2010160371A
JP2010160371A JP2009003127A JP2009003127A JP2010160371A JP 2010160371 A JP2010160371 A JP 2010160371A JP 2009003127 A JP2009003127 A JP 2009003127A JP 2009003127 A JP2009003127 A JP 2009003127A JP 2010160371 A JP2010160371 A JP 2010160371A
Authority
JP
Japan
Prior art keywords
light
observation
sample
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009003127A
Other languages
Japanese (ja)
Inventor
Nobuhiko Yonetani
信彦 米谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009003127A priority Critical patent/JP2010160371A/en
Publication of JP2010160371A publication Critical patent/JP2010160371A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To change the sectioning resolution with a simple constitution. <P>SOLUTION: When illumination light from a light source 22 is radiated to a sample 13, observation light appears from the sample 13, and the observation light passes an optical image forming system 51 and is detected by an optical detector 52. The optical detector 52 is arranged at a position substantially conjugate with an observation surface 13s, so that the observation light from a near region close to the observation surface 13s and the observation light from a peripheral region around the near region can be individually detected. An image processing section 54 generates a near image from the detected result of the observation light from the near region, and generates a peripheral image from the detected result of the observation light from the peripheral region. A personal computer 12 generates, from the near image and peripheral image, an observation image of a sectioning resolution different from that of these images. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、より簡単な構成でセクショニング分解能を変更できるようにした共焦点顕微鏡に関する。   The present invention relates to a confocal microscope in which sectioning resolution can be changed with a simpler configuration.

従来、観察対象の試料に照明光を照射し、これにより試料から発現した観察光のうち、その試料と略共役な位置にあるピンホールを通過した光束を光検出器で検出することで、試料の2次元の画像を得る共焦点顕微鏡が知られている。共焦点顕微鏡ではピンホールを設けることで、試料における、照射される照明光の進行方向と略同じ方向に薄い部位の層のみからの観察光だけを検出し、その部位の画像を得ることができる。   Conventionally, by irradiating a sample to be observed with illumination light, among the observation light expressed from the sample, a light beam that has passed through a pinhole at a position substantially conjugated with the sample is detected by a photodetector. A confocal microscope that obtains a two-dimensional image is known. By providing a pinhole in the confocal microscope, it is possible to detect only the observation light from only a thin layer in the sample in substantially the same direction as the direction of illumination light to be irradiated, and obtain an image of that portion. .

特に、観察対象となる試料の厚み方向の観察範囲、より詳細には、試料の厚み方向の観察範囲の調節能力はセクショニング分解能と呼ばれており、試料の厚み方向の観察範囲の厚みが薄いほど、よりセクショニング分解能は高いとされる。例えば共焦点顕微鏡では、ピンホールの開口をより小さくするほど、観察光の検出対象となる試料の厚み方向の観察範囲がより薄くなるので、セクショニング分解能は高くなる。   In particular, the ability to adjust the observation range in the thickness direction of the sample to be observed, more specifically, the ability to adjust the observation range in the thickness direction of the sample is called sectioning resolution. It is said that the sectioning resolution is higher. For example, in a confocal microscope, the smaller the pinhole opening, the thinner the observation range in the thickness direction of the sample to be detected by the observation light, so the sectioning resolution increases.

また、従来の共焦点顕微鏡には、試料からの観察光を開口径の小さなピンホールを通過させると同時に、そのピンホールを通過できなかった観察光を反射して、より大きな開口径のピンホールを通過させることで、セクショニング分解能を変化させるものもある(例えば、特許文献1参照)。   In addition, the conventional confocal microscope allows the observation light from the sample to pass through a pinhole having a small opening diameter, and at the same time, reflects the observation light that has failed to pass through the pinhole to provide a pinhole having a larger opening diameter. In some cases, the sectioning resolution is changed by passing the signal (for example, see Patent Document 1).

この共焦点顕微鏡では、ピンホールを通過した観察光のそれぞれを光検出器で検出することにより、セクショニング分解能の異なる複数の画像が生成され、さらにそれらの画像を用いた演算処理により、目的とするセクショニング分解能の画像が得られる。したがって、このような共焦点顕微鏡によれば、演算処理により、簡単にセクショニング分解能を変更することができる(例えば、特許文献2等)。   In this confocal microscope, a plurality of images with different sectioning resolutions are generated by detecting each of the observation light that has passed through the pinhole with a photodetector, and further, the target is obtained by performing arithmetic processing using these images. An image with sectioning resolution is obtained. Therefore, according to such a confocal microscope, the sectioning resolution can be easily changed by arithmetic processing (for example, Patent Document 2).

特開2005−274591号公報JP 2005-274591 A 国際公開第2007/010697号パンフレットInternational Publication No. 2007/010697 Pamphlet

しかしながら上述した技術では、共焦点顕微鏡に、複数のピンホールを有し、観察光を分離する部材や、観察光が通過するピンホールごとに光検出器を設ける必要があるため、共焦点顕微鏡の構成が煩雑になってしまう。   However, in the technique described above, the confocal microscope has a plurality of pinholes, and it is necessary to provide a photodetector for each member that separates the observation light and each pinhole through which the observation light passes. The configuration becomes complicated.

本発明は、このような状況に鑑みてなされたものであり、より簡単な構成で、共焦点顕微鏡のセクショニング分解能を変更できるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to change the sectioning resolution of a confocal microscope with a simpler configuration.

本発明の共焦点顕微鏡は、観察対象の試料の観察面に照明光を集光する照明光学系と、前記照明光学系に含まれ、前記観察面上で前記照明光を走査させるスキャナと、前記試料からの観察光を集光する結像光学系と、前記試料における前記照明光の集光位置と略共役な位置に配置され、前記観察光を検出する光検出手段と、前記光検出手段による検出結果に基づいて、前記試料における前記集光位置の近傍領域からの前記観察光に基づく第1の画像データと、前記試料における前記近傍領域の周辺領域からの前記観察光に基づく第2の画像データとを生成する画像生成手段と、前記第1の画像データおよび前記第2の画像データに基づいて、前記第1の画像データおよび前記第2の画像データとはセクショニング分解能が異なる第3の画像データを生成する演算手段とを備えることを特徴とする。   The confocal microscope of the present invention includes an illumination optical system that condenses illumination light on an observation surface of a sample to be observed, a scanner that is included in the illumination optical system and that scans the illumination light on the observation surface, and An imaging optical system that condenses observation light from a sample, a light detection means that is disposed at a position that is substantially conjugate with the light collection position of the illumination light in the sample, and a light detection means that detects the observation light. Based on the detection result, the first image data based on the observation light from the region near the condensing position on the sample, and the second image based on the observation light from the peripheral region of the vicinity region on the sample. And a third image having a sectioning resolution different from that of the first image data and the second image data based on the first image data and the second image data. De Characterized in that it comprises a calculating means for generating data.

本発明によれば、より簡単な構成で、セクショニング分解能を変更することができる。   According to the present invention, the sectioning resolution can be changed with a simpler configuration.

本発明を適用した共焦点観察システムの一実施の形態の構成例を示す図である。It is a figure which shows the structural example of one Embodiment of the confocal observation system to which this invention is applied. 照明光による走査について説明する図である。It is a figure explaining the scanning by illumination light. 光検出器の受光面において、試料の各部位からの観察光が入射する領域について説明する図である。It is a figure explaining the area | region where the observation light from each site | part of a sample injects in the light-receiving surface of a photodetector. 光検出器の受光面の各領域に入射する、試料の部位からの観察光について説明する図である。It is a figure explaining the observation light from the site | part of a sample which injects into each area | region of the light-receiving surface of a photodetector.

以下、図面を参照して、本発明を適用した実施の形態について説明する。   Embodiments to which the present invention is applied will be described below with reference to the drawings.

図1は、本発明を適用した共焦点観察システムの一実施の形態の構成例を示す図である。この共焦点観察システムは、共焦点顕微鏡11およびパーソナルコンピュータ12から構成され、共焦点観察システムにより試料13の共焦点観察が行われる。   FIG. 1 is a diagram showing a configuration example of an embodiment of a confocal observation system to which the present invention is applied. This confocal observation system includes a confocal microscope 11 and a personal computer 12, and the confocal observation of the sample 13 is performed by the confocal observation system.

観察対象の試料13は、共焦点顕微鏡11のステージ21上に載置され、試料13には、光源22から出射し、共焦点顕微鏡11の照明光学系23により導かれた照明光が照射される。   The sample 13 to be observed is placed on the stage 21 of the confocal microscope 11, and the sample 13 is irradiated with illumination light emitted from the light source 22 and guided by the illumination optical system 23 of the confocal microscope 11. .

すなわち、光源22には光ファイバ31が接続されており、光源22から光ファイバ31に入射した照明光は、光ファイバ31によりコリメートレンズ32に導かれる。そして、光ファイバ31からコリメートレンズ32に入射した照明光は、コリメートレンズ32により平行光とされ、さらにシリンドリカルレンズ33により図中、奥行き方向に収斂されたライン状の光に変換されてマイクロレンズアレイ34に入射する。   That is, the optical fiber 31 is connected to the light source 22, and the illumination light incident on the optical fiber 31 from the light source 22 is guided to the collimating lens 32 by the optical fiber 31. The illumination light incident on the collimating lens 32 from the optical fiber 31 is converted into parallel light by the collimating lens 32, and further converted into line-shaped light converged in the depth direction in the figure by the cylindrical lens 33 to be converted into a microlens array. 34 is incident.

また、マイクロレンズアレイ34は、図中、縦方向に並べられた複数のレンズからなり、マイクロレンズアレイ34に入射した照明光は、それらのレンズにより、照明光の進行方向と垂直な方向、つまり図中、縦方向に並ぶ複数の光束に分離される。すなわち、マイクロレンズアレイ34を構成する各レンズは、入射した照明光を集光してレンズ35に入射させる。   In addition, the microlens array 34 includes a plurality of lenses arranged in the vertical direction in the drawing, and the illumination light incident on the microlens array 34 is perpendicular to the traveling direction of the illumination light, that is, by these lenses, that is, In the figure, the light beam is separated into a plurality of light beams arranged in the vertical direction. That is, each lens constituting the microlens array 34 collects the incident illumination light and makes it incident on the lens 35.

マイクロレンズアレイ34により集光された照明光の各光束は、レンズ35により平行光とされ、ガルバノスキャナ36、瞳投影レンズ37、第2対物レンズ38、ダイクロイックミラー39、および対物レンズ40を通って試料13に照射される。このとき、ガルバノスキャナ36は、図示せぬミラーを回動させて、試料13の観察面13s上で照明光を走査させる。具体的には、図中、奥行き方向および横方向への照明光の走査が行われる。   Each light beam of the illumination light collected by the microlens array 34 is converted into parallel light by the lens 35 and passes through the galvano scanner 36, pupil projection lens 37, second objective lens 38, dichroic mirror 39, and objective lens 40. The sample 13 is irradiated. At this time, the galvano scanner 36 rotates a mirror (not shown) to scan the illumination light on the observation surface 13 s of the sample 13. Specifically, illumination light is scanned in the depth direction and the lateral direction in the drawing.

このように、光源22からの照明光は、光ファイバ31乃至対物レンズ40からなる照明光学系23により試料13に導かれて、試料13の観察面13sに集光される。   As described above, the illumination light from the light source 22 is guided to the sample 13 by the illumination optical system 23 including the optical fiber 31 to the objective lens 40 and is condensed on the observation surface 13 s of the sample 13.

また、試料13に照明光が照射されると、試料13からは観察光としての蛍光が発現し、この観察光(蛍光)は、結像光学系51により光検出器52に導かれる。結像光学系51は、対物レンズ40、ダイクロイックミラー39、および第2対物レンズ53から構成され、結像光学系51は照明光学系23と共通の光学系を有している。   When the sample 13 is irradiated with illumination light, fluorescence as observation light appears from the sample 13, and this observation light (fluorescence) is guided to the photodetector 52 by the imaging optical system 51. The imaging optical system 51 includes an objective lens 40, a dichroic mirror 39, and a second objective lens 53. The imaging optical system 51 has an optical system that is common to the illumination optical system 23.

すなわち、試料13からの観察光は対物レンズ40を通ってダイクロイックミラー39に入射し、ダイクロイックミラー39において反射されて第2対物レンズ53に入射する。ここで、ダイクロイックミラー39は、第2対物レンズ38からの照明光をそのまま透過するとともに、対物レンズ40からの観察光を反射することで、照明光と観察光とを分離している。   That is, the observation light from the sample 13 passes through the objective lens 40 and enters the dichroic mirror 39, is reflected by the dichroic mirror 39, and enters the second objective lens 53. Here, the dichroic mirror 39 transmits the illumination light from the second objective lens 38 as it is and separates the illumination light and the observation light by reflecting the observation light from the objective lens 40.

また、ダイクロイックミラー39からの観察光は、第2対物レンズ53によって、光検出器52の図示せぬ受光面上に集光される。光検出器52の受光面は、試料13における照明光の集光位置、つまり観察面13sと略共役な位置に配置されている。   Further, the observation light from the dichroic mirror 39 is condensed on a light receiving surface (not shown) of the photodetector 52 by the second objective lens 53. The light receiving surface of the photodetector 52 is disposed at a position where the illumination light is condensed on the sample 13, that is, a position substantially conjugate with the observation surface 13 s.

光検出器52は、例えばCCD(Charge Coupled Devices)などからなり、試料13からの観察光のうちの、試料13における照明光の集光位置近傍の近傍領域からの観察光と、試料13における近傍領域の周辺の周辺領域からの観察光とを検出する。   The light detector 52 is composed of, for example, a CCD (Charge Coupled Devices) and the like. Among the observation light from the sample 13, the observation light from the vicinity region in the vicinity of the light collection position of the illumination light in the sample 13 and the vicinity in the sample 13. The observation light from the peripheral area around the area is detected.

ここで、近傍領域とは、照明光が集光される観察面13sを含む、試料13の厚み方向の薄い観察範囲の領域をいう。また、周辺領域は、観察面13sを中心とした試料13における、近傍領域に図中、上側に隣接する薄い層の領域と、近傍領域に図中、下側に隣接する薄い層の領域とからなる。なお、以下、試料13における図中、縦方向を、試料13の厚み方向とも称する。   Here, the vicinity region refers to a region in the thin observation range in the thickness direction of the sample 13 including the observation surface 13s on which the illumination light is collected. Further, the peripheral region includes a thin layer region adjacent to the upper side in the drawing in the vicinity region and a thin layer region adjacent to the lower side in the drawing in the vicinity region in the sample 13 centered on the observation surface 13s. Become. Hereinafter, the longitudinal direction in the drawing of the sample 13 is also referred to as the thickness direction of the sample 13.

光検出器52は、近傍領域からの観察光と周辺領域からの観察光とを、それぞれ受光して光電変換することにより、それらの観察光の検出を行い、光電変換により得られた電気信号を観察光の検出結果として画像処理部54に供給する。この電気信号の値は、受光された観察光の光量、つまり観察光の輝度を示している。   The photodetector 52 receives and photoelectrically converts the observation light from the neighboring region and the observation light from the neighboring region, respectively, detects the observation light, and outputs the electric signal obtained by the photoelectric conversion. The observation result is supplied to the image processing unit 54 as a result of detection. The value of the electrical signal indicates the amount of received observation light, that is, the luminance of the observation light.

画像処理部54は、光検出器52から供給された電気信号に基づいて、互いにセクショニング分解能の異なる近傍画像データおよび周辺画像データを生成し、パーソナルコンピュータ12に供給する。   Based on the electrical signal supplied from the photodetector 52, the image processing unit 54 generates nearby image data and surrounding image data having different sectioning resolutions, and supplies them to the personal computer 12.

すなわち、画像処理部54は、近傍領域からの観察光により得られた電気信号に基づいて、試料13の近傍領域の画像の画像データである近傍画像データを生成する。同様に、画像処理部54は、周辺領域からの観察光により得られた電気信号に基づいて、試料13の周辺領域の画像の画像データである周辺画像データを生成する。なお、以下、近傍画像データに基づく画像を近傍画像とも称し、周辺画像データに基づく画像を周辺画像とも称することとする。   That is, the image processing unit 54 generates neighborhood image data that is image data of an image in the vicinity region of the sample 13 based on the electrical signal obtained by the observation light from the vicinity region. Similarly, the image processing unit 54 generates peripheral image data that is image data of an image of the peripheral region of the sample 13 based on an electrical signal obtained from observation light from the peripheral region. Hereinafter, an image based on the neighborhood image data is also referred to as a neighborhood image, and an image based on the neighborhood image data is also referred to as a neighborhood image.

パーソナルコンピュータ12は、画像処理部54から供給された近傍画像データおよび周辺画像データに基づいて、近傍画像データおよび周辺画像データとは異なるセクショニング分解能の観察画像データを生成し、観察画像データに基づく観察画像を表示する。   The personal computer 12 generates observation image data having a sectioning resolution different from that of the neighborhood image data and the surrounding image data based on the neighborhood image data and the surrounding image data supplied from the image processing unit 54, and performs observation based on the observation image data. Display an image.

観察画像データのセクショニング分解能、つまり観察画像に表示される試料13の部位は、観察面13sを中心とし、試料13における近傍領域および周辺領域からなる領域よりも、試料13の厚み方向に薄い層の領域とされる。また、セクショニング分解能は、パーソナルコンピュータ12により、適宜、変更される。したがって、観察画像に表示される試料13の部位の厚み方向の厚さは、近傍領域の厚さよりも薄い場合がある。   The sectioning resolution of the observation image data, that is, the portion of the sample 13 displayed in the observation image is a layer thinner in the thickness direction of the sample 13 than the region composed of the vicinity region and the peripheral region in the sample 13 with the observation surface 13s as the center. It is considered as an area. Further, the sectioning resolution is appropriately changed by the personal computer 12. Therefore, the thickness in the thickness direction of the portion of the sample 13 displayed in the observation image may be thinner than the thickness of the neighboring region.

ところで、共焦点顕微鏡11では、マイクロレンズアレイ34により照明光が複数の光束に分離されるため、試料13の観察時には、例えば図2に示すように、試料13の観察面13s上で照明光としての複数の光束L11乃至光束L14が走査される。なお、図2は、試料13の観察面13sを図1中、上側から下側方向に見た図を示している。   By the way, in the confocal microscope 11, since the illumination light is separated into a plurality of light beams by the micro lens array 34, when observing the sample 13, for example, as shown in FIG. A plurality of light beams L11 to L14 are scanned. 2 shows a view of the observation surface 13s of the sample 13 as viewed from the upper side to the lower side in FIG.

図2では、照明光としての光束L11乃至光束L14が図中、縦方向に所定の間隔で並べられ、観察面13sに集光されている。これらの光束L11乃至光束L14はガルバノスキャナ36により、図中、左右方向および上下方向に同時に走査される。これにより、観察面13sの略全ての領域に照明光が照射されることになる。   In FIG. 2, light beams L11 to L14 as illumination light are arranged in the vertical direction at a predetermined interval in the drawing and are condensed on the observation surface 13s. These light beams L11 to L14 are simultaneously scanned by the galvano scanner 36 in the horizontal direction and the vertical direction in the drawing. Thereby, illumination light is irradiated to substantially all areas of the observation surface 13s.

一方、光検出器52では、これらの光束L11乃至光束L14が試料13に照射されることで試料13から発現した複数の光束が、観察光として検出されることになる。   On the other hand, the light detector 52 detects a plurality of light beams expressed from the sample 13 as observation light by irradiating the sample 13 with the light beams L11 to L14.

例えば、図3に示すように、光束L11が試料13に照射されることで試料13から発現した光束は、光検出器52の受光面の領域R11および領域R12に入射する。また、光束L12が試料13に照射されることで試料13から発現した光束は、光検出器52の受光面の領域R13および領域R14に入射する。なお、図3において、1つの四角形は、光検出器52の受光面を構成する1つの画素を表している。   For example, as illustrated in FIG. 3, the light beam expressed from the sample 13 when the sample 13 is irradiated with the light beam L <b> 11 enters the region R <b> 11 and the region R <b> 12 of the light receiving surface of the photodetector 52. Further, the light beam expressed from the sample 13 when the sample 13 is irradiated with the light beam L12 enters the region R13 and the region R14 of the light receiving surface of the photodetector 52. In FIG. 3, one square represents one pixel constituting the light receiving surface of the photodetector 52.

より詳細には、光束L11が試料13に照射されることで発現した観察光のうち、近傍領域から発現した成分は、1つの画素からなる領域R11に入射する。同様に、光束L12が試料13に照射されることで発現した観察光のうち、近傍領域から発現した成分は、1つの画素からなる領域R13に入射する。   More specifically, out of the observation light expressed by irradiating the sample 13 with the light beam L11, the component expressed from the nearby region is incident on the region R11 including one pixel. Similarly, of the observation light that is expressed by irradiating the sample 13 with the light beam L12, a component that is expressed from a nearby region is incident on a region R13 including one pixel.

また、光束L11が試料13に照射されることで発現した観察光のうち、周辺領域から発現した成分は、領域R11を囲む複数の画素からなる領域R12に入射する。さらに、光束L12が試料13に照射されることで発現した観察光のうち、周辺領域から発現した成分は、領域R13を囲む複数の画素からなる領域R14に入射する。   In addition, among the observation light expressed by irradiating the sample 13 with the light beam L11, a component expressed from the peripheral region enters a region R12 including a plurality of pixels surrounding the region R11. Further, among the observation light expressed by irradiating the sample 13 with the light beam L12, a component expressed from the peripheral region enters a region R14 including a plurality of pixels surrounding the region R13.

実際には、領域R11は、図4の図中、上側に示すように、光束L11のフォーカス成分が試料13に照射されることで、試料13から発現した観察光が入射する画素、つまり試料13の近傍領域からの観察光が入射する画素(複数の画素)からなるように予め定められる。   Actually, as shown in the upper side of FIG. 4, the region R <b> 11 is a pixel on which the observation light expressed from the sample 13 is incident by irradiating the sample 13 with the focus component of the light beam L <b> 11, that is, the sample 13. Is determined in advance so as to be composed of pixels (a plurality of pixels) on which the observation light from the vicinity region of the light enters.

また、領域R12は、図4の図中、下側に示すように、光束L11のデフォーカス成分が試料13に照射されることで、試料13から発現した観察光が入射する画素、つまり試料13の周辺領域からの観察光が入射する画素(複数の画素)からなるように予め定められる。   In the region R12, as shown on the lower side in FIG. 4, the sample 13 is irradiated with the defocused component of the light beam L11, so that the observation light expressed from the sample 13 is incident, that is, the sample 13. Is determined in advance so as to be composed of pixels (a plurality of pixels) on which the observation light from the peripheral region is incident.

なお、図4において、縦軸は試料13における厚み方向の位置を示しており、横軸は試料13の各位置から発現する観察光の輝度(光量)を示している。また、位置Z0は観察面13sの位置を示しており、位置Z1から位置Z2までの領域は近傍領域を示している。   In FIG. 4, the vertical axis indicates the position in the thickness direction of the sample 13, and the horizontal axis indicates the luminance (light quantity) of the observation light that appears from each position of the sample 13. Further, the position Z0 indicates the position of the observation surface 13s, and the area from the position Z1 to the position Z2 indicates the vicinity area.

図4の上側に示されるように、領域R11に入射する観察光は、その殆どが位置Z1から位置Z2までの間、つまり近傍領域から発現した光となる。したがって、領域R11を構成する画素で得られた電気信号を用いれば、試料13の近傍領域における、光束L11が照射される部分の情報だけを抽出することができる。   As shown in the upper side of FIG. 4, most of the observation light incident on the region R11 is light that is expressed from the position Z1 to the position Z2, that is, from the vicinity region. Therefore, by using the electrical signal obtained from the pixels constituting the region R11, it is possible to extract only the information of the portion irradiated with the light beam L11 in the region near the sample 13.

そこで、画像処理部54は、領域R11を構成する画素に入射した光が、光検出器52により光電変換されて得られた電気信号から、光束L11が照射された試料13の近傍領域が表示される、近傍画像上の画素の画素値を求める。   Therefore, the image processing unit 54 displays a region near the sample 13 irradiated with the light beam L11 from an electrical signal obtained by photoelectrically converting light incident on the pixels constituting the region R11 by the photodetector 52. The pixel value of the pixel on the neighboring image is obtained.

同様に、画像処理部54は、領域R13を構成する画素に入射した光が、光検出器52により光電変換されて得られた電気信号から、光束L12が照射された試料13の近傍領域が表示される、近傍画像上の画素の画素値を求める。   Similarly, the image processing unit 54 displays a region near the sample 13 irradiated with the light beam L12 from an electrical signal obtained by photoelectrically converting light incident on the pixels constituting the region R13 by the photodetector 52. The pixel value of the pixel on the neighboring image is obtained.

このように、画像処理部54は、近傍領域からの観察光の受光量を示す電気信号を用い、近傍画像上の各画素の画素値を求めることにより、近傍画像データを生成する。   As described above, the image processing unit 54 generates the neighborhood image data by obtaining the pixel value of each pixel on the neighborhood image using the electrical signal indicating the amount of observation light received from the neighborhood region.

また、図4の下側に示されるように、領域R12に入射する観察光は、その殆どが試料13における、図中、位置Z1よりも上側の領域および位置Z2よりも下側の領域、つまり略周辺領域から発現した光となる。したがって、領域R12を構成する画素で得られた電気信号を用いれば、試料13の周辺領域における、光束L11が照射される部分の情報だけを抽出することができる。   Further, as shown in the lower side of FIG. 4, most of the observation light incident on the region R12 in the sample 13 is a region above the position Z1 and a region below the position Z2 in the drawing, that is, the region below the position Z2. Light is emitted from a substantially peripheral region. Therefore, by using the electrical signal obtained by the pixels constituting the region R12, it is possible to extract only the information of the portion irradiated with the light beam L11 in the peripheral region of the sample 13.

そこで、画像処理部54は、領域R12を構成する各画素に入射した光が、光検出器52により光電変換されて得られた各電気信号から、光束L11が照射された試料13の周辺領域が表示される、周辺画像上の画素の画素値を求める。つまり、領域R12を構成する各画素において得られた各電気信号の値の和に基づいて、周辺画像上の1つの画素の画素値が求められる。   Therefore, the image processing unit 54 detects the peripheral region of the sample 13 irradiated with the light beam L11 from each electrical signal obtained by photoelectrically converting the light incident on each pixel constituting the region R12 by the photodetector 52. The pixel value of the pixel on the peripheral image to be displayed is obtained. That is, the pixel value of one pixel on the peripheral image is obtained based on the sum of the values of the electrical signals obtained at the pixels constituting the region R12.

同様に、画像処理部54は、領域R14を構成する各画素に入射した光が、光検出器52により光電変換されて得られた各電気信号から、光束L12が照射された試料13の周辺領域が表示される、周辺画像上の画素の画素値を求める。   Similarly, the image processing unit 54 is a peripheral region of the sample 13 irradiated with the light beam L12 from each electrical signal obtained by photoelectrically converting light incident on each pixel constituting the region R14 by the photodetector 52. The pixel value of the pixel on the peripheral image is displayed.

このように、画像処理部54は、周辺領域からの観察光の受光量を示す電気信号を用い、周辺画像上の各画素の画素値を求めることにより、周辺画像データを生成する。   As described above, the image processing unit 54 generates the peripheral image data by obtaining the pixel value of each pixel on the peripheral image using the electrical signal indicating the amount of the observation light received from the peripheral region.

なお、共焦点顕微鏡11のマイクロレンズアレイ34は、光検出器52の受光面の1つの画素に、試料13からの観察光としての複数の光束が入射しないように、照明光を複数の光束に分離する。例えば、図3において、領域R12と領域R14とが重ならないように照明光が分離される。   The microlens array 34 of the confocal microscope 11 converts the illumination light into a plurality of light beams so that a plurality of light beams as observation light from the sample 13 do not enter one pixel on the light receiving surface of the photodetector 52. To separate. For example, in FIG. 3, the illumination light is separated so that the region R12 and the region R14 do not overlap.

より具体的には、観察光を構成する光束同士の間隔は、少なくとも観察光のエアリディスクの直径EDの10倍の距離以上とされることが望ましい。例えば、観察光の波長をλとし、第2対物レンズ53の開口数をNA’とすると、エアリディスクの直径EDは次式(1)により求まる。   More specifically, it is desirable that the distance between the light beams constituting the observation light be at least 10 times the distance ED of the air disk of the observation light. For example, when the wavelength of the observation light is λ and the numerical aperture of the second objective lens 53 is NA ′, the diameter ED of the air disk is obtained by the following equation (1).

ED=1.22×(λ/NA’) ・・・(1)   ED = 1.22 × (λ / NA ′) (1)

なお、式(1)における第2対物レンズ53の開口数NA’は、対物レンズ40の開口数をNAとし、対物レンズ40の倍率をβとすると次式(2)により求まる。   Note that the numerical aperture NA ′ of the second objective lens 53 in Expression (1) is obtained by the following Expression (2), where NA is the numerical aperture of the objective lens 40 and β is the magnification of the objective lens 40.

NA’=NA/β ・・・(2)   NA ′ = NA / β (2)

このように、観察光を構成する各光束が一定の間隔で並ぶように、試料13に照射する照明光を複数の光束に分離すると、光検出器52において観察光の各光束を確実に検出することができる。   In this way, when the illumination light applied to the sample 13 is separated into a plurality of light beams so that the light beams constituting the observation light are arranged at regular intervals, each light beam of the observation light is reliably detected by the photodetector 52. be able to.

また、パーソナルコンピュータ12は画像処理部54で得られた近傍画像データおよび周辺画像データを用いて、目的とする所定のセクショニング分解能の観察画像データを生成する。   Further, the personal computer 12 generates observation image data having a predetermined predetermined sectioning resolution using the vicinity image data and the vicinity image data obtained by the image processing unit 54.

具体的には、パーソナルコンピュータ12は、これから生成しようとする観察画像の画素を、順次、注目画素とする。そして、パーソナルコンピュータ12は、注目画素と同じ位置にある近傍画像の画素の画素値Daと、注目画素と同じ位置にある周辺画像の画素の画素値Dbとから次式(3)に示す演算を行って、注目画素の画素値Dを求める。   Specifically, the personal computer 12 sequentially sets pixels of the observation image to be generated from now on as the target pixel. Then, the personal computer 12 performs the calculation shown in the following equation (3) from the pixel value Da of the pixel of the neighboring image at the same position as the target pixel and the pixel value Db of the pixel of the peripheral image at the same position as the target pixel. Then, the pixel value D of the target pixel is obtained.

D=Da+(α×Db) ・・・(3)   D = Da + (α × Db) (3)

なお、注目画素と同じ位置にある近傍画像および周辺画像の画素とは、注目画素に表示される試料13の部位が表示される近傍画像および周辺画像の画素をいう。より詳細には、注目画素と同じ位置にある近傍画像および周辺画像の画素は、厚み方向の位置は異なるが、照明光を構成する1つの光束が照射される試料13の部位、つまり近傍領域および周辺領域が表示される画素とされる。   Note that the pixels in the vicinity image and the peripheral image at the same position as the target pixel refer to pixels in the vicinity image and the peripheral image in which the part of the sample 13 displayed on the target pixel is displayed. More specifically, the neighboring image pixels and the neighboring image pixels at the same position as the target pixel have different positions in the thickness direction, but the part of the sample 13 irradiated with one light beam constituting the illumination light, that is, the neighboring region and The peripheral area is a pixel to be displayed.

また、式(3)において、αはセクショニング分解能を定める変数であり、−1≦α≦1とされる。この変数αが小さいほど、セクショニング分解能は高くなり、観察対象とされる試料13の部位の厚み方向の厚さがより薄くなる。   In Expression (3), α is a variable that determines sectioning resolution, and −1 ≦ α ≦ 1. The smaller the variable α, the higher the sectioning resolution and the thinner the thickness direction of the portion of the sample 13 to be observed.

例えば、変数αが0である場合には、D=Daとなり、観察画像には試料13の近傍領域の画像が表示される。また、変数αが1である場合には、D=Da+Dbとなるので、観察画像には試料13の近傍領域および周辺領域の画像が表示される。   For example, when the variable α is 0, D = Da, and an image in the vicinity of the sample 13 is displayed in the observation image. Further, when the variable α is 1, D = Da + Db, so that an image of the vicinity region and the peripheral region of the sample 13 is displayed in the observation image.

したがって、変数αを0以上、かつ1以下の間で変化させれば、試料13の厚み方向に、近傍領域の層より厚く、かつ近傍領域および周辺領域からなる領域の層より薄い、任意の厚さの試料13の層の領域の観察画像を得ることができる。   Therefore, if the variable α is changed between 0 and 1 or less, any thickness that is thicker in the thickness direction of the sample 13 than the layer in the vicinity region and thinner than the layer in the region including the vicinity region and the peripheral region. An observation image of the layer region of the sample 13 can be obtained.

また、変数αが−1である場合には、D=Da−Dbとなるので、観察画像は、近傍領域の情報を多く含む近傍画像から、周辺領域の情報を多く含む周辺画像を差し引いたものとなる。近傍画像と周辺画像の差分を求める演算は、近傍画像から、周辺領域の情報、つまり近傍画像上でぼけとなって現れる成分を、データのS/N比(Signal to Noise ratio)を保ったまま差し引くことと等価であり、よりセクショニング分解能は高くなる。すなわち、観察画像には、試料13における近傍領域よりも厚み方向に薄い領域の画像が表示されることになる。   Further, when the variable α is −1, D = Da−Db. Therefore, the observation image is obtained by subtracting a peripheral image containing a lot of information on the peripheral region from a neighborhood image containing a lot of information on the neighborhood region. It becomes. The calculation for obtaining the difference between the neighboring image and the neighboring image is based on the neighboring area information, that is, the component appearing blurred on the neighboring image while maintaining the S / N ratio (Signal to Noise ratio) of the data. This is equivalent to subtraction, and the sectioning resolution becomes higher. That is, in the observation image, an image of an area that is thinner in the thickness direction than the vicinity area of the sample 13 is displayed.

したがって、変数αを−1以上、かつ0以下の間で変化させれば、観察面13sを中心とし、試料13の厚み方向に近傍領域の層より薄い、任意の厚さの試料13の層の領域の観察画像を得ることができる。   Therefore, if the variable α is changed between −1 and 0 and 0 or less, the layer of the sample 13 having an arbitrary thickness that is thinner than the layer in the vicinity region in the thickness direction of the sample 13 around the observation surface 13s. An observation image of the area can be obtained.

このように、目的とするセクショニング分解能に応じて変数αを変化させながら観察画像を生成すれば、近傍画像および周辺画像を用いた演算処理を行うだけで、簡単に任意のセクショニング分解能の観察画像を得ることができる。   In this way, if the observation image is generated while changing the variable α in accordance with the target sectioning resolution, an observation image having an arbitrary sectioning resolution can be easily obtained simply by performing arithmetic processing using the neighboring image and the peripheral image. Obtainable.

つまり、光検出器52を観察面13sと略共役な位置に配置し、変数αを変化させて観察画像を生成することは、試料13と光検出器52との間の、観察面13sと略共役な位置に設けられた仮想的なピンホールを変化させて試料13を観察することと等価である。   That is, arranging the light detector 52 at a position substantially conjugate with the observation surface 13 s and changing the variable α to generate an observation image is substantially the same as the observation surface 13 s between the sample 13 and the light detector 52. This is equivalent to observing the sample 13 by changing a virtual pinhole provided at a conjugate position.

なお、変数αの値によっては、注目画素の画素値Dが負の値となったり、観察画像のダイナミックレンジを超えた値となったりすることがある。そのような場合、パーソナルコンピュータ12は、適宜、画素値Dを0としたり、ダイナミックレンジを超えない所定の値としたりして、注目画素の画素値を定める。   Note that, depending on the value of the variable α, the pixel value D of the target pixel may be a negative value or a value exceeding the dynamic range of the observation image. In such a case, the personal computer 12 appropriately determines the pixel value of the pixel of interest by setting the pixel value D to 0 or a predetermined value that does not exceed the dynamic range.

以上のように、共焦点顕微鏡11によれば、光検出器52を観察面13sと略共役な位置に配置し、観察光の検出結果から近傍画像データおよび周辺画像データを生成することにより、簡単な演算処理で、試料13の任意の厚さの領域を観察することができる。   As described above, according to the confocal microscope 11, the photodetector 52 is arranged at a position substantially conjugate with the observation surface 13s, and the neighborhood image data and the neighborhood image data are generated from the detection result of the observation light. The region of an arbitrary thickness of the sample 13 can be observed with a simple calculation process.

すなわち、光検出器52の受光面を観察面13sと略共役な位置に配置すれば、その受光面の予め定められた特定の画素から出力される電気信号から、近傍画像データおよび周辺画像データを個々に得ることができる。これにより、得られた画像データから、簡単な演算処理で試料13の任意の厚さの領域の観察画像を生成することができる。   That is, if the light receiving surface of the photodetector 52 is arranged at a position substantially conjugate with the observation surface 13s, the neighboring image data and the peripheral image data are obtained from the electrical signal output from a predetermined specific pixel on the light receiving surface. Can be obtained individually. Thereby, an observation image of an area of an arbitrary thickness of the sample 13 can be generated from the obtained image data by a simple arithmetic process.

したがって、共焦点顕微鏡11には、複数のピンホールにより観察光を分離する部材や、観察光が通過するピンホールごとの光検出器を設ける必要がなく、より簡単な構成で、試料13の観察時のセクショニング分解能を変更することができる。   Therefore, the confocal microscope 11 does not need to be provided with a member for separating the observation light by a plurality of pinholes or a photodetector for each pinhole through which the observation light passes, and can observe the sample 13 with a simpler configuration. The sectioning resolution at the time can be changed.

しかも、共焦点顕微鏡11では、照明光を複数の光束に分離して、それらの光束により観察面13sの走査を行うため、試料13の複数の部位の情報を同時に得ることができる。従来、共焦点顕微鏡では、照明光としての1つの光束により、いわゆるラスタスキャンと呼ばれる方法で走査を行っていたが、共焦点顕微鏡11では複数の光束で同時に走査を行うため、ラスタスキャンを行う場合よりも、より迅速に観察画像を得ることができる。   In addition, since the confocal microscope 11 separates the illumination light into a plurality of light beams and scans the observation surface 13s with these light beams, information on a plurality of parts of the sample 13 can be obtained simultaneously. Conventionally, in the confocal microscope, scanning is performed by a method called so-called raster scan with one light beam as illumination light. However, since the confocal microscope 11 performs scanning with a plurality of light beams at the same time, the raster scan is performed. As a result, an observation image can be obtained more quickly.

また、照明光の分離時には、複数の光束が一定の間隔で並ぶように照明光が分離されるため、光検出器52において、試料13の複数の部位からの観察光が同じ画素に入射してしまうようなこともなく、各部位の情報を確実に抽出することができる。   Further, when the illumination light is separated, the illumination light is separated so that a plurality of light beams are arranged at a constant interval. Therefore, in the photodetector 52, observation light from a plurality of parts of the sample 13 is incident on the same pixel. The information on each part can be reliably extracted without any problem.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

11 共焦点顕微鏡, 12 パーソナルコンピュータ, 13 試料, 23 照明光学系, 34 マイクロレンズアレイ, 36 ガルバノスキャナ, 39 ダイクロイックミラー, 40 対物レンズ, 51 結像光学系, 52 光検出器, 53 第2対物レンズ, 54 画像処理部   11 confocal microscope, 12 personal computer, 13 sample, 23 illumination optical system, 34 microlens array, 36 galvano scanner, 39 dichroic mirror, 40 objective lens, 51 imaging optical system, 52 photodetector, 53 second objective lens , 54 Image processing unit

Claims (3)

観察対象の試料の観察面に照明光を集光する照明光学系と、
前記照明光学系に含まれ、前記観察面上で前記照明光を走査させるスキャナと、
前記試料からの観察光を集光する結像光学系と、
前記試料における前記照明光の集光位置と略共役な位置に配置され、前記観察光を検出する光検出手段と、
前記光検出手段による検出結果に基づいて、前記試料における前記集光位置の近傍領域からの前記観察光に基づく第1の画像データと、前記試料における前記近傍領域の周辺領域からの前記観察光に基づく第2の画像データとを生成する画像生成手段と、
前記第1の画像データおよび前記第2の画像データに基づいて、前記第1の画像データおよび前記第2の画像データとはセクショニング分解能が異なる第3の画像データを生成する演算手段と
を備えることを特徴とする共焦点顕微鏡。
An illumination optical system that focuses the illumination light on the observation surface of the sample to be observed;
A scanner included in the illumination optical system for scanning the illumination light on the observation surface;
An imaging optical system for condensing the observation light from the sample;
A light detecting means that is disposed at a position substantially conjugate with the condensing position of the illumination light in the sample, and detects the observation light;
Based on the detection result by the light detection means, the first image data based on the observation light from the region near the focusing position in the sample and the observation light from the peripheral region of the vicinity region in the sample. Image generating means for generating second image data based thereon;
Computation means for generating, based on the first image data and the second image data, third image data having a sectioning resolution different from that of the first image data and the second image data. A confocal microscope.
前記照明光学系を構成し、前記照明光を、前記照明光の進行方向と垂直な方向に所定の間隔で並ぶ複数の光束に分離する分離手段をさらに備える
ことを特徴とする請求項1に記載の共焦点顕微鏡。
2. The separating apparatus according to claim 1, further comprising a separating unit that constitutes the illumination optical system and separates the illumination light into a plurality of light beams arranged at a predetermined interval in a direction perpendicular to a traveling direction of the illumination light. Confocal microscope.
前記光検出手段は、前記光検出手段に設けられた前記観察光の受光面における所定の領域に入射した前記観察光を、前記近傍領域からの前記観察光として検出し、前記受光面における前記所定の領域を囲む領域に入射した前記観察光を、前記周辺領域からの前記観察光として検出する
ことを特徴とする請求項1または請求項2に記載の共焦点顕微鏡。
The light detection means detects the observation light incident on a predetermined area on the light receiving surface of the observation light provided on the light detection means as the observation light from the vicinity area, and detects the predetermined light on the light receiving surface. The confocal microscope according to claim 1, wherein the observation light incident on a region surrounding the region is detected as the observation light from the peripheral region.
JP2009003127A 2009-01-09 2009-01-09 Confocal microscope Withdrawn JP2010160371A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009003127A JP2010160371A (en) 2009-01-09 2009-01-09 Confocal microscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009003127A JP2010160371A (en) 2009-01-09 2009-01-09 Confocal microscope

Publications (1)

Publication Number Publication Date
JP2010160371A true JP2010160371A (en) 2010-07-22

Family

ID=42577564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009003127A Withdrawn JP2010160371A (en) 2009-01-09 2009-01-09 Confocal microscope

Country Status (1)

Country Link
JP (1) JP2010160371A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012035903A1 (en) 2010-09-17 2012-03-22 独立行政法人科学技術振興機構 Device for observing three-dimensional confocal point, and observation focal plane displacement/correction unit
JP2016206212A (en) * 2015-04-15 2016-12-08 オリンパス株式会社 Sheet illumination microscope
WO2023120104A1 (en) * 2021-12-23 2023-06-29 株式会社ニコン Microscope objective lens, microscope optical system, and microscope device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012035903A1 (en) 2010-09-17 2012-03-22 独立行政法人科学技術振興機構 Device for observing three-dimensional confocal point, and observation focal plane displacement/correction unit
US9835843B2 (en) 2010-09-17 2017-12-05 Japan Science And Technology Agency Three-dimensional confocal microscopy apparatus and focal plane scanning and aberration correction unit
JP2016206212A (en) * 2015-04-15 2016-12-08 オリンパス株式会社 Sheet illumination microscope
WO2023120104A1 (en) * 2021-12-23 2023-06-29 株式会社ニコン Microscope objective lens, microscope optical system, and microscope device

Similar Documents

Publication Publication Date Title
US11604342B2 (en) Microscopy devices, methods and systems
JP5999121B2 (en) Confocal light scanner
JP2015522850A (en) Optical microscope and control method thereof
JP4894161B2 (en) Confocal microscope
JP5447516B2 (en) Image processing apparatus, image processing method, program, and microscope
JP2012073285A (en) Imaging method and microscope device
WO2005085936A1 (en) An optical system for producing differently focused images
JP2012237647A (en) Multifocal confocal raman spectroscopic microscope
JP5135066B2 (en) Optical microscope and observation method
JP2010286565A (en) Fluorescence observation apparatus
JP4905356B2 (en) Line scanning confocal microscope
CN107850766A (en) System and method for the image procossing in light microscope
JP2010160371A (en) Confocal microscope
JP2007278849A (en) Optical measuring device and optical measuring method
JP2007506146A (en) Confocal laser scanning microscope
JP2006091507A (en) Confocal microscope
JP4974689B2 (en) Scanning microscope
JP2010271522A (en) Nonlinear optical microscope
JP5019279B2 (en) Confocal microscope and method for generating focused color image
WO2017150703A1 (en) Optical microscope and observation method
JP2010164635A (en) Confocal microscope
JP2009151163A (en) Shading correcting device and shading correcting method
JP2004012966A (en) Microscope provided with a plurality of light sources
JP5452079B2 (en) microscope
JPH09297269A (en) Scanning image input device and scanning probe microscope

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120403