JP2023130196A - Laser scan type microscope system - Google Patents

Laser scan type microscope system Download PDF

Info

Publication number
JP2023130196A
JP2023130196A JP2022034727A JP2022034727A JP2023130196A JP 2023130196 A JP2023130196 A JP 2023130196A JP 2022034727 A JP2022034727 A JP 2022034727A JP 2022034727 A JP2022034727 A JP 2022034727A JP 2023130196 A JP2023130196 A JP 2023130196A
Authority
JP
Japan
Prior art keywords
image
microscope system
vibration
laser scanning
scanning microscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022034727A
Other languages
Japanese (ja)
Inventor
伸吾 鈴木
Shingo Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Evident Co Ltd
Original Assignee
Evident Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Evident Co Ltd filed Critical Evident Co Ltd
Priority to JP2022034727A priority Critical patent/JP2023130196A/en
Publication of JP2023130196A publication Critical patent/JP2023130196A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)

Abstract

To suppress a distortion of an image in in-vivo imaging.SOLUTION: A laser scan type microscope 1 comprises: a scanner 104 that scans a bio-sample in a main scan direction and in a sub scan direction; a controller 200 that controls the main scan direction; and a processing device 20. The processing device 20 is configured to estimate an oscillation direction of a sample S on the basis of a preliminary image, and next, the processing device 20 is configured to cause the controller 200 to get the main scan direction close to the oscillation direction. Also, the processing device 20 is configured to estimate waveform information on the oscillation on the basis of an object image created by scanning performed in a state where the main scan direction gets close to the oscillation direction. Further, the processing device 20 is configured to perform a pixel shift to the object image in accordance with an amount of displacement occurring in each area of the sample S to be calculated based on the waveform information.SELECTED DRAWING: Figure 1

Description

本明細書の開示は、レーザ走査型顕微鏡システムに関する。 TECHNICAL FIELD The disclosure herein relates to laser scanning microscopy systems.

生体試料を生きたまま観察するin vivoイメージングに用いられる観察装置として、共焦点顕微鏡に代表されるレーザ走査型顕微鏡システムが知られている。レーザ走査型顕微鏡システムは、光軸方向に高い分解能を有しているため、例えば、特許文献1に記載されるように、生体試料の内部を観察可能である。 Laser scanning microscope systems, typified by confocal microscopes, are known as observation devices used for in vivo imaging to observe living biological samples. Since the laser scanning microscope system has high resolution in the optical axis direction, it is possible to observe the inside of a biological sample, as described in Patent Document 1, for example.

特許第4694139号公報Patent No. 4694139

ところで、試料を2次元に走査するレーザ走査型顕微鏡システムでは、画像を構成する各画素の情報はそれぞれ異なる時刻における試料の状態を反映している。これにより、画素間で最大1フレーム分の時間差が生じるため、生体試料を走査すると、拍動や呼吸などの生命維持活動に起因する振動によって画像が歪んでしまうことがある。 By the way, in a laser scanning microscope system that scans a sample two-dimensionally, the information of each pixel forming an image reflects the state of the sample at different times. This creates a time difference of up to one frame between pixels, so when a biological sample is scanned, the image may be distorted due to vibrations caused by life-sustaining activities such as pulsation and breathing.

特許文献1に記載の技術によれば、拍動に起因する光軸方向のフォーカスずれを防止することができる。ただし、画像の歪みを抑制することはできない。このため、拍動や呼吸などに起因する画像の歪みを抑制する新たな技術が望まれている。 According to the technique described in Patent Document 1, it is possible to prevent focus shift in the optical axis direction due to pulsation. However, image distortion cannot be suppressed. For this reason, there is a need for new technology that suppresses image distortion caused by pulsation, breathing, and the like.

以上のような実情を踏まえ、本発明の一側面に係る目的は、in vivoイメージングにおいて画像の歪みを抑制する技術を提供することである。 In view of the above circumstances, an object of one aspect of the present invention is to provide a technique for suppressing image distortion in in vivo imaging.

本発明の一態様に係るレーザ走査型顕微鏡システムは、主走査方向と副走査方向に生体試料を走査するスキャナと、制御装置と、を備える。前記制御装置は、前記スキャナによる前記生体試料の第1走査で生成された前記生体試料の画像である予備画像に基づいて、前記生体試料の振動方向を推測することと、前記主走査方向を前記振動方向に近づけることと、前記主走査方向を前記振動方向に近づけた状態で行われた前記スキャナによる前記生体試料の第2走査で生成された前記生体試料の画像である対象画像に基づいて、前記生体試料の振動の波形情報を推測することと、前記波形情報に基づいて算出される、前記第2走査における走査開始から前記生体試料の複数の領域の各々の走査時点までに各領域に生じた変位の量に応じて、前記対象画像に対して画素シフトを行うことと、を実行するように構成される。 A laser scanning microscope system according to one aspect of the present invention includes a scanner that scans a biological sample in a main scanning direction and a sub-scanning direction, and a control device. The control device is configured to estimate a vibration direction of the biological sample based on a preliminary image that is an image of the biological sample generated in a first scan of the biological sample by the scanner, and to adjust the main scanning direction to the vibration direction of the biological sample. Based on a target image that is an image of the biological sample generated by a second scan of the biological sample by the scanner performed with the main scanning direction close to the vibration direction and the main scanning direction close to the vibration direction, estimating waveform information of vibrations of the biological sample; and calculating vibrations occurring in each region from the start of the second scan to the time of scanning each of the plurality of regions of the biological sample, which is calculated based on the waveform information. and performing a pixel shift on the target image according to the amount of displacement.

上記の態様によれば、in vivoイメージングにおいて画像の歪みを抑制することができる。 According to the above aspect, image distortion can be suppressed in in vivo imaging.

本発明の一実施形態に係るレーザ走査型顕微鏡システム1の構成を例示した図である。1 is a diagram illustrating the configuration of a laser scanning microscope system 1 according to an embodiment of the present invention. 共焦点顕微鏡100の構成を例示した図である。1 is a diagram illustrating the configuration of a confocal microscope 100. FIG. スキャン方法について説明するための図である。FIG. 3 is a diagram for explaining a scanning method. 画像の領域に生じる歪みの一例を説明するための図である。FIG. 3 is a diagram for explaining an example of distortion occurring in an image area. 図4に生じる歪みによる細胞の変形を説明するための図である。FIG. 5 is a diagram for explaining the deformation of cells due to the distortion that occurs in FIG. 4. FIG. 画像の領域に生じる歪みの別の例を説明するための図である。FIG. 7 is a diagram for explaining another example of distortion occurring in an image area. 図6に生じる歪みによる細胞の変形を説明するための図である。FIG. 7 is a diagram for explaining the deformation of cells due to the distortion that occurs in FIG. 6; 画像の領域に生じる歪みの更に別の例を説明するための図である。FIG. 7 is a diagram for explaining yet another example of distortion occurring in an image area. 図8に生じる歪みによる細胞の変形を説明するための図である。FIG. 9 is a diagram for explaining the deformation of cells due to the distortion that occurs in FIG. 8; 共焦点画像に生じる歪みを説明するための図である。FIG. 3 is a diagram for explaining distortion that occurs in a confocal image. レーザ走査型顕微鏡システム1が行う処理のフローチャートである。2 is a flowchart of processing performed by the laser scanning microscope system 1. FIG. 振動波形と変位量の関係を説明するための図である。FIG. 3 is a diagram for explaining the relationship between a vibration waveform and a displacement amount. 第1の実施形態に係る学習済みモデルM1の入出力を説明するための図である。FIG. 3 is a diagram for explaining input and output of a learned model M1 according to the first embodiment. 第1の実施形態に係る学習処理のフローチャートである。3 is a flowchart of learning processing according to the first embodiment. 第2の実施形態に係る学習済みモデルM2の入出力を説明するための図である。FIG. 7 is a diagram for explaining input and output of a learned model M2 according to the second embodiment. 第2の実施形態に係る学習済みモデルM3の入出力を説明するための図である。FIG. 7 is a diagram for explaining input and output of a learned model M3 according to the second embodiment. 第2の実施形態に係る振動方向学習処理のフローチャートである。It is a flow chart of vibration direction learning processing concerning a 2nd embodiment. 第2の実施形態に係る波形情報学習処理のフローチャートである。It is a flowchart of waveform information learning processing concerning a 2nd embodiment. 第3の実施形態に係る振動方向推測処理のフローチャートである。It is a flow chart of vibration direction estimation processing concerning a 3rd embodiment. 第4の実施形態に係るレーザ走査型顕微鏡システムの構成を例示した図である。FIG. 3 is a diagram illustrating the configuration of a laser scanning microscope system according to a fourth embodiment. 第4の実施形態に係る学習済みモデルM4の入出力を説明するための図である。FIG. 7 is a diagram for explaining input and output of a trained model M4 according to a fourth embodiment. 第4の実施形態に係る学習処理のフローチャートである。It is a flowchart of learning processing concerning a 4th embodiment. 上述した実施形態に係る処理装置を実現するためのコンピュータのハードウェア構成を例示した図である。FIG. 2 is a diagram illustrating the hardware configuration of a computer for realizing the processing device according to the embodiment described above. 2光子励起顕微鏡400の構成を例示した図である。4 is a diagram illustrating the configuration of a two-photon excitation microscope 400. FIG. 共焦点顕微鏡500の構成を例示した図である。5 is a diagram illustrating the configuration of a confocal microscope 500. FIG. 共焦点顕微鏡600の構成を例示した図である。6 is a diagram illustrating the configuration of a confocal microscope 600. FIG.

図1は、本発明の一実施形態に係るレーザ走査型顕微鏡システム1の構成を例示した図である。レーザ走査型顕微鏡システム1は、顕微鏡装置10と、処理装置20と、を備えるレーザ共焦点顕微鏡であり、サンプルSの共焦点画像を生成する。サンプルSは、特に限定しないが、例えば、マウスなどの生体試料である。顕微鏡装置10は、共焦点顕微鏡100と、共焦点顕微鏡100を制御するコントローラ200と、を備える。 FIG. 1 is a diagram illustrating the configuration of a laser scanning microscope system 1 according to an embodiment of the present invention. The laser scanning microscope system 1 is a laser confocal microscope that includes a microscope device 10 and a processing device 20, and generates a confocal image of a sample S. The sample S is, for example, a biological sample such as a mouse, although it is not particularly limited. The microscope device 10 includes a confocal microscope 100 and a controller 200 that controls the confocal microscope 100.

図2は、共焦点顕微鏡100の構成を例示した図である。図3は、スキャン方法について説明するための図である。以下、図2及び図3を参照しながら、共焦点画像の生成方法について説明する。 FIG. 2 is a diagram illustrating the configuration of the confocal microscope 100. FIG. 3 is a diagram for explaining the scanning method. Hereinafter, a method for generating confocal images will be described with reference to FIGS. 2 and 3.

共焦点顕微鏡100は、図2に示すように、照明光路上に、レーザ101と、ビームエクスパンダ102と、ダイクロイックミラー103と、スキャナ104と、瞳投影光学系105と、対物レンズ106とを備えている。 As shown in FIG. 2, the confocal microscope 100 includes a laser 101, a beam expander 102, a dichroic mirror 103, a scanner 104, a pupil projection optical system 105, and an objective lens 106 on the illumination optical path. ing.

レーザ101は、例えば、可視域や紫外域、赤外域などのレーザ光を発振する。レーザ101から発振されるレーザ光の出力は、例えば、コントローラ200によって制御される。ビームエクスパンダ102は、レーザ101からのレーザ光(コリメート光)の光束を対物レンズ106の瞳径に応じて調整する光学系である。ダイクロイックミラー103は、励起光(レーザ光)とサンプルSからの検出光(蛍光)とを分離する光分離手段であり、波長の違いによりレーザ光と蛍光を分離する。 The laser 101 oscillates laser light in the visible, ultraviolet, and infrared regions, for example. The output of the laser light emitted from the laser 101 is controlled by, for example, a controller 200. The beam expander 102 is an optical system that adjusts the luminous flux of the laser beam (collimated light) from the laser 101 according to the pupil diameter of the objective lens 106. The dichroic mirror 103 is a light separating means that separates excitation light (laser light) and detection light (fluorescence) from the sample S, and separates the laser light and fluorescence based on the difference in wavelength.

スキャナ104は、レーザ光でステージ107上のサンプルSを2次元に走査する。スキャナ104は、例えば、互いに直交する方向にサンプルSを走査する2つのガルバノミラーを含み、図3に示すようなラスタスキャンを実行する。即ち、スキャナ104は、一方のガルバノミラーで主走査方向へサンプルSを走査し、且つ、他方のガルバノミラーで走査線SLを主走査方向と直交する副走査方向にシフトすることで、主走査方向と副走査方向へサンプルSを走査する。なお、主走査方向と副走査方向は、コントローラ200が互いに直交する方向に走査する2つのガルバノミラーの駆動タイミングと駆動速度を変更することで制御する。なお、ガルバノミラーは、スキャナ104に含まれるスキャナミラーの一例であり、MEMSミラー等も使用可能である。 The scanner 104 two-dimensionally scans the sample S on the stage 107 with laser light. The scanner 104 includes, for example, two galvanometer mirrors that scan the sample S in mutually orthogonal directions, and performs raster scanning as shown in FIG. 3. That is, the scanner 104 scans the sample S in the main scanning direction with one galvano mirror, and shifts the scanning line SL in the sub-scanning direction perpendicular to the main scanning direction with the other galvano mirror, thereby scanning the sample S in the main scanning direction. The sample S is scanned in the sub-scanning direction. Note that the main scanning direction and the sub-scanning direction are controlled by the controller 200 changing the drive timing and drive speed of two galvanometer mirrors that scan in mutually orthogonal directions. Note that the galvanometer mirror is an example of a scanner mirror included in the scanner 104, and a MEMS mirror or the like can also be used.

瞳投影光学系105は、スキャナ104の像を対物レンズ106の瞳位置に投影する光学系である。なお、対物レンズ106は、観察深さに応じて変化する球面収差を補正するための補正環を備えてもよい。 The pupil projection optical system 105 is an optical system that projects the image of the scanner 104 onto the pupil position of the objective lens 106. Note that the objective lens 106 may include a correction ring for correcting spherical aberration that changes depending on the observation depth.

共焦点顕微鏡100は、さらに、検出光路(ダイクロイックミラー103の透過光路)上に、ミラー108と、共焦点レンズ109と、共焦点絞り110と、集光レンズ111と、光検出器112と、を備えている。光検出器112から出力された信号は、A/D変換器113に出力される。 The confocal microscope 100 further includes a mirror 108, a confocal lens 109, a confocal diaphragm 110, a condensing lens 111, and a photodetector 112 on the detection optical path (transmission optical path of the dichroic mirror 103). We are prepared. The signal output from the photodetector 112 is output to the A/D converter 113.

共焦点レンズ109は、共焦点絞り110上に、蛍光を集光するレンズである。共焦点絞り110は、対物レンズ106の焦点面と光学的に共役な位置に配置された絞りである。共焦点絞り110には、対物レンズ106の焦点位置から生じた蛍光を透過させるピンホールが形成されている。集光レンズ111は、共焦点絞り110を通過した蛍光を光検出器112に導くレンズである。 The confocal lens 109 is a lens that focuses fluorescence onto the confocal aperture 110. The confocal diaphragm 110 is a diaphragm arranged at a position optically conjugate with the focal plane of the objective lens 106. A pinhole is formed in the confocal diaphragm 110 to transmit fluorescence generated from the focal position of the objective lens 106. The condensing lens 111 is a lens that guides the fluorescence that has passed through the confocal diaphragm 110 to the photodetector 112.

光検出器112は、例えば、光電子増倍管(PMT)であり、入射した蛍光の光量に応じたアナログ信号を出力する。A/D変換器113は、光検出器112からのアナログ信号をデジタル信号(輝度信号)に変換して、処理装置20に出力する。 The photodetector 112 is, for example, a photomultiplier tube (PMT), and outputs an analog signal corresponding to the amount of incident fluorescent light. The A/D converter 113 converts the analog signal from the photodetector 112 into a digital signal (luminance signal) and outputs it to the processing device 20.

以上のように構成されたレーザ走査型顕微鏡システム1では、共焦点顕微鏡100が、スキャナ104を用いてレーザ光でサンプルSを走査し、サンプルSの各位置からの蛍光を、共焦点光学系(対物レンズ106、瞳投影光学系105、共焦点レンズ109)を介して光検出器112で検出する。さらに、共焦点顕微鏡100は、検出した蛍光の信号をA/D変換器113でサンプリングすることで、生体試料上の各スポットSp(図3の参照)における光強度を示すデジタル信号を出力する。その後、処理装置20が、共焦点顕微鏡100からのデジタル信号とスキャナ104の走査位置情報とに基づいて、共焦点画像を生成する。さらに、処理装置20が、共焦点画像に対して後述する画素シフトを行うことで、歪みが抑制されたサンプルSの画像へ変換する。 In the laser scanning microscope system 1 configured as described above, the confocal microscope 100 scans the sample S with laser light using the scanner 104, and collects fluorescence from each position of the sample S using the confocal optical system ( The light is detected by a photodetector 112 via an objective lens 106, a pupil projection optical system 105, and a confocal lens 109). Further, the confocal microscope 100 outputs a digital signal indicating the light intensity at each spot Sp (see FIG. 3) on the biological sample by sampling the detected fluorescence signal with the A/D converter 113. Thereafter, the processing device 20 generates a confocal image based on the digital signal from the confocal microscope 100 and the scanning position information of the scanner 104. Furthermore, the processing device 20 converts the confocal image into an image of the sample S in which distortion is suppressed by performing pixel shift, which will be described later.

図4は、画像の領域に生じる歪みの一例を説明するための図である。図5は、図4に生じる歪みによる細胞の変形を説明するための図である。図6は、画像の領域に生じる歪みの別の例を説明するための図である。図7は、図6に生じる歪みによる細胞の変形を説明するための図である。図8は、画像の領域に生じる歪みの更に別の例を説明するための図である。図9は、図8に生じる歪みによる細胞の変形を説明するための図である。図10は、共焦点画像に生じる歪みを説明するための図である。以下、図4から図10を参照しながら、共焦点画像において生じる画像の歪みについて説明する。 FIG. 4 is a diagram for explaining an example of distortion occurring in an image area. FIG. 5 is a diagram for explaining the deformation of cells due to the distortion that occurs in FIG. 4. FIG. 6 is a diagram for explaining another example of distortion occurring in an image area. FIG. 7 is a diagram for explaining the deformation of cells due to the distortion that occurs in FIG. 6. FIG. 8 is a diagram for explaining yet another example of distortion occurring in an image area. FIG. 9 is a diagram for explaining the deformation of cells due to the distortion that occurs in FIG. 8. FIG. 10 is a diagram for explaining distortion that occurs in a confocal image. Image distortion that occurs in confocal images will be described below with reference to FIGS. 4 to 10.

共焦点画像は、図3に示すようにサンプルSの各位置をレーザ光で順番に走査することで生成される。従って、画像の各画素の情報は、互いに異なる時刻におけるサンプルSの情報である。さらに、サンプルSは、拍動や呼吸など生命維持活動によって常時振動している。このため、異なる時刻におけるサンプルSの情報には、基準時刻におけるサンプルSの情報に対して振動に起因する、時間差に応じた異なる変位が加算されてしまう。その結果、画素間に生じた変位量の差によって画像が歪んでしまう。 The confocal image is generated by sequentially scanning each position of the sample S with a laser beam, as shown in FIG. Therefore, the information of each pixel of the image is information of the sample S at different times. Furthermore, the sample S constantly vibrates due to life support activities such as pulsation and breathing. For this reason, a different displacement according to a time difference due to vibration is added to the information of the sample S at a different time with respect to the information of the sample S at the reference time. As a result, the image is distorted due to the difference in displacement amount between pixels.

共焦点画像に生じる上述した歪みは、振動方向と主走査方向の関係によって2つのパターンに大別することができる。
(第1パターン)主走査方向が振動方向に直交している場合
(第2パターン)主走査方向が振動方向と平行な場合
The above-described distortions occurring in confocal images can be roughly classified into two patterns depending on the relationship between the vibration direction and the main scanning direction.
(1st pattern) When the main scanning direction is perpendicular to the vibration direction (2nd pattern) When the main scanning direction is parallel to the vibration direction

主走査方向が振動方向に直交する第1パターンでは、走査範囲SR内の要素が伸縮することで、画像に歪みが生じる。具体的には、例えば、紙面左上から右下に向かって走査が行われる場合であれば、図4に示すように、振動によってサンプルSに下方向の変位が生じている期間中に走査される領域(領域R1、領域R3)は、本来よりも縦長に伸長した領域(領域R11、領域R13)として画像IM11内で可視化される。また、振動によってサンプルSに上方向の変位が生じている期間中に走査される領域(領域R2)は、本来よりも縦方向に縮んだ領域(領域R12)として画像IM11内で可視化される。その結果、図5に示すように、走査範囲SRに複数の細胞(細胞C1、細胞C2、細胞C3)が含まれている場合には、細胞C1、細胞C2、細胞C3は、それぞれ画像内で振動方向に沿って伸縮し、細胞C11、細胞C12、細胞C13に変形してしまう。 In the first pattern in which the main scanning direction is perpendicular to the vibration direction, distortion occurs in the image due to expansion and contraction of elements within the scanning range SR. Specifically, for example, if scanning is performed from the upper left to the lower right of the page, the scanning is performed during a period when the sample S is displaced downward due to vibration, as shown in FIG. The regions (region R1, region R3) are visualized in the image IM11 as regions (region R11, region R13) that are elongated vertically than originally. Furthermore, the region (region R2) that is scanned during the period in which the sample S is displaced upward due to vibration is visualized in the image IM11 as a region (region R12) that has shrunk in the vertical direction than originally. As a result, as shown in FIG. 5, when multiple cells (cell C1, cell C2, cell C3) are included in the scanning range SR, cell C1, cell C2, and cell C3 are each It expands and contracts along the vibration direction and transforms into cells C11, C12, and C13.

主走査方向が振動方向と平行な第2パターンでは、走査範囲SR内の要素が振動方向へ移動することで、画像に歪みが生じる。具体的には、例えば、紙面左上から右下に向かって走査が行われる場合であれば、振動によってサンプルSに右方向の変位が生じている期間中に走査されたラインは、右方向にシフトした位置に可視化される。また、振動によってサンプルSに左方向の変位が生じている期間中に走査されたラインは、左方向にシフトした位置に可視化される。このため、図6に示すように、副走査方向と平行な細長い領域(領域R4、領域R5、領域R6)は、画像IM12内において副走査方向に沿って左右に順番に曲がった領域(領域R14、領域R15、領域R16)として可視化される。その結果、図7に示すように、走査範囲SRに複数の細胞(細胞C1、細胞C2、細胞C3)が含まれている場合には、細胞C1、細胞C2、細胞C3は、それぞれ画像IM12内で左右に移動し、元の位置とは異なる位置の細胞C21、細胞C22、細胞C23として可視化されてしまう。 In the second pattern in which the main scanning direction is parallel to the vibration direction, the elements within the scanning range SR move in the vibration direction, causing distortion in the image. Specifically, for example, if scanning is performed from the upper left to the lower right of the page, the line scanned during the period when the sample S is displaced to the right due to vibration will be shifted to the right. The image is visualized at the position shown. Further, a line scanned during a period in which the sample S is displaced to the left due to vibration is visualized at a position shifted to the left. Therefore, as shown in FIG. 6, the elongated areas (area R4, area R5, area R6) parallel to the sub-scanning direction are replaced by areas (area R14) that are curved in order left and right along the sub-scanning direction in the image IM12. , region R15, and region R16). As a result, as shown in FIG. 7, when the scanning range SR includes a plurality of cells (cell C1, cell C2, cell C3), the cell C1, cell C2, and cell C3 are each included in the image IM12. , they move left and right, and are visualized as cells C21, C22, and C23 in positions different from their original positions.

振動方向は、通常、主走査方向成分と副走査方向成分の両方を含んでいる。このため、共焦点画像で生じる一般的な歪みは、これらの2つのパターンで生じる歪みが合成されたものである。つまり、図8に示すように、走査範囲SR内の各領域(領域R1、領域R2、領域R3)は、画像IM13内において伸縮とシフトによって複雑な形状(領域R21、領域R22、領域R23)に変形して可視化される。その結果、図9に示すように、走査範囲SRに複数の細胞(細胞C1、細胞C2、細胞C3)が含まれている場合には、細胞(細胞C31、細胞C32、細胞C33)の画像にも伸縮とシフトを組み合わせた複雑な変形が生じてしまう。 The vibration direction usually includes both a main scanning direction component and a sub scanning direction component. Therefore, the general distortion that occurs in a confocal image is a combination of distortions that occur in these two patterns. In other words, as shown in FIG. 8, each area (area R1, area R2, area R3) within the scanning range SR is transformed into a complicated shape (area R21, area R22, area R23) by expansion/contraction and shifting within the image IM13. It is transformed and visualized. As a result, as shown in FIG. 9, when the scanning range SR includes multiple cells (cell C1, cell C2, cell C3), the image of the cells (cell C31, cell C32, cell C33) However, complex deformations that combine expansion and contraction and shifts occur.

また、実際のサンプルSの形状は、図5、図7、図9に示すような単純化された形状ではない。特にサンプルSが生体試料の場合には、工業用途のサンプルのように決まった形状を有していないことがほとんどである。このことは、元の形状の推測をさらに困難にする。従って、図10に示すようなマウスの脳をイメージングした共焦点画像IM100を取得した場合に、この共焦点画像がマウスの脳を正しく可視化しているかどうかを判断することは容易ではなく、また、仮に共焦点画像が歪んでいることを認識できたとしても、歪みを正しく補正することは容易ではない。 Further, the actual shape of the sample S is not a simplified shape as shown in FIGS. 5, 7, and 9. In particular, when the sample S is a biological sample, it most likely does not have a fixed shape like samples for industrial use. This makes estimating the original shape even more difficult. Therefore, when a confocal image IM100 of a mouse brain as shown in FIG. 10 is obtained, it is not easy to judge whether this confocal image correctly visualizes the mouse brain. Even if it were possible to recognize that a confocal image is distorted, it is not easy to correct the distortion correctly.

なお、図10に示す領域R101から領域R103は、共焦点画像IM100の各画像領域(画像領域IM101から画像領域IM103)の実際の形状を示している。画像領域IM101、IM102には、脳内の特定部位の様子が示されていて、画像領域IM103には、脳内の神経線維が太くなったり細くなったりしている様子が示されている。しかしながら、実際には、領域R101、R102に示すように、特定部位のそれぞれは画像上の大きさとは異なる大きさを有している。また、領域R103に示すように、神経線維は殆ど均一の太さを有している。 Note that regions R101 to R103 shown in FIG. 10 indicate the actual shapes of each image region (image region IM101 to image region IM103) of the confocal image IM100. Image areas IM101 and IM102 show the state of a specific region in the brain, and image area IM103 shows how nerve fibers in the brain become thicker or thinner. However, in reality, as shown in regions R101 and R102, each of the specific parts has a size different from the size on the image. Further, as shown in region R103, the nerve fibers have almost uniform thickness.

図11は、レーザ走査型顕微鏡システム1が行う処理のフローチャートである。図12は、振動波形と変位量の関係を説明するための図である。以下、図11及び図12を参照しながら、共焦点画像に生じる上述した歪みを抑制する方法について説明する。 FIG. 11 is a flowchart of processing performed by the laser scanning microscope system 1. FIG. 12 is a diagram for explaining the relationship between vibration waveform and displacement amount. Hereinafter, a method for suppressing the above-described distortion occurring in a confocal image will be described with reference to FIGS. 11 and 12.

レーザ走査型顕微鏡システム1は、まず、第1走査を行う(ステップS1)。ここでは、処理装置20から指示に従って顕微鏡装置10がスキャナ104でサンプルSを走査し、処理装置20が顕微鏡装置10からの信号に基づいてサンプルSの画像を生成する。なお、ステップS1で生成された画像は、以降、予備画像と記す。 The laser scanning microscope system 1 first performs a first scan (step S1). Here, the microscope device 10 scans the sample S with the scanner 104 according to instructions from the processing device 20, and the processing device 20 generates an image of the sample S based on the signal from the microscope device 10. Note that the image generated in step S1 will hereinafter be referred to as a preliminary image.

次に、レーザ走査型顕微鏡システム1は、振動方向を推測する(ステップS2)。ここでは、処理装置20が、ステップS1で生成した予備画像に基づいて、サンプルSの振動方向を推測する。振動によって生じる画像の歪みは、上述したように2つのパターンで生じる歪みの合成であり、規則性が存在する。この規則性を用いることで、処理装置20は、予備画像から振動方向を推測する。 Next, the laser scanning microscope system 1 estimates the vibration direction (step S2). Here, the processing device 20 estimates the vibration direction of the sample S based on the preliminary image generated in step S1. Image distortion caused by vibration is a combination of distortions caused by two patterns, as described above, and has regularity. By using this regularity, the processing device 20 estimates the vibration direction from the preliminary image.

予備画像から振動方向を推測する具体的な方法は特に限定しない。例えば、機械学習によって生成された学習済みモデルを用いて振動方向を推測してもよい。また、複数の予備画像を比較することで振動方向を推測してもよい。その他、任意の画像処理を用いて振動方向を推測してもよい。 The specific method of estimating the vibration direction from the preliminary image is not particularly limited. For example, the vibration direction may be estimated using a learned model generated by machine learning. Alternatively, the vibration direction may be estimated by comparing a plurality of preliminary images. Alternatively, the vibration direction may be estimated using any image processing.

振動方向を推測すると、レーザ走査型顕微鏡システム1は、主走査方向を調整する(ステップS3)。ここでは、処理装置20が、主走査方向がステップS1で推測した振動方向に近づくように、コントローラ200を制御する。つまり、処理装置20は、コントローラ200を制御することで、コントローラ200に主走査方向をステップS1で推測した振動方向に近づけさせる。 After estimating the vibration direction, the laser scanning microscope system 1 adjusts the main scanning direction (step S3). Here, the processing device 20 controls the controller 200 so that the main scanning direction approaches the vibration direction estimated in step S1. That is, the processing device 20 controls the controller 200 to cause the controller 200 to bring the main scanning direction closer to the vibration direction estimated in step S1.

主走査方向を調整する方法は特に限定しないが、例えば、コントローラ200が、主走査方向が振動方向に近づくように、スキャナ104に含まれる互いに直交する方向に走査する2つのガルバノミラーの駆動タイミングと駆動速度を変更してもよい。 The method of adjusting the main scanning direction is not particularly limited; The driving speed may be changed.

その後、レーザ走査型顕微鏡システム1は、第2走査を行う(ステップS4)。ここでは、処理装置20から指示に従って顕微鏡装置10が、主走査方向が振動方向に近づけられた状態で、スキャナ104でサンプルSを走査し、処理装置20が顕微鏡装置10からの信号に基づいてサンプルSの画像を生成する。なお、ステップS4で生成された画像は、以降、対象画像と記す。 After that, the laser scanning microscope system 1 performs a second scan (step S4). Here, the microscope device 10 scans the sample S with the scanner 104 in accordance with instructions from the processing device 20 with the main scanning direction brought close to the vibration direction, and the processing device 20 scans the sample S based on the signal from the microscope device 10. Generate an image of S. Note that the image generated in step S4 will hereinafter be referred to as a target image.

ステップS3で振動方向を主走査方向に近づけることで、振動に含まれる主走査方向と直交する成分が小さくなる。これにより、ステップS4で生成される対象画像に含まれる、上述した第1パターンの歪み(伸縮)を抑制することができる。なお、第1パターンの歪みを抑制することは第2パターンの歪みを抑制することよりも効果的である。これは、第1パターンの歪みを補正するためには、画像に生じた伸縮をキャンセルする必要があるが、このような補正は情報の損失を招いて分解能を劣化させてしまうからである。つまり、第1のパターンの歪みを抑制することで、画像補正時に生じる情報の損失を減少させることが可能であり、分解能の劣化の少ない画像補正が可能となる。 By bringing the vibration direction closer to the main scanning direction in step S3, the component included in the vibration orthogonal to the main scanning direction becomes smaller. Thereby, distortion (expansion/contraction) of the above-described first pattern included in the target image generated in step S4 can be suppressed. Note that suppressing distortion of the first pattern is more effective than suppressing distortion of the second pattern. This is because, in order to correct the distortion of the first pattern, it is necessary to cancel the expansion and contraction that occurs in the image, but such correction causes a loss of information and deteriorates the resolution. That is, by suppressing the distortion of the first pattern, it is possible to reduce the loss of information that occurs during image correction, and it is possible to perform image correction with less deterioration in resolution.

なお、ステップS3では、処理装置20は、コントローラ200に、主走査方向を振動方向に一致させることがより望ましい。主走査方向を振動方向に一致させることで、対象画像に含まれる第1パターンの歪みを限りなく小さく抑えることができる。 Note that, in step S3, it is more desirable that the processing device 20 causes the controller 200 to cause the main scanning direction to match the vibration direction. By matching the main scanning direction with the vibration direction, distortion of the first pattern included in the target image can be suppressed to an extremely low level.

次に、レーザ走査型顕微鏡システム1は、振動波形情報を推測する(ステップS5)。ここでは、処理装置20が、ステップS4で生成した対象画像に基づいて、サンプルSの振動の波形情報を推測する。波形情報は、振動波形を表す予め決めた関数のパラメータセットとして出力されてもよい。例えば、振動波形を正弦波と仮定して、振幅A、周期T、位相B、角度θ(振動方向)からなるパラメータセットで定義される関数で表してもよい。この場合、処理装置20は、振幅A、周期T、位相B、角度θを振動の波形情報として出力してもよい。また、振動方向(角度θ)が既知な振動波形を正弦波と仮定して、振動波形を表す予め決めた関数のパラメータセットとして出力されてもよい。この場合、処理装置20は、振幅A、周期T、位相Bを振動波形情報として出力してもよい。 Next, the laser scanning microscope system 1 estimates vibration waveform information (step S5). Here, the processing device 20 estimates waveform information of the vibration of the sample S based on the target image generated in step S4. The waveform information may be output as a parameter set of a predetermined function representing the vibration waveform. For example, assuming that the vibration waveform is a sine wave, it may be expressed by a function defined by a parameter set consisting of amplitude A, period T, phase B, and angle θ (vibration direction). In this case, the processing device 20 may output the amplitude A, period T, phase B, and angle θ as vibration waveform information. Alternatively, the vibration waveform whose vibration direction (angle θ) is known may be assumed to be a sine wave, and the vibration waveform may be output as a parameter set of a predetermined function representing the vibration waveform. In this case, the processing device 20 may output the amplitude A, period T, and phase B as vibration waveform information.

なお、対象画像から振動波形情報を推測する具体的な方法は特に限定しない。例えば、機械学習によって生成された学習済みモデルを用いて振動波形情報を推測してもよい。また、複数の対象画像を比較することで振動波形情報を推測してもよい。 Note that the specific method of estimating vibration waveform information from the target image is not particularly limited. For example, vibration waveform information may be estimated using a learned model generated by machine learning. Alternatively, vibration waveform information may be estimated by comparing a plurality of target images.

最後に、レーザ走査型顕微鏡システム1は、対象画像に対して画素シフトを行う(ステップS6)。ここでは、処理装置20は、サンプルSの複数の領域の各々の変位量をステップS5で推測した波形情報から算出して、算出した変位量に応じて対象画像に対して画素シフトを行う。ステップS4の第2走査では、第1パターンの歪みを抑制した画像(対象画像)が予め生成されている。このため、変位量に応じた画素シフトによって第2パターンの歪みを補正することで、振動に起因する歪みが抑制された補正画像を得ることができる。 Finally, the laser scanning microscope system 1 performs pixel shift on the target image (step S6). Here, the processing device 20 calculates the amount of displacement of each of the plurality of regions of the sample S from the waveform information estimated in step S5, and performs pixel shift on the target image according to the calculated amount of displacement. In the second scan in step S4, an image (target image) in which distortion of the first pattern is suppressed is generated in advance. Therefore, by correcting the distortion of the second pattern by pixel shifting according to the amount of displacement, it is possible to obtain a corrected image in which distortion caused by vibration is suppressed.

なお、各領域の変位量は、第2走査における走査開始からサンプルSの複数の領域の各々の走査時点までに各領域に生じた変位の量のことである。図12に示すように、振動波形W(p)が定まることで、各画素pに対応する領域の変位量Dを算出することが可能である。 Note that the amount of displacement in each region refers to the amount of displacement that occurs in each region from the start of the second scan to the time point when each of the plurality of regions of the sample S is scanned. As shown in FIG. 12, by determining the vibration waveform W(p), it is possible to calculate the displacement amount D of the area corresponding to each pixel p.

また、サンプルSの各領域は、1ラインに対応するサンプルS上の領域である。領域の変位量は、領域を代表する画素(例えば、最初に走査される画素)の変位量であってもよく、領域に含まれる画素の変位量の平均であってもよい。 Further, each region of the sample S is a region on the sample S corresponding to one line. The amount of displacement of a region may be the amount of displacement of a pixel representing the region (for example, a pixel scanned first), or may be the average amount of displacement of pixels included in the region.

画素シフトは領域単位で行われる。このため、領域内の画素間の変位量の差(歪みの大きさ)は十分に小さいことが望ましい。 Pixel shifting is performed in area units. For this reason, it is desirable that the difference in displacement amount (distortion magnitude) between pixels within a region is sufficiently small.

ステップS6についてさらに詳細に説明する。第2パターンの歪みを補正するためには、領域間に生じている変位量の差を小さくすればよい。このため、ステップS6では、処理装置20は、算出された各領域の変位量の違いを補うように、各領域(各ライン)のシフト量を決定すればよい。 Step S6 will be explained in more detail. In order to correct the distortion of the second pattern, it is sufficient to reduce the difference in the amount of displacement occurring between the regions. Therefore, in step S6, the processing device 20 may determine the shift amount of each region (each line) so as to compensate for the difference in the calculated displacement amount of each region.

具体的には、処理装置20は、例えば、複数の領域の変位量を振動の最大振幅(図12に示す振幅Amax)に揃えるようにシフト量を決定してもよい。また、処理装置20は、変位量を0に揃えるようにシフト量を決定してもよい。つまり、シフト量は、各領域に生じた変位をキャンセルする量、つまり、変位量そのものであってもよい。また、変位量の違いを補うことで変位量の違いが小さくなればよいため、画素シフト後の複数の領域の変位量は必ずしも一致しなくてもよい。 Specifically, the processing device 20 may, for example, determine the shift amount so that the displacement amounts of the plurality of regions are equalized to the maximum amplitude of vibration (amplitude Amax shown in FIG. 12). Further, the processing device 20 may determine the shift amount so that the displacement amount is equal to zero. In other words, the shift amount may be an amount that cancels the displacement that occurs in each region, that is, the amount of displacement itself. Moreover, since the difference in the displacement amount only needs to be reduced by compensating for the difference in the displacement amount, the displacement amounts of the plurality of regions after the pixel shift do not necessarily have to match.

シフト量を決定すると、処理装置20は、対象画像の各画素をその画素が属するラインについて決定したシフト量だけ主走査方向にシフトする。つまり、ライン毎に所定量だけ画素シフトを行う。これにより、ライン間に生じた変位量の違いを小さくすることができるため、第2パターンの歪みが補正される。 After determining the shift amount, the processing device 20 shifts each pixel of the target image in the main scanning direction by the determined shift amount for the line to which the pixel belongs. In other words, pixels are shifted by a predetermined amount for each line. This makes it possible to reduce the difference in displacement amount between lines, thereby correcting the distortion of the second pattern.

以上の様に、レーザ走査型顕微鏡システム1は、図11に示す処理を実行することで、生体試料の生命維持活動によって生じる振動に起因した画像の歪みを補正した画像を得ることができる。従って、レーザ走査型顕微鏡システム1によれば、in vivoイメージングにおいて画像の歪みを抑制することができる。また、レーザ走査型顕微鏡システム1では、予備画像に含まれる伸縮変形が画素シフトに変換されるように主走査方向を設定して対象画像が取得される。このため、対象画像に対して拡大縮小処理を行うことなく画素シフト処理を行うだけで補正することができる。これにより、演算負荷を軽減することができるとともに分解能の劣化も回避することができる。従って、対象画像(共焦点画像)を補正して歪みが抑制された高い分解能を有する画像を短時間で得ることができる。 As described above, by executing the process shown in FIG. 11, the laser scanning microscope system 1 can obtain an image in which image distortion caused by vibrations caused by life-sustaining activities of a biological sample is corrected. Therefore, according to the laser scanning microscope system 1, image distortion can be suppressed in in vivo imaging. Further, in the laser scanning microscope system 1, the target image is acquired by setting the main scanning direction so that the expansion/contraction deformation included in the preliminary image is converted into a pixel shift. Therefore, correction can be performed simply by performing pixel shift processing without performing scaling processing on the target image. This makes it possible to reduce the calculation load and also avoid deterioration in resolution. Therefore, it is possible to correct the target image (confocal image) and obtain a high resolution image with suppressed distortion in a short time.

以下、上述したレーザ走査型顕微鏡システム1の具体例について、各実施形態で説明する。
<第1の実施形態>
図13は、本実施形態に係る学習済みモデルM1の入出力を説明するための図である。図14は、本実施形態に係る学習処理のフローチャートである。以下、図13及び図14を参照しながら、本実施形態について説明する。なお、本実施形態に係るレーザ走査型顕微鏡システム(以降、単にレーザ走査型顕微鏡システムと記す)の構成は、図1及び図2に示すレーザ走査型顕微鏡システム1と同様である。また、本実施形態に係るレーザ走査型顕微鏡システムが実行する処理の流れは、図11に示すとおりである。
Hereinafter, specific examples of the laser scanning microscope system 1 described above will be described in each embodiment.
<First embodiment>
FIG. 13 is a diagram for explaining input and output of the trained model M1 according to this embodiment. FIG. 14 is a flowchart of learning processing according to this embodiment. This embodiment will be described below with reference to FIGS. 13 and 14. Note that the configuration of the laser scanning microscope system according to this embodiment (hereinafter simply referred to as the laser scanning microscope system) is the same as the laser scanning microscope system 1 shown in FIGS. 1 and 2. Further, the flow of processing executed by the laser scanning microscope system according to this embodiment is as shown in FIG.

本実施形態に係るレーザ走査型顕微鏡システムでは、図11に示す振動方向推測処理(ステップS2)と振動波形情報推測処理(ステップS5)が、図13に示す、画像と走査時間と画像に写っている試料の振動の波形情報(振幅A、角度θ、周期T、位相B)との関係を学習した学習済みモデルM1を用いて行われる。 In the laser scanning microscope system according to this embodiment, the vibration direction estimation process (step S2) and the vibration waveform information estimation process (step S5) shown in FIG. This is performed using a trained model M1 that has learned the relationship between vibration waveform information (amplitude A, angle θ, period T, and phase B) of the sample in question.

具体的には、ステップS2では、処理装置20は、予備画像と予備画像取得時のスキャナ104の走査時間を学習済みモデルM1へ入力して、学習済みモデルM1から出力される拍動情報(波形情報)に含まれる振動方向(角度θ)を取得することで、振動方向を推測する。 Specifically, in step S2, the processing device 20 inputs the preliminary image and the scanning time of the scanner 104 at the time of acquiring the preliminary image to the learned model M1, and calculates the pulsation information (waveform) output from the learned model M1. The vibration direction is estimated by acquiring the vibration direction (angle θ) included in the information).

また、ステップS5では、処理装置20は、対象画像と対象画像取得時のスキャナ104の走査時間を学習済みモデルM1へ入力して、学習済みモデルM1から出力される拍動情報に含まれる振幅A、周期T、位相Bを取得することで、振動波形を推測する。走査時間を入力するのは、画像中の変形が同じであっても走査時間によって心拍数が異なるからである。 Further, in step S5, the processing device 20 inputs the target image and the scanning time of the scanner 104 at the time of acquiring the target image to the learned model M1, and inputs the amplitude A included in the pulsation information output from the learned model M1. , period T, and phase B, the vibration waveform is estimated. The reason for inputting the scanning time is that even if the deformation in the image is the same, the heart rate varies depending on the scanning time.

なお、図13に示す学習済みモデルM1は、図14に示す学習処理を予め実行することで生成すればよい。以降では、観察時と同じレーザ走査型顕微鏡システムを用いて学習済みモデルM1の学習を行う場合を例に説明するが、別のレーザ走査型顕微鏡システムを用いて学習が行われてもよい。 Note that the learned model M1 shown in FIG. 13 may be generated by performing the learning process shown in FIG. 14 in advance. Hereinafter, an example will be described in which the learned model M1 is trained using the same laser scanning microscope system used for observation, but learning may be performed using another laser scanning microscope system.

レーザ走査型顕微鏡システムは、まずサンプルSと同種のサンプル(例えば、マウス)の振動を止めた状態で、そのサンプルを走査する(ステップS11)。ここで、振動を止めた状態は、例えば、マウスが死んでいる状態である。 The laser scanning microscope system first scans a sample of the same type as the sample S (for example, a mouse) with the sample S stopped vibrating (step S11). Here, the state in which the vibrations are stopped is, for example, the state in which the mouse is dead.

次に、レーザ走査型顕微鏡システムは、ステップS11で得られた画像(振動無し画像)を、拍動情報を用いて振動有り画像に変換する(ステップS12)。拍動情報は、例えば、サンプルの拍動の振動波形を表す情報である。拍動情報は、上述した振動波形情報と同様に、拍動による振動波形を表す予め決めた関数のパラメータセットである。ここでは、処理装置20は、拍動情報を用いて算出される、走査時までに各画素に生じる変位を振動無し画像に加算することで、振動無し画像を振動有り画像に変換する。なお、ステップS12では、拍動情報のパラメータ値を変更して複数の振動有り画像を生成し、学習に必要十分な振動有り画像を生成する。 Next, the laser scanning microscope system converts the image obtained in step S11 (image without vibration) into an image with vibration using the pulsation information (step S12). The pulsation information is, for example, information representing the vibration waveform of the pulsation of the sample. Like the vibration waveform information described above, the pulsation information is a parameter set of a predetermined function that represents a vibration waveform due to pulsation. Here, the processing device 20 converts the non-vibration image into an image with vibration by adding to the non-vibration image the displacement that occurs in each pixel up to the time of scanning, which is calculated using the pulsation information. In addition, in step S12, a plurality of images with vibration are generated by changing the parameter values of the pulsation information, and images with vibration necessary and sufficient for learning are generated.

各画素に加算する変位量の算出方法は特に限定しないが、例えば、以下の様に計算することができる。主走査方向の画素位置をx、副走査方向の画素位置をy、主走査方向の画素数をW、1画素当たりの走査時間tp、リトレース時間を1画素当たりの走査時間で割った値をRとすると、各画素を走査した時刻t(x、y)は、以下の式で近似できる。
t(x、y)=(y×(W+R)+x)×tp
Although the method for calculating the amount of displacement to be added to each pixel is not particularly limited, it can be calculated as follows, for example. The pixel position in the main scanning direction is x, the pixel position in the sub-scanning direction is y, the number of pixels in the main scanning direction is W, the scanning time per pixel tp, the value obtained by dividing the retrace time by the scanning time per pixel is R Then, the time t(x,y) at which each pixel is scanned can be approximated by the following equation.
t(x,y)=(y×(W+R)+x)×tp

拍動を正弦波で近似した場合、振動無し画像の画素値li(x、y)、拍動の振幅の主走査方向の成分をAx、拍動の振幅の副走査方向の成分をAyとすると、振動有り画像の画素値lo(x、y)は、以下の式で表すことができる。
lo(x、y)=li(x´、y´)
When the pulsation is approximated by a sine wave, the pixel value li (x, y) of the image without vibration, the component of the pulsation amplitude in the main scanning direction is Ax, and the component of the pulsation amplitude in the sub-scanning direction is Ay. , the pixel value lo(x,y) of the image with vibration can be expressed by the following formula.
lo (x, y) = li (x', y')

ただし、x´、y´、Ax、Ayは以下のとおりである。
x´=x+Ax×sin((2π/T)×(t(x、y)+B))
y´=y+Ay×sin((2π/T)×(t(x、y)+B))
Ax=Acosθ
Ay=Asinθ
However, x', y', Ax, and Ay are as follows.
x'=x+Ax×sin((2π/T)×(t(x,y)+B))
y′=y+Ay×sin((2π/T)×(t(x,y)+B))
Ax=Acosθ
Ay=Asinθ

なお、変位量を画素毎に算出して加算する例を示したが、1ライン当たりの走査時間が振動周期に対して十分に短い場合には、例えばラインの先頭の画素を用いてライン毎に変位量を算出してライン単位に同じ変位量を割り当ててもよい。これにより大量の学習データを生成する時間を短縮することができる。 Although we have shown an example in which the amount of displacement is calculated and added for each pixel, if the scanning time per line is sufficiently short compared to the vibration period, for example, the displacement amount can be calculated and added for each line using the first pixel of the line. The amount of displacement may be calculated and the same amount of displacement may be assigned to each line. This makes it possible to shorten the time it takes to generate a large amount of learning data.

最後に、レーザ走査型顕微鏡システムは、振動有り画像と拍動情報と走査時間の組み合わせを学習する(ステップS13)。ここでは、処理装置20は、ステップS12で生成された振動有り画像とステップS11の走査時間の組み合わせの入力に対してステップS12で用いた拍動情報を出力するように、学習済みモデルM1に学習させる。 Finally, the laser scanning microscope system learns the combination of the image with vibration, pulsation information, and scanning time (step S13). Here, the processing device 20 trains the trained model M1 to output the pulsation information used in step S12 in response to the input of the combination of the image with vibration generated in step S12 and the scanning time of step S11. let

本実施形態に係るレーザ走査型顕微鏡システムによれば、拍動に起因する画像の歪みを補正することができる。従って、レーザ走査型顕微鏡システムによれば、in vivoイメージングにおいて画像の歪みを抑制することができる。 According to the laser scanning microscope system according to this embodiment, image distortion caused by pulsation can be corrected. Therefore, according to the laser scanning microscope system, image distortion can be suppressed in in vivo imaging.

<第2の実施形態>
図15は、本実施形態に係る学習済みモデルM2の入出力を説明するための図である。図16は、本実施形態に係る学習済みモデルM3の入出力を説明するための図である。図17は、本実施形態に係る振動方向学習処理のフローチャートである。図18は、本実施形態に係る波形情報学習処理のフローチャートである。以下、図15から図18を参照しながら、本実施形態について説明する。なお、本実施形態に係るレーザ走査型顕微鏡システム(以降、単にレーザ走査型顕微鏡システムと記す)の構成は、図1及び図2に示すレーザ走査型顕微鏡システム1と同様である。また、本実施形態に係るレーザ走査型顕微鏡システムが実行する処理の流れは、図11に示すとおりである。
<Second embodiment>
FIG. 15 is a diagram for explaining input and output of the trained model M2 according to this embodiment. FIG. 16 is a diagram for explaining input and output of the trained model M3 according to this embodiment. FIG. 17 is a flowchart of vibration direction learning processing according to this embodiment. FIG. 18 is a flowchart of waveform information learning processing according to this embodiment. This embodiment will be described below with reference to FIGS. 15 to 18. Note that the configuration of the laser scanning microscope system according to this embodiment (hereinafter simply referred to as the laser scanning microscope system) is the same as the laser scanning microscope system 1 shown in FIGS. 1 and 2. Further, the flow of processing executed by the laser scanning microscope system according to this embodiment is as shown in FIG.

本実施形態に係るレーザ走査型顕微鏡システムでは、図11に示す振動方向推測処理(ステップS2)が、図15に示す、画像と画像に写っている試料の振動方向との関係を学習した学習済みモデルM2を用いて行われ、図11に示す振動波形情報推測処理(ステップS5)が、図16に示す、画像と走査時間と画像に写っている試料の振動の波形との関係を学習した学習済みモデルM3を用いて行われる。なお、学習済みモデルM3は、画像(振動無し画像)を、主走査方向に関する拍動情報を用いて振動有り画像に変換した画像を用いて学習が行われる点が学習済みモデルM1とは異なっている。 In the laser scanning microscope system according to the present embodiment, the vibration direction estimation process (step S2) shown in FIG. The vibration waveform information estimation process (step S5), which is performed using model M2 and shown in FIG. This is done using the completed model M3. Note that the trained model M3 differs from the trained model M1 in that learning is performed using an image obtained by converting an image (an image without vibration) into an image with vibration using pulsation information regarding the main scanning direction. There is.

具体的には、ステップS2では、処理装置20は、予備画像を学習済みモデルM2へ入力して、学習済みモデルM2から出力される振動方向(角度θ)を取得することで、振動方向を推測する。 Specifically, in step S2, the processing device 20 estimates the vibration direction by inputting the preliminary image into the learned model M2 and acquiring the vibration direction (angle θ) output from the learned model M2. do.

また、ステップS5では、処理装置20は、対象画像と対象画像取得時のスキャナ104の走査時間を学習済みモデルM3へ入力して、学習済みモデルM3から出力される主走査方向に関する拍動情報に含まれる振幅A、周期T、位相Bを取得することで、振動波形を推測する。 Further, in step S5, the processing device 20 inputs the target image and the scanning time of the scanner 104 at the time of acquiring the target image to the trained model M3, and inputs the pulse information regarding the main scanning direction output from the trained model M3. The vibration waveform is estimated by acquiring the included amplitude A, period T, and phase B.

図15に示す学習済みモデルM2は、図17に示す学習処理を予め実行することで生成すればよい。なお、図17に示すステップS21及びステップS22の処理は、図14に示すステップS11及びステップS12の処理と同様である。 The learned model M2 shown in FIG. 15 may be generated by performing the learning process shown in FIG. 17 in advance. Note that the processing in step S21 and step S22 shown in FIG. 17 is similar to the processing in step S11 and step S12 shown in FIG.

最後に、レーザ走査型顕微鏡システムは、振動有り画像と振動方向の組み合わせを学習する(ステップS23)。ここでは、処理装置20は、ステップS22で生成された振動有り画像の入力に対してステップS22で用いた拍動情報に含まれる振動方向(角度θ)を出力するように、学習済みモデルM2に学習させる。 Finally, the laser scanning microscope system learns the combination of the image with vibration and the vibration direction (step S23). Here, the processing device 20 sets the trained model M2 to output the vibration direction (angle θ) included in the pulsation information used in step S22 in response to the input of the image with vibration generated in step S22. Let them learn.

図16に示す学習済みモデルM3は、図18に示す学習処理を予め実行することで生成すればよい。なお、図18に示すステップS31の処理は、図14に示すステップS11の処理と同様である。 The trained model M3 shown in FIG. 16 may be generated by performing the learning process shown in FIG. 18 in advance. Note that the process in step S31 shown in FIG. 18 is similar to the process in step S11 shown in FIG.

その後、ステップS31で得られた画像(振動無し画像)を、主走査方向に関する拍動情報を用いて振動有り画像に変換する(ステップS32)。主走査方向に関する拍動情報は、例えば、サンプルの拍動の主走査方向成分に関する振動波形を表す情報である。主走査方向に関する拍動情報は、角度θを含まなくてもよく、又は、角度θが固定値(例えばθ=0)で与えられてもよい。 Thereafter, the image obtained in step S31 (image without vibration) is converted into an image with vibration using pulsation information regarding the main scanning direction (step S32). The pulsation information regarding the main scanning direction is, for example, information representing a vibration waveform regarding the main scanning direction component of the pulsation of the sample. The pulsation information regarding the main scanning direction may not include the angle θ, or the angle θ may be given as a fixed value (for example, θ=0).

最後に、レーザ走査型顕微鏡システムは、振動有り画像と主走査方向に関する拍動情報の組み合わせを学習する(ステップS33)。ここでは、処理装置20は、ステップS32で生成された振動有り画像とステップS31の走査時間の組み合わせの入力に対してステップS32で用いた主走査方向に関する拍動情報(振幅A、周期T、位相B)を出力するように、学習済みモデルM3に学習させる。 Finally, the laser scanning microscope system learns the combination of the image with vibration and the pulsation information regarding the main scanning direction (step S33). Here, the processing device 20 inputs the pulsation information (amplitude A, period T, phase The trained model M3 is trained to output B).

本実施形態に係るレーザ走査型顕微鏡システムによっても、拍動に起因する画像の歪みを補正することができる。従って、レーザ走査型顕微鏡システムによれば、in vivoイメージングにおいて画像の歪みを抑制することができる。 The laser scanning microscope system according to this embodiment can also correct image distortion caused by pulsation. Therefore, according to the laser scanning microscope system, image distortion can be suppressed in in vivo imaging.

<第3の実施形態>
図19は、本実施形態に係る振動方向推測処理のフローチャートである。以下、図19を参照しながら、本実施形態について説明する。なお、本実施形態に係るレーザ走査型顕微鏡システム(以降、単にレーザ走査型顕微鏡システムと記す)の構成は、図1及び図2に示すレーザ走査型顕微鏡システム1と同様である。また、本実施形態に係るレーザ走査型顕微鏡システムが実行する処理の流れは、図11に示すとおりである。
<Third embodiment>
FIG. 19 is a flowchart of vibration direction estimation processing according to this embodiment. This embodiment will be described below with reference to FIG. 19. Note that the configuration of the laser scanning microscope system according to this embodiment (hereinafter simply referred to as the laser scanning microscope system) is the same as the laser scanning microscope system 1 shown in FIGS. 1 and 2. Further, the flow of processing executed by the laser scanning microscope system according to this embodiment is as shown in FIG.

本実施形態に係るレーザ走査型顕微鏡システムでは、図11に示すステップS2において、図19に示す振動方向推測処理が行われる。具体的には、レーザ走査型顕微鏡システムは、まず、主走査方向を変更して複数回走査を行う(ステップS41)。つまり、主走査方向が互いに異なる複数の状態でスキャナ104による複数の第1走査が行われ、複数の予備画像が生成される。例えば、主走査方向を10°ずつ18回変更して、変更する度に複数回走査を行ってもよい。 In the laser scanning microscope system according to this embodiment, the vibration direction estimation process shown in FIG. 19 is performed in step S2 shown in FIG. Specifically, the laser scanning microscope system first performs scanning multiple times by changing the main scanning direction (step S41). That is, a plurality of first scans are performed by the scanner 104 in a plurality of states in which the main scanning directions are different from each other, and a plurality of preliminary images are generated. For example, the main scanning direction may be changed 18 times by 10 degrees, and scanning may be performed multiple times each time the main scanning direction is changed.

その後、レーザ走査型顕微鏡システムは、ステップS41で生成された複数の予備画像を比較し(ステップS42)、振動方向を推測する(ステップS43)。ここでは、処理装置20は、ステップS42において、同じ主走査方向で取得した複数の予備画像から同じ特徴点を抽出して、主走査方向毎にその特徴点の主走査方向の座標の最大変動量を取得してもよい。処理装置20は、ステップS43において、最大変動量が最も大きい主走査方向を特定して、その主走査方向を振動方向として推測してもよい。 After that, the laser scanning microscope system compares the plurality of preliminary images generated in step S41 (step S42) and estimates the vibration direction (step S43). Here, in step S42, the processing device 20 extracts the same feature point from a plurality of preliminary images acquired in the same main scanning direction, and extracts the maximum variation amount of the coordinates of the feature point in the main scanning direction for each main scanning direction. may be obtained. In step S43, the processing device 20 may identify the main scanning direction in which the maximum amount of variation is the largest, and estimate that main scanning direction as the vibration direction.

本実施形態に係るレーザ走査型顕微鏡システムによっても、拍動に起因する画像の歪みを補正することができる。従って、レーザ走査型顕微鏡システムによれば、in vivoイメージングにおいて画像の歪みを抑制することができる。 The laser scanning microscope system according to this embodiment can also correct image distortion caused by pulsation. Therefore, according to the laser scanning microscope system, image distortion can be suppressed in in vivo imaging.

<第4の実施形態>
図20は、本実施形態に係るレーザ走査型顕微鏡システムの構成を例示した図である。図21は、本実施形態に係る学習済みモデルM4の入出力を説明するための図である。図22は、本実施形態に係る学習処理のフローチャートである。図20に示すレーザ走査型顕微鏡システムは、サンプルSに取り付けられるセンサ300を備える点が、レーザ走査型顕微鏡システム1とは異なる。その他の点は、レーザ走査型顕微鏡システム1と同様である。センサ300は、生体試料の波形を測定するセンサであり、例えば、心電図センサである。センサ300が測定したセンサ波形(心電図波形)は、コントローラ200へ出力される。また、本実施形態に係るレーザ走査型顕微鏡システムが実行する処理の流れは、図11に示すとおりである。
<Fourth embodiment>
FIG. 20 is a diagram illustrating the configuration of a laser scanning microscope system according to this embodiment. FIG. 21 is a diagram for explaining input and output of the learned model M4 according to this embodiment. FIG. 22 is a flowchart of learning processing according to this embodiment. The laser scanning microscope system shown in FIG. 20 differs from the laser scanning microscope system 1 in that it includes a sensor 300 attached to the sample S. Other points are similar to the laser scanning microscope system 1. The sensor 300 is a sensor that measures the waveform of a biological sample, and is, for example, an electrocardiogram sensor. The sensor waveform (electrocardiogram waveform) measured by the sensor 300 is output to the controller 200. Further, the flow of processing executed by the laser scanning microscope system according to this embodiment is as shown in FIG.

本実施形態に係るレーザ走査型顕微鏡システムでは、図11に示す振動波形情報推測処理(ステップS5)が、図21に示す、画像に写っている試料の振動の波形とセンサ300が試料の振動を測定することで得られるセンサ波形との関係を学習した学習済みモデルM4を用いて行われる。 In the laser scanning microscope system according to this embodiment, the vibration waveform information estimation process (step S5) shown in FIG. This is performed using a trained model M4 that has learned the relationship with the sensor waveform obtained by measurement.

具体的には、ステップS5では、処理装置20は、対象画像取得中(第2走査中)にセンサ300でサンプルSの振動を測定することで得られたセンサ波形を学習済みモデルM4へ入力して、学習済みモデルM4から出力される主走査方向に関する拍動情報に含まれる振幅A、周期T、位相Bを取得することで、振動波形を推測する。 Specifically, in step S5, the processing device 20 inputs the sensor waveform obtained by measuring the vibration of the sample S with the sensor 300 during target image acquisition (during the second scan) into the learned model M4. Then, the vibration waveform is estimated by acquiring the amplitude A, period T, and phase B included in the pulsation information regarding the main scanning direction output from the trained model M4.

図21に示す学習済みモデルM4は、図22に示す学習処理を予め実行することで生成すればよい。レーザ走査型顕微鏡システムは、まずサンプルSと同種のサンプル(例えば、マウス)を、振動方向と主走査方向とを一致させた状態で、心電図測定を行いながら走査する(ステップS51)。これにより、振動方向と主走査方向が一致した状態の画像と、画像取得中のセンサ波形との組み合わせを得ることができる。 The learned model M4 shown in FIG. 21 may be generated by performing the learning process shown in FIG. 22 in advance. The laser scanning microscope system first scans a sample of the same type as the sample S (for example, a mouse) while performing an electrocardiogram measurement with the vibration direction and the main scanning direction aligned (step S51). Thereby, a combination of an image in which the vibration direction and the main scanning direction match and a sensor waveform during image acquisition can be obtained.

次に、レーザ走査型顕微鏡システムは、学習済みモデルを用いてステップS51で得られた画像から主走査方向に関する拍動情報を算出する(ステップS52)。ここでは、例えば、上述した学習済みモデルM3などを用いればよい。なお、ステップS51とステップS52は、学習に必要十分なセンサ波形と拍動情報が得られるまで繰り返し行われる。 Next, the laser scanning microscope system calculates pulsation information regarding the main scanning direction from the image obtained in step S51 using the trained model (step S52). Here, for example, the trained model M3 described above may be used. Note that steps S51 and S52 are repeatedly performed until sufficient sensor waveform and pulsation information are obtained for learning.

最後に、レーザ走査型顕微鏡システムは、ステップS51で取得したセンサ波形と、そのセンサ波形に対応する画像を用いてステップS52で算出した拍動情報との組み合わせを学習する(ステップS53)。ここでは、処理装置20は、ステップS52で取得したセンサ波形の入力に対してステップS52で算出した拍動情報に含まれる振動方向(角度θ)を出力するように、学習済みモデルM4に学習させる。 Finally, the laser scanning microscope system learns the combination of the sensor waveform acquired in step S51 and the pulsation information calculated in step S52 using the image corresponding to the sensor waveform (step S53). Here, the processing device 20 causes the trained model M4 to learn to output the vibration direction (angle θ) included in the pulsation information calculated in step S52 in response to the input of the sensor waveform acquired in step S52. .

本実施形態に係るレーザ走査型顕微鏡システムによっても、拍動に起因する画像の歪みを補正することができる。従って、レーザ走査型顕微鏡システムによれば、in vivoイメージングにおいて画像の歪みを抑制することができる。 The laser scanning microscope system according to this embodiment can also correct image distortion caused by pulsation. Therefore, according to the laser scanning microscope system, image distortion can be suppressed in in vivo imaging.

図23は、上述した実施形態に係る処理装置を実現するためのコンピュータのハードウェア構成を例示した図である。図23に示すハードウェア構成は、例えば、プロセッサ21、メモリ22、記憶装置23、読取装置24、通信インタフェース26、及び入出力インタフェース27を備える。なお、プロセッサ21、メモリ22、記憶装置23、読取装置24、通信インタフェース26、及び入出力インタフェース27は、例えば、バス28を介して互いに接続されている。 FIG. 23 is a diagram illustrating the hardware configuration of a computer for realizing the processing device according to the embodiment described above. The hardware configuration shown in FIG. 23 includes, for example, a processor 21, a memory 22, a storage device 23, a reading device 24, a communication interface 26, and an input/output interface 27. Note that the processor 21, memory 22, storage device 23, reading device 24, communication interface 26, and input/output interface 27 are connected to each other via a bus 28, for example.

プロセッサ21は、例えば、シングルプロセッサであっても、マルチプロセッサやマルチコアプロセッサであってもよい。プロセッサ21は、記憶装置23に格納されているプログラムを読み出して実行することで、図11等で例示された制御処理を実行する。 The processor 21 may be, for example, a single processor, a multiprocessor, or a multicore processor. The processor 21 reads and executes a program stored in the storage device 23 to execute the control process illustrated in FIG. 11 and the like.

メモリ22は、例えば、半導体メモリであり、RAM領域およびROM領域を含んでいてよい。記憶装置23は、例えばハードディスク、フラッシュメモリ等の半導体メモリ、または外部記憶装置である。 The memory 22 is, for example, a semiconductor memory and may include a RAM area and a ROM area. The storage device 23 is, for example, a hard disk, a semiconductor memory such as a flash memory, or an external storage device.

読取装置24は、例えば、プロセッサ21の指示に従って着脱可能記憶媒体25にアクセスする。着脱可能記憶媒体25は、例えば、半導体デバイス、磁気的作用により情報が入出力される媒体、光学的作用により情報が入出力される媒体などにより実現される。なお、半導体デバイスは、例えば、USB(Universal Serial Bus)メモリである。また、磁気的作用により情報が入出力される媒体は、例えば、磁気ディスクである。光学的作用により情報が入出力される媒体は、例えば、CD(Compact Disc)-ROM、DVD(Digital Versatile Disk)、Blu-ray Disc等(Blu-rayは登録商標)である。 The reading device 24 accesses the removable storage medium 25 according to instructions from the processor 21, for example. The removable storage medium 25 is realized by, for example, a semiconductor device, a medium through which information is input/output by magnetic action, a medium through which information is input/output by optical action, or the like. Note that the semiconductor device is, for example, a USB (Universal Serial Bus) memory. Further, a medium in which information is input/output by magnetic action is, for example, a magnetic disk. Examples of media on which information is input and output through optical action include CDs (Compact Discs)-ROMs, DVDs (Digital Versatile Disks), and Blu-ray Discs (Blu-ray is a registered trademark).

通信インタフェース26は、例えば、プロセッサ21の指示に従って、他の装置と通信する。入出力インタフェース27は、例えば、入力装置および出力装置との間のインタフェースである。入力装置は、例えば、ユーザからの指示を受け付けるキーボード、マウス、タッチパネルなどのデバイスである。出力装置は、例えばディスプレイなどの表示装置、およびスピーカなどの音声装置である。 The communication interface 26 communicates with other devices according to instructions from the processor 21, for example. The input/output interface 27 is, for example, an interface between an input device and an output device. The input device is, for example, a device such as a keyboard, mouse, or touch panel that receives instructions from a user. The output device is, for example, a display device such as a display, and an audio device such as a speaker.

プロセッサ21が実行するプログラムは、例えば、下記の形態でコンピュータに提供される。
(1)記憶装置23に予めインストールされている。
(2)着脱可能記憶媒体25により提供される。
(3)プログラムサーバなどのサーバから提供される。
The program executed by the processor 21 is provided to the computer in the following format, for example.
(1) Installed in the storage device 23 in advance.
(2) Provided by removable storage medium 25.
(3) Provided by a server such as a program server.

なお、図23を参照して述べた処理装置を実現するためのコンピュータのハードウェア構成は例示であり、実施形態はこれに限定されるものではない。例えば、上述の構成の一部が、削除されてもよく、また、新たな構成が追加されてもよい。また、別の実施形態では、例えば、上述の処理装置の一部または全部の機能がFPGA(Field Programmable Gate Array)、SoC(System-on-a-Chip)、ASIC(Application Specific Integrated Circuit)、およびPLD(Programmable Logic Device)などによるハードウェアとして実装されてもよい。 Note that the hardware configuration of the computer for realizing the processing device described with reference to FIG. 23 is an example, and the embodiment is not limited to this. For example, some of the configurations described above may be deleted, or new configurations may be added. In another embodiment, for example, some or all of the functions of the processing device described above may be implemented using an FPGA (Field Programmable Gate Array), an SoC (System-on-a-Chip), or an ASIC (Application Specific Integrated Circuit). it), and It may be implemented as hardware such as a PLD (Programmable Logic Device).

上述した実施形態は、発明の理解を容易にするために具体例を示したものであり、本発明はこれらの実施形態に限定されるものではない。上述の実施形態を変形した変形形態および上述した実施形態に代替する代替形態が包含され得る。つまり、各実施形態は、その趣旨および範囲を逸脱しない範囲で構成要素を変形することが可能である。また、1つ以上の実施形態に開示されている複数の構成要素を適宜組み合わせることにより、新たな実施形態を実施することができる。また、各実施形態に示される構成要素からいくつかの構成要素を削除してもよく、または実施形態に示される構成要素にいくつかの構成要素を追加してもよい。さらに、各実施形態に示す処理手順は、矛盾しない限り順序を入れ替えて行われてもよい。即ち、本発明のレーザ走査型顕微鏡システムは、特許請求の範囲の記載を逸脱しない範囲において、さまざまな変形、変更が可能である。 The embodiments described above are specific examples to facilitate understanding of the invention, and the present invention is not limited to these embodiments. Variations on the embodiments described above and alternatives to the embodiments described above may be included. In other words, the components of each embodiment can be modified without departing from the spirit and scope thereof. Further, new embodiments can be implemented by appropriately combining a plurality of components disclosed in one or more embodiments. Further, some components may be deleted from the components shown in each embodiment, or some components may be added to the components shown in the embodiments. Furthermore, the processing procedures shown in each embodiment may be performed in a different order as long as there is no contradiction. That is, the laser scanning microscope system of the present invention can be modified and changed in various ways without departing from the scope of the claims.

図24は、2光子励起顕微鏡400の構成を例示した図である。上述した実施形態では、レーザ走査型顕微鏡システムが共焦点顕微鏡100を含む例を示したが、共焦点顕微鏡100の代わりに図24に示す2光子励起顕微鏡400を含んでもよい。 FIG. 24 is a diagram illustrating the configuration of a two-photon excitation microscope 400. In the embodiment described above, an example was shown in which the laser scanning microscope system includes the confocal microscope 100, but the two-photon excitation microscope 400 shown in FIG. 24 may be included instead of the confocal microscope 100.

2光子励起顕微鏡400は、図24に示すように、照明光路上に、レーザ401と、スキャナ402と、瞳投影光学系403と、ミラー404と、ダイクロイックミラー405と、対物レンズ406とを備えている。 As shown in FIG. 24, the two-photon excitation microscope 400 includes a laser 401, a scanner 402, a pupil projection optical system 403, a mirror 404, a dichroic mirror 405, and an objective lens 406 on the illumination optical path. There is.

レーザ401は、例えば、超短パルスレーザーであり、近赤外域のレーザ光を発振する。スキャナ402は、例えば、主走査方向と副走査方向に走査する2つのガルバノミラーである。瞳投影光学系403は、スキャナ402の像を対物レンズ406の瞳位置に投影する。ダイクロイックミラー405は、励起光(レーザ光)とサンプルSからの検出光(蛍光)とを分離する光分離手段であり、波長によってレーザ光と蛍光を分離する。 The laser 401 is, for example, an ultrashort pulse laser, and oscillates laser light in the near-infrared region. The scanner 402 is, for example, two galvanometer mirrors that scan in the main scanning direction and the sub-scanning direction. Pupil projection optical system 403 projects the image of scanner 402 onto the pupil position of objective lens 406 . The dichroic mirror 405 is a light separating means that separates excitation light (laser light) and detection light (fluorescence) from the sample S, and separates the laser light and fluorescence depending on the wavelength.

2光子励起顕微鏡400は、さらに、検出光路(ダイクロイックミラー405の反射光路)上に、瞳投影光学系407と、光検出器408とを備えている。光検出器408から出力された信号は、A/D変換器409に出力される。 The two-photon excitation microscope 400 further includes a pupil projection optical system 407 and a photodetector 408 on the detection optical path (reflection optical path of the dichroic mirror 405). The signal output from photodetector 408 is output to A/D converter 409.

瞳投影光学系407は、対物レンズ406の瞳の像を光検出器408に投影する光学系である。光検出器408は、例えば、光電子増倍管(PMT)であり、入射した蛍光の光量に応じたアナログ信号を出力する。A/D変換器409は、光検出器408からのアナログ信号をデジタル信号(輝度信号)に変換して、処理装置20へ出力する。 The pupil projection optical system 407 is an optical system that projects the pupil image of the objective lens 406 onto the photodetector 408. The photodetector 408 is, for example, a photomultiplier tube (PMT), and outputs an analog signal according to the amount of incident fluorescent light. The A/D converter 409 converts the analog signal from the photodetector 408 into a digital signal (luminance signal) and outputs it to the processing device 20.

図24に示す2光子励起顕微鏡などの多光子励起顕微鏡であっても共焦点顕微鏡と同様の理由によって画像に歪みが生じる。このため、図11に示す処理を行って画像の歪みを補正してもよい。 Even in a multiphoton excitation microscope such as the two-photon excitation microscope shown in FIG. 24, distortion occurs in images for the same reason as in a confocal microscope. Therefore, the image distortion may be corrected by performing the process shown in FIG.

上述した実施形態では、コントローラ200が互いに直交する方向に走査する2つのガルバノミラーの駆動タイミングと駆動速度を変更することで、主走査方向を振動方向へ近づける例を示したが、主走査方向は他の方法によって調整されてもよい。 In the embodiment described above, an example was shown in which the controller 200 changes the drive timing and drive speed of two galvano mirrors that scan in mutually orthogonal directions, thereby bringing the main scanning direction closer to the vibration direction. It may also be adjusted by other methods.

例えば、レーザ走査型顕微鏡システムは、共焦点顕微鏡100の代わりに、スキャナ104とダイクロイックミラー103の間にイメージローテーター501を含む図25に示す共焦点顕微鏡500を含んでもよい。この場合、イメージローテーター501を制御するコントローラ201が、主走査方向が振動方向に近づくように、イメージローテーター501の向きを変更してもよい。このような方法で主走査方向を調整した場合であっても、図11に示す処理を行うことで、画像の歪みを補正することができる。なお、イメージローテーター501を用いることで、回転方向の変更に制約のあるレゾナントスキャナをスキャナ104に用いてもよい。 For example, the laser scanning microscope system may include a confocal microscope 500 shown in FIG. 25 that includes an image rotator 501 between the scanner 104 and the dichroic mirror 103 instead of the confocal microscope 100. In this case, the controller 201 that controls the image rotator 501 may change the orientation of the image rotator 501 so that the main scanning direction approaches the vibration direction. Even when the main scanning direction is adjusted using such a method, image distortion can be corrected by performing the processing shown in FIG. 11. Note that by using the image rotator 501, a resonant scanner with restrictions on changing the rotation direction may be used as the scanner 104.

また、レーザ走査型顕微鏡システムは、共焦点顕微鏡100の代わりに、サンプルSが載置される回転ステージ601を含む図26に示す共焦点顕微鏡600を含んでもよい。この場合、回転ステージ601を制御するコントローラ202が、主走査方向が振動方向に近づくように、回転ステージ601の向きを変更してもよい。このような方法で主走査方向を調整した場合であっても、図11に示す処理を行うことで、画像の歪みを補正することができる。なお、回転ステージ601を用いることで、回転方向の変更に制約のあるレゾナントスキャナをスキャナ104に用いてもよい。 Further, the laser scanning microscope system may include, instead of the confocal microscope 100, a confocal microscope 600 shown in FIG. 26 that includes a rotation stage 601 on which the sample S is placed. In this case, the controller 202 that controls the rotation stage 601 may change the orientation of the rotation stage 601 so that the main scanning direction approaches the vibration direction. Even when the main scanning direction is adjusted using such a method, image distortion can be corrected by performing the processing shown in FIG. 11. Note that by using the rotation stage 601, a resonant scanner with restrictions on changing the rotation direction may be used as the scanner 104.

また、上述した実施形態では、蛍光を検出する蛍光観察法を例にして説明したが、レーザ走査型顕微鏡システムで行われる観察法は蛍光観察法に限らない。その他の観察法に上述したレーザ走査型顕微鏡システムが適用されてもよい。 Furthermore, in the above-described embodiments, the fluorescence observation method for detecting fluorescence has been described as an example, but the observation method performed with the laser scanning microscope system is not limited to the fluorescence observation method. The laser scanning microscope system described above may be applied to other observation methods.

また、上述した実施形態では、生体試料を観察する例を示したが、試料は生体試料に限らない。工業用サンプルなどであっても、走査中に何らかの理由によって規則的な振動が生じる場合には、上述したレーザ走査型顕微鏡システムを適用することで振動に起因する歪みを補正可能である。 Further, in the embodiment described above, an example was shown in which a biological sample is observed, but the sample is not limited to a biological sample. Even with industrial samples, if regular vibrations occur for some reason during scanning, the distortion caused by the vibrations can be corrected by applying the above-described laser scanning microscope system.

また、上述した実施形態では、拍動によって生じる振動を例に説明したが、拍動の代わりに又は拍動に加えて呼吸によって生じる振動を推測して画像の歪みを補正してもよい。拍動と同様に呼吸による振動も周期的な振動と見做すことができるため、拍動と呼吸が合成された振動を波形情報として扱ってもよい。さらに、上述した実施形態では、振動を正弦波振動として仮定して波形情報を推測する例を示したが、振動波形は正弦波形状に限らない。より実際の振動に近い関数で振動波形を近似してもよい。 Furthermore, in the above-described embodiments, vibrations caused by pulsations have been described as an example, but image distortion may be corrected by estimating vibrations caused by breathing instead of or in addition to pulsations. Like pulsations, vibrations caused by breathing can be regarded as periodic vibrations, so vibrations that are a combination of pulsations and breathing may be treated as waveform information. Furthermore, in the embodiment described above, an example was shown in which the waveform information is estimated assuming that the vibration is a sine wave vibration, but the vibration waveform is not limited to a sine wave shape. The vibration waveform may be approximated by a function closer to actual vibration.

また、上述した実施形態では、変位量の算出単位である領域毎にシフト量の決定する例を示したが、変位量とシフト量の算出単位は異なってもよい。例えば、複数画素からなる領域毎に変位量を算出し、領域毎に算出された変位量から画素毎にシフト量を決定してもよい。 Further, in the embodiment described above, an example was shown in which the shift amount is determined for each region, which is the unit of calculation of the displacement amount, but the calculation units of the displacement amount and the shift amount may be different. For example, the amount of displacement may be calculated for each region consisting of a plurality of pixels, and the amount of shift may be determined for each pixel from the amount of displacement calculated for each region.

本明細書において、“Aに基づいて”という表現は、“Aのみに基づいて”を意味するものではなく、“少なくともAに基づいて”を意味し、さらに、“少なくともAに部分的に基づいて”をも意味している。即ち、“Aに基づいて”はAに加えてBに基づいてもよく、Aの一部に基づいてよい。 As used herein, the expression "based on A" does not mean "based only on A," but "based at least on A," and furthermore, "based at least in part on A." It also means "te". That is, "based on A" may be based on B in addition to A, or may be based on a part of A.

1 レーザ走査型顕微鏡システム
10 顕微鏡装置
20 処理装置
21 プロセッサ
100、500、600 共焦点顕微鏡
101、401 レーザ
104、402 スキャナ
200、201、202 コントローラ
300 センサ
400 2光子励起顕微鏡
501 イメージローテーター
601 回転ステージ
M1、M2、M3 学習済みモデル
1 Laser scanning microscope system 10 Microscope device 20 Processing device 21 Processor 100, 500, 600 Confocal microscope 101, 401 Laser 104, 402 Scanner 200, 201, 202 Controller 300 Sensor 400 Two-photon excitation microscope 501 Image rotator 601 Rotation stage
M1, M2, M3 trained models

Claims (10)

主走査方向と副走査方向に生体試料を走査するスキャナと、
前記主走査方向を制御するコントローラと、
処理装置と、を備え、
前記処理装置は、
前記スキャナによる前記生体試料の第1走査で生成された前記生体試料の画像である予備画像に基づいて、前記生体試料の振動方向を推測することと、
前記コントローラに、前記主走査方向を前記振動方向に近づけさせることと、
前記生体試料の振動の波形情報に基づいて算出される、前記主走査方向を前記振動方向に近づけた状態で行われた前記スキャナによる前記生体試料の第2走査における走査開始から前記生体試料の複数の領域の各々の走査時点までに各領域に生じた変位の量の違いを補うように、前記第2走査で生成された前記生体試料の画像である対象画像の複数のラインであって前記複数の領域に対応する複数のラインの各々のシフト量を決定することと、
前記対象画像の前記複数のラインを、前記複数のラインのシフト量だけで前記主走査方向にシフトすることと、
を実行するように構成される
ことを特徴とするレーザ走査型顕微鏡システム。
a scanner that scans a biological sample in the main scanning direction and the sub-scanning direction;
a controller that controls the main scanning direction;
comprising a processing device;
The processing device includes:
estimating a vibration direction of the biological sample based on a preliminary image that is an image of the biological sample generated in a first scan of the biological sample by the scanner;
causing the controller to bring the main scanning direction closer to the vibration direction;
A plurality of the biological samples from the start of a second scan of the biological sample by the scanner, which is performed with the main scanning direction close to the vibration direction, which is calculated based on waveform information of the vibration of the biological sample. A plurality of lines of a target image, which is an image of the biological sample generated in the second scan, so as to compensate for the difference in the amount of displacement that has occurred in each region up to the time of each scan of the region. determining the amount of shift of each of the plurality of lines corresponding to the area;
Shifting the plurality of lines of the target image in the main scanning direction by only the shift amount of the plurality of lines;
A laser scanning microscope system configured to perform.
請求項1に記載のレーザ走査型顕微鏡システムにおいて、
前記処理装置は、さらに、前記対象画像に基づいて、前記生体試料の振動の波形情報を推測すること、を実行するように構成される
ことを特徴とするレーザ走査型顕微鏡システム。
The laser scanning microscope system according to claim 1,
The laser scanning microscope system is characterized in that the processing device is further configured to estimate vibration waveform information of the biological sample based on the target image.
請求項1又は請求項2に記載のレーザ走査型顕微鏡システムにおいて、
前記スキャナは、互いに直交する方向に走査する2つのスキャナミラーを含み、
前記コントローラは、前記主走査方向が前記振動方向に近づくように、前記2つのスキャナミラーを制御する
ことを特徴とするレーザ走査型顕微鏡システム。
The laser scanning microscope system according to claim 1 or 2,
The scanner includes two scanner mirrors that scan in mutually orthogonal directions,
The laser scanning microscope system is characterized in that the controller controls the two scanner mirrors so that the main scanning direction approaches the vibration direction.
請求項1又は請求項2に記載のレーザ走査型顕微鏡システムにおいて、さらに、
イメージローテーターを含み、
前記コントローラは、前記主走査方向が前記振動方向に近づくように、前記イメージローテーターの向きを変更する
ことを特徴とするレーザ走査型顕微鏡システム。
In the laser scanning microscope system according to claim 1 or 2, further:
Includes image rotator
The laser scanning microscope system is characterized in that the controller changes the orientation of the image rotator so that the main scanning direction approaches the vibration direction.
請求項1又は請求項2に記載のレーザ走査型顕微鏡システムにおいて、さらに、
前記生体試料が載置される回転ステージを含み、
前記コントローラは、前記主走査方向が前記振動方向に近づくように、前記回転ステージの向きを変更する
ことを特徴とするレーザ走査型顕微鏡システム。
In the laser scanning microscope system according to claim 1 or 2, further:
including a rotation stage on which the biological sample is placed;
The laser scanning microscope system is characterized in that the controller changes the orientation of the rotation stage so that the main scanning direction approaches the vibration direction.
請求項1乃至請求項5のいずれか1項に記載のレーザ走査型顕微鏡システムにおいて、
前記振動方向を推測することは、画像と前記画像に写っている試料の振動方向との関係を学習した学習済みモデルに前記予備画像を入力することを含む
ことを特徴とするレーザ走査型顕微鏡システム。
The laser scanning microscope system according to any one of claims 1 to 5,
A laser scanning microscope system characterized in that estimating the vibration direction includes inputting the preliminary image to a trained model that has learned a relationship between an image and a vibration direction of a sample shown in the image. .
請求項1乃至請求項5のいずれか1項に記載のレーザ走査型顕微鏡システムにおいて、
前記振動方向を推測することは、前記主走査方向が互いに異なる複数の状態で行われた前記スキャナによる複数の第1走査で生成された複数の予備画像を比較することを含む
ことを特徴とするレーザ走査型顕微鏡システム。
The laser scanning microscope system according to any one of claims 1 to 5,
Preferably, estimating the vibration direction includes comparing a plurality of preliminary images generated in a plurality of first scans by the scanner performed in a plurality of states in which the main scanning directions are different from each other. Laser scanning microscope system.
請求項2に記載のレーザ走査型顕微鏡システムにおいて、
前記振動の波形情報を推測することは、画像と走査時間と前記画像に写っている試料の振動の波形との関係を学習した学習済みモデルに前記対象画像と前記対象画像の取得に要した前記スキャナの走査時間とを入力することを含む
ことを特徴とするレーザ走査型顕微鏡システム。
The laser scanning microscope system according to claim 2,
Estimating the vibration waveform information involves using a trained model that has learned the relationship between the image, the scanning time, and the vibration waveform of the sample shown in the image to estimate the target image and the time required to acquire the target image. A laser scanning microscope system comprising inputting a scanning time of a scanner.
請求項1に記載のレーザ走査型顕微鏡システムにおいて、さらに、
前記生体試料の振動を測定するセンサを備え、
前記処理装置は、さらに、前記センサが測定した前記生体試料の振動の波形に基づいて、前記波形情報を推測すること、を実行するように構成され、
前記波形情報を推測することは、画像に写っている試料の振動の波形と前記センサが前記試料の振動を測定することで得られるセンサ波形との関係を学習した学習済みモデルに前記センサが前記第2走査中に前記生体試料の振動を測定することで得られたセンサ波形を入力すること、を含む
ことを特徴とするレーザ走査型顕微鏡システム。
The laser scanning microscope system according to claim 1, further comprising:
comprising a sensor that measures vibrations of the biological sample,
The processing device is further configured to estimate the waveform information based on the vibration waveform of the biological sample measured by the sensor,
Estimating the waveform information means that the sensor uses a trained model that has learned the relationship between the vibration waveform of the sample shown in the image and the sensor waveform obtained when the sensor measures the vibration of the sample. A laser scanning microscope system comprising: inputting a sensor waveform obtained by measuring vibrations of the biological sample during a second scan.
請求項2に記載のレーザ走査型顕微鏡システムにおいて、
前記振動方向を推測することは、画像と走査時間と前記画像に写っている試料の波形との関係を学習した学習済みモデルに前記予備画像と前記予備画像の取得に要した前記スキャナの走査時間とを入力することを含み、
前記振動の波形情報を推測することは、前記学習済みモデルに前記対象画像と前記対象画像の取得に要した前記スキャナの走査時間とを入力することを含む
ことを特徴とするレーザ走査型顕微鏡システム。
The laser scanning microscope system according to claim 2,
Estimating the vibration direction involves using a trained model that has learned the relationship between the image, the scanning time, and the waveform of the sample shown in the image to estimate the preliminary image and the scanning time of the scanner required to acquire the preliminary image. including entering
A laser scanning microscope system characterized in that estimating the vibration waveform information includes inputting the target image and the scanning time of the scanner required to acquire the target image into the learned model. .
JP2022034727A 2022-03-07 2022-03-07 Laser scan type microscope system Pending JP2023130196A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022034727A JP2023130196A (en) 2022-03-07 2022-03-07 Laser scan type microscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022034727A JP2023130196A (en) 2022-03-07 2022-03-07 Laser scan type microscope system

Publications (1)

Publication Number Publication Date
JP2023130196A true JP2023130196A (en) 2023-09-20

Family

ID=88024786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022034727A Pending JP2023130196A (en) 2022-03-07 2022-03-07 Laser scan type microscope system

Country Status (1)

Country Link
JP (1) JP2023130196A (en)

Similar Documents

Publication Publication Date Title
JP6411472B2 (en) Method of correcting imaging aberrations with laser scanning microscopes and in particular with high resolution scanning microscopy
JP5181892B2 (en) Drive signal generator, optical scanning device including the same, and image display device
JP5784393B2 (en) Sample observation equipment
CN111008945B (en) Multi-image quality parameter self-adaptive aberration correction method and device based on machine learning
JP6887875B2 (en) Microscope system, control method, and program
JP6253395B2 (en) Image generation system
WO2018061756A1 (en) Observation device and method, and observation device control program
JP2023130196A (en) Laser scan type microscope system
CN114778077A (en) Method and apparatus for in vivo high resolution multi-photon microscopy
WO2012020811A1 (en) Scanning microscope
CN111175954B (en) Quick high-contrast image scanning microscopic imaging device based on Nipkow disk
KR20200128341A (en) Image calibration algorithm based on lissajous scanning
JP2009151163A (en) Shading correcting device and shading correcting method
JP7333744B2 (en) Height measuring method and height measuring device
JP6422761B2 (en) Microscope system and method for calculating relationship between Z position and set value of correction device
JP2013088570A (en) Microscope apparatus
WO2022202565A1 (en) Microscope, observation method, and program
JPWO2008155883A1 (en) Confocal microscope
JP2018000954A (en) Control method of checker, control device and program
JP2010164635A (en) Confocal microscope
JP2018072641A (en) Sheet illumination microscope
JP6128862B2 (en) Microscope device and microscope system
JP4237530B2 (en) Wavefront evaluation method and apparatus using information entropy
JP2004170573A (en) Two-dimensional test pattern used for color confocal microscope system and adjustment of the system
JP2018101091A (en) Microscope device, program, and observation method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220622

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20231110