JP2023130196A - Laser scan type microscope system - Google Patents
Laser scan type microscope system Download PDFInfo
- Publication number
- JP2023130196A JP2023130196A JP2022034727A JP2022034727A JP2023130196A JP 2023130196 A JP2023130196 A JP 2023130196A JP 2022034727 A JP2022034727 A JP 2022034727A JP 2022034727 A JP2022034727 A JP 2022034727A JP 2023130196 A JP2023130196 A JP 2023130196A
- Authority
- JP
- Japan
- Prior art keywords
- image
- microscope system
- vibration
- laser scanning
- scanning microscope
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 72
- 238000006073 displacement reaction Methods 0.000 claims abstract description 37
- 239000000523 sample Substances 0.000 claims description 52
- 239000012472 biological sample Substances 0.000 claims description 32
- 238000013459 approach Methods 0.000 claims description 6
- 238000011503 in vivo imaging Methods 0.000 abstract description 9
- 230000010355 oscillation Effects 0.000 abstract 4
- 230000010349 pulsation Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 38
- 238000000034 method Methods 0.000 description 33
- 210000004027 cell Anatomy 0.000 description 30
- 230000003287 optical effect Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 15
- 210000001747 pupil Anatomy 0.000 description 11
- 230000005284 excitation Effects 0.000 description 10
- 230000008602 contraction Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000029058 respiratory gaseous exchange Effects 0.000 description 6
- 210000004556 brain Anatomy 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000004126 nerve fiber Anatomy 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004621 scanning probe microscopy Methods 0.000 description 1
Images
Landscapes
- Microscoopes, Condenser (AREA)
Abstract
Description
本明細書の開示は、レーザ走査型顕微鏡システムに関する。 TECHNICAL FIELD The disclosure herein relates to laser scanning microscopy systems.
生体試料を生きたまま観察するin vivoイメージングに用いられる観察装置として、共焦点顕微鏡に代表されるレーザ走査型顕微鏡システムが知られている。レーザ走査型顕微鏡システムは、光軸方向に高い分解能を有しているため、例えば、特許文献1に記載されるように、生体試料の内部を観察可能である。
Laser scanning microscope systems, typified by confocal microscopes, are known as observation devices used for in vivo imaging to observe living biological samples. Since the laser scanning microscope system has high resolution in the optical axis direction, it is possible to observe the inside of a biological sample, as described in
ところで、試料を2次元に走査するレーザ走査型顕微鏡システムでは、画像を構成する各画素の情報はそれぞれ異なる時刻における試料の状態を反映している。これにより、画素間で最大1フレーム分の時間差が生じるため、生体試料を走査すると、拍動や呼吸などの生命維持活動に起因する振動によって画像が歪んでしまうことがある。 By the way, in a laser scanning microscope system that scans a sample two-dimensionally, the information of each pixel forming an image reflects the state of the sample at different times. This creates a time difference of up to one frame between pixels, so when a biological sample is scanned, the image may be distorted due to vibrations caused by life-sustaining activities such as pulsation and breathing.
特許文献1に記載の技術によれば、拍動に起因する光軸方向のフォーカスずれを防止することができる。ただし、画像の歪みを抑制することはできない。このため、拍動や呼吸などに起因する画像の歪みを抑制する新たな技術が望まれている。
According to the technique described in
以上のような実情を踏まえ、本発明の一側面に係る目的は、in vivoイメージングにおいて画像の歪みを抑制する技術を提供することである。 In view of the above circumstances, an object of one aspect of the present invention is to provide a technique for suppressing image distortion in in vivo imaging.
本発明の一態様に係るレーザ走査型顕微鏡システムは、主走査方向と副走査方向に生体試料を走査するスキャナと、制御装置と、を備える。前記制御装置は、前記スキャナによる前記生体試料の第1走査で生成された前記生体試料の画像である予備画像に基づいて、前記生体試料の振動方向を推測することと、前記主走査方向を前記振動方向に近づけることと、前記主走査方向を前記振動方向に近づけた状態で行われた前記スキャナによる前記生体試料の第2走査で生成された前記生体試料の画像である対象画像に基づいて、前記生体試料の振動の波形情報を推測することと、前記波形情報に基づいて算出される、前記第2走査における走査開始から前記生体試料の複数の領域の各々の走査時点までに各領域に生じた変位の量に応じて、前記対象画像に対して画素シフトを行うことと、を実行するように構成される。 A laser scanning microscope system according to one aspect of the present invention includes a scanner that scans a biological sample in a main scanning direction and a sub-scanning direction, and a control device. The control device is configured to estimate a vibration direction of the biological sample based on a preliminary image that is an image of the biological sample generated in a first scan of the biological sample by the scanner, and to adjust the main scanning direction to the vibration direction of the biological sample. Based on a target image that is an image of the biological sample generated by a second scan of the biological sample by the scanner performed with the main scanning direction close to the vibration direction and the main scanning direction close to the vibration direction, estimating waveform information of vibrations of the biological sample; and calculating vibrations occurring in each region from the start of the second scan to the time of scanning each of the plurality of regions of the biological sample, which is calculated based on the waveform information. and performing a pixel shift on the target image according to the amount of displacement.
上記の態様によれば、in vivoイメージングにおいて画像の歪みを抑制することができる。 According to the above aspect, image distortion can be suppressed in in vivo imaging.
図1は、本発明の一実施形態に係るレーザ走査型顕微鏡システム1の構成を例示した図である。レーザ走査型顕微鏡システム1は、顕微鏡装置10と、処理装置20と、を備えるレーザ共焦点顕微鏡であり、サンプルSの共焦点画像を生成する。サンプルSは、特に限定しないが、例えば、マウスなどの生体試料である。顕微鏡装置10は、共焦点顕微鏡100と、共焦点顕微鏡100を制御するコントローラ200と、を備える。
FIG. 1 is a diagram illustrating the configuration of a laser
図2は、共焦点顕微鏡100の構成を例示した図である。図3は、スキャン方法について説明するための図である。以下、図2及び図3を参照しながら、共焦点画像の生成方法について説明する。
FIG. 2 is a diagram illustrating the configuration of the
共焦点顕微鏡100は、図2に示すように、照明光路上に、レーザ101と、ビームエクスパンダ102と、ダイクロイックミラー103と、スキャナ104と、瞳投影光学系105と、対物レンズ106とを備えている。
As shown in FIG. 2, the
レーザ101は、例えば、可視域や紫外域、赤外域などのレーザ光を発振する。レーザ101から発振されるレーザ光の出力は、例えば、コントローラ200によって制御される。ビームエクスパンダ102は、レーザ101からのレーザ光(コリメート光)の光束を対物レンズ106の瞳径に応じて調整する光学系である。ダイクロイックミラー103は、励起光(レーザ光)とサンプルSからの検出光(蛍光)とを分離する光分離手段であり、波長の違いによりレーザ光と蛍光を分離する。
The
スキャナ104は、レーザ光でステージ107上のサンプルSを2次元に走査する。スキャナ104は、例えば、互いに直交する方向にサンプルSを走査する2つのガルバノミラーを含み、図3に示すようなラスタスキャンを実行する。即ち、スキャナ104は、一方のガルバノミラーで主走査方向へサンプルSを走査し、且つ、他方のガルバノミラーで走査線SLを主走査方向と直交する副走査方向にシフトすることで、主走査方向と副走査方向へサンプルSを走査する。なお、主走査方向と副走査方向は、コントローラ200が互いに直交する方向に走査する2つのガルバノミラーの駆動タイミングと駆動速度を変更することで制御する。なお、ガルバノミラーは、スキャナ104に含まれるスキャナミラーの一例であり、MEMSミラー等も使用可能である。
The
瞳投影光学系105は、スキャナ104の像を対物レンズ106の瞳位置に投影する光学系である。なお、対物レンズ106は、観察深さに応じて変化する球面収差を補正するための補正環を備えてもよい。
The pupil projection
共焦点顕微鏡100は、さらに、検出光路(ダイクロイックミラー103の透過光路)上に、ミラー108と、共焦点レンズ109と、共焦点絞り110と、集光レンズ111と、光検出器112と、を備えている。光検出器112から出力された信号は、A/D変換器113に出力される。
The
共焦点レンズ109は、共焦点絞り110上に、蛍光を集光するレンズである。共焦点絞り110は、対物レンズ106の焦点面と光学的に共役な位置に配置された絞りである。共焦点絞り110には、対物レンズ106の焦点位置から生じた蛍光を透過させるピンホールが形成されている。集光レンズ111は、共焦点絞り110を通過した蛍光を光検出器112に導くレンズである。
The
光検出器112は、例えば、光電子増倍管(PMT)であり、入射した蛍光の光量に応じたアナログ信号を出力する。A/D変換器113は、光検出器112からのアナログ信号をデジタル信号(輝度信号)に変換して、処理装置20に出力する。
The
以上のように構成されたレーザ走査型顕微鏡システム1では、共焦点顕微鏡100が、スキャナ104を用いてレーザ光でサンプルSを走査し、サンプルSの各位置からの蛍光を、共焦点光学系(対物レンズ106、瞳投影光学系105、共焦点レンズ109)を介して光検出器112で検出する。さらに、共焦点顕微鏡100は、検出した蛍光の信号をA/D変換器113でサンプリングすることで、生体試料上の各スポットSp(図3の参照)における光強度を示すデジタル信号を出力する。その後、処理装置20が、共焦点顕微鏡100からのデジタル信号とスキャナ104の走査位置情報とに基づいて、共焦点画像を生成する。さらに、処理装置20が、共焦点画像に対して後述する画素シフトを行うことで、歪みが抑制されたサンプルSの画像へ変換する。
In the laser
図4は、画像の領域に生じる歪みの一例を説明するための図である。図5は、図4に生じる歪みによる細胞の変形を説明するための図である。図6は、画像の領域に生じる歪みの別の例を説明するための図である。図7は、図6に生じる歪みによる細胞の変形を説明するための図である。図8は、画像の領域に生じる歪みの更に別の例を説明するための図である。図9は、図8に生じる歪みによる細胞の変形を説明するための図である。図10は、共焦点画像に生じる歪みを説明するための図である。以下、図4から図10を参照しながら、共焦点画像において生じる画像の歪みについて説明する。 FIG. 4 is a diagram for explaining an example of distortion occurring in an image area. FIG. 5 is a diagram for explaining the deformation of cells due to the distortion that occurs in FIG. 4. FIG. 6 is a diagram for explaining another example of distortion occurring in an image area. FIG. 7 is a diagram for explaining the deformation of cells due to the distortion that occurs in FIG. 6. FIG. 8 is a diagram for explaining yet another example of distortion occurring in an image area. FIG. 9 is a diagram for explaining the deformation of cells due to the distortion that occurs in FIG. 8. FIG. 10 is a diagram for explaining distortion that occurs in a confocal image. Image distortion that occurs in confocal images will be described below with reference to FIGS. 4 to 10.
共焦点画像は、図3に示すようにサンプルSの各位置をレーザ光で順番に走査することで生成される。従って、画像の各画素の情報は、互いに異なる時刻におけるサンプルSの情報である。さらに、サンプルSは、拍動や呼吸など生命維持活動によって常時振動している。このため、異なる時刻におけるサンプルSの情報には、基準時刻におけるサンプルSの情報に対して振動に起因する、時間差に応じた異なる変位が加算されてしまう。その結果、画素間に生じた変位量の差によって画像が歪んでしまう。 The confocal image is generated by sequentially scanning each position of the sample S with a laser beam, as shown in FIG. Therefore, the information of each pixel of the image is information of the sample S at different times. Furthermore, the sample S constantly vibrates due to life support activities such as pulsation and breathing. For this reason, a different displacement according to a time difference due to vibration is added to the information of the sample S at a different time with respect to the information of the sample S at the reference time. As a result, the image is distorted due to the difference in displacement amount between pixels.
共焦点画像に生じる上述した歪みは、振動方向と主走査方向の関係によって2つのパターンに大別することができる。
(第1パターン)主走査方向が振動方向に直交している場合
(第2パターン)主走査方向が振動方向と平行な場合
The above-described distortions occurring in confocal images can be roughly classified into two patterns depending on the relationship between the vibration direction and the main scanning direction.
(1st pattern) When the main scanning direction is perpendicular to the vibration direction (2nd pattern) When the main scanning direction is parallel to the vibration direction
主走査方向が振動方向に直交する第1パターンでは、走査範囲SR内の要素が伸縮することで、画像に歪みが生じる。具体的には、例えば、紙面左上から右下に向かって走査が行われる場合であれば、図4に示すように、振動によってサンプルSに下方向の変位が生じている期間中に走査される領域(領域R1、領域R3)は、本来よりも縦長に伸長した領域(領域R11、領域R13)として画像IM11内で可視化される。また、振動によってサンプルSに上方向の変位が生じている期間中に走査される領域(領域R2)は、本来よりも縦方向に縮んだ領域(領域R12)として画像IM11内で可視化される。その結果、図5に示すように、走査範囲SRに複数の細胞(細胞C1、細胞C2、細胞C3)が含まれている場合には、細胞C1、細胞C2、細胞C3は、それぞれ画像内で振動方向に沿って伸縮し、細胞C11、細胞C12、細胞C13に変形してしまう。 In the first pattern in which the main scanning direction is perpendicular to the vibration direction, distortion occurs in the image due to expansion and contraction of elements within the scanning range SR. Specifically, for example, if scanning is performed from the upper left to the lower right of the page, the scanning is performed during a period when the sample S is displaced downward due to vibration, as shown in FIG. The regions (region R1, region R3) are visualized in the image IM11 as regions (region R11, region R13) that are elongated vertically than originally. Furthermore, the region (region R2) that is scanned during the period in which the sample S is displaced upward due to vibration is visualized in the image IM11 as a region (region R12) that has shrunk in the vertical direction than originally. As a result, as shown in FIG. 5, when multiple cells (cell C1, cell C2, cell C3) are included in the scanning range SR, cell C1, cell C2, and cell C3 are each It expands and contracts along the vibration direction and transforms into cells C11, C12, and C13.
主走査方向が振動方向と平行な第2パターンでは、走査範囲SR内の要素が振動方向へ移動することで、画像に歪みが生じる。具体的には、例えば、紙面左上から右下に向かって走査が行われる場合であれば、振動によってサンプルSに右方向の変位が生じている期間中に走査されたラインは、右方向にシフトした位置に可視化される。また、振動によってサンプルSに左方向の変位が生じている期間中に走査されたラインは、左方向にシフトした位置に可視化される。このため、図6に示すように、副走査方向と平行な細長い領域(領域R4、領域R5、領域R6)は、画像IM12内において副走査方向に沿って左右に順番に曲がった領域(領域R14、領域R15、領域R16)として可視化される。その結果、図7に示すように、走査範囲SRに複数の細胞(細胞C1、細胞C2、細胞C3)が含まれている場合には、細胞C1、細胞C2、細胞C3は、それぞれ画像IM12内で左右に移動し、元の位置とは異なる位置の細胞C21、細胞C22、細胞C23として可視化されてしまう。 In the second pattern in which the main scanning direction is parallel to the vibration direction, the elements within the scanning range SR move in the vibration direction, causing distortion in the image. Specifically, for example, if scanning is performed from the upper left to the lower right of the page, the line scanned during the period when the sample S is displaced to the right due to vibration will be shifted to the right. The image is visualized at the position shown. Further, a line scanned during a period in which the sample S is displaced to the left due to vibration is visualized at a position shifted to the left. Therefore, as shown in FIG. 6, the elongated areas (area R4, area R5, area R6) parallel to the sub-scanning direction are replaced by areas (area R14) that are curved in order left and right along the sub-scanning direction in the image IM12. , region R15, and region R16). As a result, as shown in FIG. 7, when the scanning range SR includes a plurality of cells (cell C1, cell C2, cell C3), the cell C1, cell C2, and cell C3 are each included in the image IM12. , they move left and right, and are visualized as cells C21, C22, and C23 in positions different from their original positions.
振動方向は、通常、主走査方向成分と副走査方向成分の両方を含んでいる。このため、共焦点画像で生じる一般的な歪みは、これらの2つのパターンで生じる歪みが合成されたものである。つまり、図8に示すように、走査範囲SR内の各領域(領域R1、領域R2、領域R3)は、画像IM13内において伸縮とシフトによって複雑な形状(領域R21、領域R22、領域R23)に変形して可視化される。その結果、図9に示すように、走査範囲SRに複数の細胞(細胞C1、細胞C2、細胞C3)が含まれている場合には、細胞(細胞C31、細胞C32、細胞C33)の画像にも伸縮とシフトを組み合わせた複雑な変形が生じてしまう。 The vibration direction usually includes both a main scanning direction component and a sub scanning direction component. Therefore, the general distortion that occurs in a confocal image is a combination of distortions that occur in these two patterns. In other words, as shown in FIG. 8, each area (area R1, area R2, area R3) within the scanning range SR is transformed into a complicated shape (area R21, area R22, area R23) by expansion/contraction and shifting within the image IM13. It is transformed and visualized. As a result, as shown in FIG. 9, when the scanning range SR includes multiple cells (cell C1, cell C2, cell C3), the image of the cells (cell C31, cell C32, cell C33) However, complex deformations that combine expansion and contraction and shifts occur.
また、実際のサンプルSの形状は、図5、図7、図9に示すような単純化された形状ではない。特にサンプルSが生体試料の場合には、工業用途のサンプルのように決まった形状を有していないことがほとんどである。このことは、元の形状の推測をさらに困難にする。従って、図10に示すようなマウスの脳をイメージングした共焦点画像IM100を取得した場合に、この共焦点画像がマウスの脳を正しく可視化しているかどうかを判断することは容易ではなく、また、仮に共焦点画像が歪んでいることを認識できたとしても、歪みを正しく補正することは容易ではない。 Further, the actual shape of the sample S is not a simplified shape as shown in FIGS. 5, 7, and 9. In particular, when the sample S is a biological sample, it most likely does not have a fixed shape like samples for industrial use. This makes estimating the original shape even more difficult. Therefore, when a confocal image IM100 of a mouse brain as shown in FIG. 10 is obtained, it is not easy to judge whether this confocal image correctly visualizes the mouse brain. Even if it were possible to recognize that a confocal image is distorted, it is not easy to correct the distortion correctly.
なお、図10に示す領域R101から領域R103は、共焦点画像IM100の各画像領域(画像領域IM101から画像領域IM103)の実際の形状を示している。画像領域IM101、IM102には、脳内の特定部位の様子が示されていて、画像領域IM103には、脳内の神経線維が太くなったり細くなったりしている様子が示されている。しかしながら、実際には、領域R101、R102に示すように、特定部位のそれぞれは画像上の大きさとは異なる大きさを有している。また、領域R103に示すように、神経線維は殆ど均一の太さを有している。 Note that regions R101 to R103 shown in FIG. 10 indicate the actual shapes of each image region (image region IM101 to image region IM103) of the confocal image IM100. Image areas IM101 and IM102 show the state of a specific region in the brain, and image area IM103 shows how nerve fibers in the brain become thicker or thinner. However, in reality, as shown in regions R101 and R102, each of the specific parts has a size different from the size on the image. Further, as shown in region R103, the nerve fibers have almost uniform thickness.
図11は、レーザ走査型顕微鏡システム1が行う処理のフローチャートである。図12は、振動波形と変位量の関係を説明するための図である。以下、図11及び図12を参照しながら、共焦点画像に生じる上述した歪みを抑制する方法について説明する。
FIG. 11 is a flowchart of processing performed by the laser
レーザ走査型顕微鏡システム1は、まず、第1走査を行う(ステップS1)。ここでは、処理装置20から指示に従って顕微鏡装置10がスキャナ104でサンプルSを走査し、処理装置20が顕微鏡装置10からの信号に基づいてサンプルSの画像を生成する。なお、ステップS1で生成された画像は、以降、予備画像と記す。
The laser
次に、レーザ走査型顕微鏡システム1は、振動方向を推測する(ステップS2)。ここでは、処理装置20が、ステップS1で生成した予備画像に基づいて、サンプルSの振動方向を推測する。振動によって生じる画像の歪みは、上述したように2つのパターンで生じる歪みの合成であり、規則性が存在する。この規則性を用いることで、処理装置20は、予備画像から振動方向を推測する。
Next, the laser
予備画像から振動方向を推測する具体的な方法は特に限定しない。例えば、機械学習によって生成された学習済みモデルを用いて振動方向を推測してもよい。また、複数の予備画像を比較することで振動方向を推測してもよい。その他、任意の画像処理を用いて振動方向を推測してもよい。 The specific method of estimating the vibration direction from the preliminary image is not particularly limited. For example, the vibration direction may be estimated using a learned model generated by machine learning. Alternatively, the vibration direction may be estimated by comparing a plurality of preliminary images. Alternatively, the vibration direction may be estimated using any image processing.
振動方向を推測すると、レーザ走査型顕微鏡システム1は、主走査方向を調整する(ステップS3)。ここでは、処理装置20が、主走査方向がステップS1で推測した振動方向に近づくように、コントローラ200を制御する。つまり、処理装置20は、コントローラ200を制御することで、コントローラ200に主走査方向をステップS1で推測した振動方向に近づけさせる。
After estimating the vibration direction, the laser
主走査方向を調整する方法は特に限定しないが、例えば、コントローラ200が、主走査方向が振動方向に近づくように、スキャナ104に含まれる互いに直交する方向に走査する2つのガルバノミラーの駆動タイミングと駆動速度を変更してもよい。 The method of adjusting the main scanning direction is not particularly limited; The driving speed may be changed.
その後、レーザ走査型顕微鏡システム1は、第2走査を行う(ステップS4)。ここでは、処理装置20から指示に従って顕微鏡装置10が、主走査方向が振動方向に近づけられた状態で、スキャナ104でサンプルSを走査し、処理装置20が顕微鏡装置10からの信号に基づいてサンプルSの画像を生成する。なお、ステップS4で生成された画像は、以降、対象画像と記す。
After that, the laser
ステップS3で振動方向を主走査方向に近づけることで、振動に含まれる主走査方向と直交する成分が小さくなる。これにより、ステップS4で生成される対象画像に含まれる、上述した第1パターンの歪み(伸縮)を抑制することができる。なお、第1パターンの歪みを抑制することは第2パターンの歪みを抑制することよりも効果的である。これは、第1パターンの歪みを補正するためには、画像に生じた伸縮をキャンセルする必要があるが、このような補正は情報の損失を招いて分解能を劣化させてしまうからである。つまり、第1のパターンの歪みを抑制することで、画像補正時に生じる情報の損失を減少させることが可能であり、分解能の劣化の少ない画像補正が可能となる。 By bringing the vibration direction closer to the main scanning direction in step S3, the component included in the vibration orthogonal to the main scanning direction becomes smaller. Thereby, distortion (expansion/contraction) of the above-described first pattern included in the target image generated in step S4 can be suppressed. Note that suppressing distortion of the first pattern is more effective than suppressing distortion of the second pattern. This is because, in order to correct the distortion of the first pattern, it is necessary to cancel the expansion and contraction that occurs in the image, but such correction causes a loss of information and deteriorates the resolution. That is, by suppressing the distortion of the first pattern, it is possible to reduce the loss of information that occurs during image correction, and it is possible to perform image correction with less deterioration in resolution.
なお、ステップS3では、処理装置20は、コントローラ200に、主走査方向を振動方向に一致させることがより望ましい。主走査方向を振動方向に一致させることで、対象画像に含まれる第1パターンの歪みを限りなく小さく抑えることができる。
Note that, in step S3, it is more desirable that the
次に、レーザ走査型顕微鏡システム1は、振動波形情報を推測する(ステップS5)。ここでは、処理装置20が、ステップS4で生成した対象画像に基づいて、サンプルSの振動の波形情報を推測する。波形情報は、振動波形を表す予め決めた関数のパラメータセットとして出力されてもよい。例えば、振動波形を正弦波と仮定して、振幅A、周期T、位相B、角度θ(振動方向)からなるパラメータセットで定義される関数で表してもよい。この場合、処理装置20は、振幅A、周期T、位相B、角度θを振動の波形情報として出力してもよい。また、振動方向(角度θ)が既知な振動波形を正弦波と仮定して、振動波形を表す予め決めた関数のパラメータセットとして出力されてもよい。この場合、処理装置20は、振幅A、周期T、位相Bを振動波形情報として出力してもよい。
Next, the laser
なお、対象画像から振動波形情報を推測する具体的な方法は特に限定しない。例えば、機械学習によって生成された学習済みモデルを用いて振動波形情報を推測してもよい。また、複数の対象画像を比較することで振動波形情報を推測してもよい。 Note that the specific method of estimating vibration waveform information from the target image is not particularly limited. For example, vibration waveform information may be estimated using a learned model generated by machine learning. Alternatively, vibration waveform information may be estimated by comparing a plurality of target images.
最後に、レーザ走査型顕微鏡システム1は、対象画像に対して画素シフトを行う(ステップS6)。ここでは、処理装置20は、サンプルSの複数の領域の各々の変位量をステップS5で推測した波形情報から算出して、算出した変位量に応じて対象画像に対して画素シフトを行う。ステップS4の第2走査では、第1パターンの歪みを抑制した画像(対象画像)が予め生成されている。このため、変位量に応じた画素シフトによって第2パターンの歪みを補正することで、振動に起因する歪みが抑制された補正画像を得ることができる。
Finally, the laser
なお、各領域の変位量は、第2走査における走査開始からサンプルSの複数の領域の各々の走査時点までに各領域に生じた変位の量のことである。図12に示すように、振動波形W(p)が定まることで、各画素pに対応する領域の変位量Dを算出することが可能である。 Note that the amount of displacement in each region refers to the amount of displacement that occurs in each region from the start of the second scan to the time point when each of the plurality of regions of the sample S is scanned. As shown in FIG. 12, by determining the vibration waveform W(p), it is possible to calculate the displacement amount D of the area corresponding to each pixel p.
また、サンプルSの各領域は、1ラインに対応するサンプルS上の領域である。領域の変位量は、領域を代表する画素(例えば、最初に走査される画素)の変位量であってもよく、領域に含まれる画素の変位量の平均であってもよい。 Further, each region of the sample S is a region on the sample S corresponding to one line. The amount of displacement of a region may be the amount of displacement of a pixel representing the region (for example, a pixel scanned first), or may be the average amount of displacement of pixels included in the region.
画素シフトは領域単位で行われる。このため、領域内の画素間の変位量の差(歪みの大きさ)は十分に小さいことが望ましい。 Pixel shifting is performed in area units. For this reason, it is desirable that the difference in displacement amount (distortion magnitude) between pixels within a region is sufficiently small.
ステップS6についてさらに詳細に説明する。第2パターンの歪みを補正するためには、領域間に生じている変位量の差を小さくすればよい。このため、ステップS6では、処理装置20は、算出された各領域の変位量の違いを補うように、各領域(各ライン)のシフト量を決定すればよい。
Step S6 will be explained in more detail. In order to correct the distortion of the second pattern, it is sufficient to reduce the difference in the amount of displacement occurring between the regions. Therefore, in step S6, the
具体的には、処理装置20は、例えば、複数の領域の変位量を振動の最大振幅(図12に示す振幅Amax)に揃えるようにシフト量を決定してもよい。また、処理装置20は、変位量を0に揃えるようにシフト量を決定してもよい。つまり、シフト量は、各領域に生じた変位をキャンセルする量、つまり、変位量そのものであってもよい。また、変位量の違いを補うことで変位量の違いが小さくなればよいため、画素シフト後の複数の領域の変位量は必ずしも一致しなくてもよい。
Specifically, the
シフト量を決定すると、処理装置20は、対象画像の各画素をその画素が属するラインについて決定したシフト量だけ主走査方向にシフトする。つまり、ライン毎に所定量だけ画素シフトを行う。これにより、ライン間に生じた変位量の違いを小さくすることができるため、第2パターンの歪みが補正される。
After determining the shift amount, the
以上の様に、レーザ走査型顕微鏡システム1は、図11に示す処理を実行することで、生体試料の生命維持活動によって生じる振動に起因した画像の歪みを補正した画像を得ることができる。従って、レーザ走査型顕微鏡システム1によれば、in vivoイメージングにおいて画像の歪みを抑制することができる。また、レーザ走査型顕微鏡システム1では、予備画像に含まれる伸縮変形が画素シフトに変換されるように主走査方向を設定して対象画像が取得される。このため、対象画像に対して拡大縮小処理を行うことなく画素シフト処理を行うだけで補正することができる。これにより、演算負荷を軽減することができるとともに分解能の劣化も回避することができる。従って、対象画像(共焦点画像)を補正して歪みが抑制された高い分解能を有する画像を短時間で得ることができる。
As described above, by executing the process shown in FIG. 11, the laser
以下、上述したレーザ走査型顕微鏡システム1の具体例について、各実施形態で説明する。
<第1の実施形態>
図13は、本実施形態に係る学習済みモデルM1の入出力を説明するための図である。図14は、本実施形態に係る学習処理のフローチャートである。以下、図13及び図14を参照しながら、本実施形態について説明する。なお、本実施形態に係るレーザ走査型顕微鏡システム(以降、単にレーザ走査型顕微鏡システムと記す)の構成は、図1及び図2に示すレーザ走査型顕微鏡システム1と同様である。また、本実施形態に係るレーザ走査型顕微鏡システムが実行する処理の流れは、図11に示すとおりである。
Hereinafter, specific examples of the laser
<First embodiment>
FIG. 13 is a diagram for explaining input and output of the trained model M1 according to this embodiment. FIG. 14 is a flowchart of learning processing according to this embodiment. This embodiment will be described below with reference to FIGS. 13 and 14. Note that the configuration of the laser scanning microscope system according to this embodiment (hereinafter simply referred to as the laser scanning microscope system) is the same as the laser
本実施形態に係るレーザ走査型顕微鏡システムでは、図11に示す振動方向推測処理(ステップS2)と振動波形情報推測処理(ステップS5)が、図13に示す、画像と走査時間と画像に写っている試料の振動の波形情報(振幅A、角度θ、周期T、位相B)との関係を学習した学習済みモデルM1を用いて行われる。 In the laser scanning microscope system according to this embodiment, the vibration direction estimation process (step S2) and the vibration waveform information estimation process (step S5) shown in FIG. This is performed using a trained model M1 that has learned the relationship between vibration waveform information (amplitude A, angle θ, period T, and phase B) of the sample in question.
具体的には、ステップS2では、処理装置20は、予備画像と予備画像取得時のスキャナ104の走査時間を学習済みモデルM1へ入力して、学習済みモデルM1から出力される拍動情報(波形情報)に含まれる振動方向(角度θ)を取得することで、振動方向を推測する。
Specifically, in step S2, the
また、ステップS5では、処理装置20は、対象画像と対象画像取得時のスキャナ104の走査時間を学習済みモデルM1へ入力して、学習済みモデルM1から出力される拍動情報に含まれる振幅A、周期T、位相Bを取得することで、振動波形を推測する。走査時間を入力するのは、画像中の変形が同じであっても走査時間によって心拍数が異なるからである。
Further, in step S5, the
なお、図13に示す学習済みモデルM1は、図14に示す学習処理を予め実行することで生成すればよい。以降では、観察時と同じレーザ走査型顕微鏡システムを用いて学習済みモデルM1の学習を行う場合を例に説明するが、別のレーザ走査型顕微鏡システムを用いて学習が行われてもよい。 Note that the learned model M1 shown in FIG. 13 may be generated by performing the learning process shown in FIG. 14 in advance. Hereinafter, an example will be described in which the learned model M1 is trained using the same laser scanning microscope system used for observation, but learning may be performed using another laser scanning microscope system.
レーザ走査型顕微鏡システムは、まずサンプルSと同種のサンプル(例えば、マウス)の振動を止めた状態で、そのサンプルを走査する(ステップS11)。ここで、振動を止めた状態は、例えば、マウスが死んでいる状態である。 The laser scanning microscope system first scans a sample of the same type as the sample S (for example, a mouse) with the sample S stopped vibrating (step S11). Here, the state in which the vibrations are stopped is, for example, the state in which the mouse is dead.
次に、レーザ走査型顕微鏡システムは、ステップS11で得られた画像(振動無し画像)を、拍動情報を用いて振動有り画像に変換する(ステップS12)。拍動情報は、例えば、サンプルの拍動の振動波形を表す情報である。拍動情報は、上述した振動波形情報と同様に、拍動による振動波形を表す予め決めた関数のパラメータセットである。ここでは、処理装置20は、拍動情報を用いて算出される、走査時までに各画素に生じる変位を振動無し画像に加算することで、振動無し画像を振動有り画像に変換する。なお、ステップS12では、拍動情報のパラメータ値を変更して複数の振動有り画像を生成し、学習に必要十分な振動有り画像を生成する。
Next, the laser scanning microscope system converts the image obtained in step S11 (image without vibration) into an image with vibration using the pulsation information (step S12). The pulsation information is, for example, information representing the vibration waveform of the pulsation of the sample. Like the vibration waveform information described above, the pulsation information is a parameter set of a predetermined function that represents a vibration waveform due to pulsation. Here, the
各画素に加算する変位量の算出方法は特に限定しないが、例えば、以下の様に計算することができる。主走査方向の画素位置をx、副走査方向の画素位置をy、主走査方向の画素数をW、1画素当たりの走査時間tp、リトレース時間を1画素当たりの走査時間で割った値をRとすると、各画素を走査した時刻t(x、y)は、以下の式で近似できる。
t(x、y)=(y×(W+R)+x)×tp
Although the method for calculating the amount of displacement to be added to each pixel is not particularly limited, it can be calculated as follows, for example. The pixel position in the main scanning direction is x, the pixel position in the sub-scanning direction is y, the number of pixels in the main scanning direction is W, the scanning time per pixel tp, the value obtained by dividing the retrace time by the scanning time per pixel is R Then, the time t(x,y) at which each pixel is scanned can be approximated by the following equation.
t(x,y)=(y×(W+R)+x)×tp
拍動を正弦波で近似した場合、振動無し画像の画素値li(x、y)、拍動の振幅の主走査方向の成分をAx、拍動の振幅の副走査方向の成分をAyとすると、振動有り画像の画素値lo(x、y)は、以下の式で表すことができる。
lo(x、y)=li(x´、y´)
When the pulsation is approximated by a sine wave, the pixel value li (x, y) of the image without vibration, the component of the pulsation amplitude in the main scanning direction is Ax, and the component of the pulsation amplitude in the sub-scanning direction is Ay. , the pixel value lo(x,y) of the image with vibration can be expressed by the following formula.
lo (x, y) = li (x', y')
ただし、x´、y´、Ax、Ayは以下のとおりである。
x´=x+Ax×sin((2π/T)×(t(x、y)+B))
y´=y+Ay×sin((2π/T)×(t(x、y)+B))
Ax=Acosθ
Ay=Asinθ
However, x', y', Ax, and Ay are as follows.
x'=x+Ax×sin((2π/T)×(t(x,y)+B))
y′=y+Ay×sin((2π/T)×(t(x,y)+B))
Ax=Acosθ
Ay=Asinθ
なお、変位量を画素毎に算出して加算する例を示したが、1ライン当たりの走査時間が振動周期に対して十分に短い場合には、例えばラインの先頭の画素を用いてライン毎に変位量を算出してライン単位に同じ変位量を割り当ててもよい。これにより大量の学習データを生成する時間を短縮することができる。 Although we have shown an example in which the amount of displacement is calculated and added for each pixel, if the scanning time per line is sufficiently short compared to the vibration period, for example, the displacement amount can be calculated and added for each line using the first pixel of the line. The amount of displacement may be calculated and the same amount of displacement may be assigned to each line. This makes it possible to shorten the time it takes to generate a large amount of learning data.
最後に、レーザ走査型顕微鏡システムは、振動有り画像と拍動情報と走査時間の組み合わせを学習する(ステップS13)。ここでは、処理装置20は、ステップS12で生成された振動有り画像とステップS11の走査時間の組み合わせの入力に対してステップS12で用いた拍動情報を出力するように、学習済みモデルM1に学習させる。
Finally, the laser scanning microscope system learns the combination of the image with vibration, pulsation information, and scanning time (step S13). Here, the
本実施形態に係るレーザ走査型顕微鏡システムによれば、拍動に起因する画像の歪みを補正することができる。従って、レーザ走査型顕微鏡システムによれば、in vivoイメージングにおいて画像の歪みを抑制することができる。 According to the laser scanning microscope system according to this embodiment, image distortion caused by pulsation can be corrected. Therefore, according to the laser scanning microscope system, image distortion can be suppressed in in vivo imaging.
<第2の実施形態>
図15は、本実施形態に係る学習済みモデルM2の入出力を説明するための図である。図16は、本実施形態に係る学習済みモデルM3の入出力を説明するための図である。図17は、本実施形態に係る振動方向学習処理のフローチャートである。図18は、本実施形態に係る波形情報学習処理のフローチャートである。以下、図15から図18を参照しながら、本実施形態について説明する。なお、本実施形態に係るレーザ走査型顕微鏡システム(以降、単にレーザ走査型顕微鏡システムと記す)の構成は、図1及び図2に示すレーザ走査型顕微鏡システム1と同様である。また、本実施形態に係るレーザ走査型顕微鏡システムが実行する処理の流れは、図11に示すとおりである。
<Second embodiment>
FIG. 15 is a diagram for explaining input and output of the trained model M2 according to this embodiment. FIG. 16 is a diagram for explaining input and output of the trained model M3 according to this embodiment. FIG. 17 is a flowchart of vibration direction learning processing according to this embodiment. FIG. 18 is a flowchart of waveform information learning processing according to this embodiment. This embodiment will be described below with reference to FIGS. 15 to 18. Note that the configuration of the laser scanning microscope system according to this embodiment (hereinafter simply referred to as the laser scanning microscope system) is the same as the laser
本実施形態に係るレーザ走査型顕微鏡システムでは、図11に示す振動方向推測処理(ステップS2)が、図15に示す、画像と画像に写っている試料の振動方向との関係を学習した学習済みモデルM2を用いて行われ、図11に示す振動波形情報推測処理(ステップS5)が、図16に示す、画像と走査時間と画像に写っている試料の振動の波形との関係を学習した学習済みモデルM3を用いて行われる。なお、学習済みモデルM3は、画像(振動無し画像)を、主走査方向に関する拍動情報を用いて振動有り画像に変換した画像を用いて学習が行われる点が学習済みモデルM1とは異なっている。 In the laser scanning microscope system according to the present embodiment, the vibration direction estimation process (step S2) shown in FIG. The vibration waveform information estimation process (step S5), which is performed using model M2 and shown in FIG. This is done using the completed model M3. Note that the trained model M3 differs from the trained model M1 in that learning is performed using an image obtained by converting an image (an image without vibration) into an image with vibration using pulsation information regarding the main scanning direction. There is.
具体的には、ステップS2では、処理装置20は、予備画像を学習済みモデルM2へ入力して、学習済みモデルM2から出力される振動方向(角度θ)を取得することで、振動方向を推測する。
Specifically, in step S2, the
また、ステップS5では、処理装置20は、対象画像と対象画像取得時のスキャナ104の走査時間を学習済みモデルM3へ入力して、学習済みモデルM3から出力される主走査方向に関する拍動情報に含まれる振幅A、周期T、位相Bを取得することで、振動波形を推測する。
Further, in step S5, the
図15に示す学習済みモデルM2は、図17に示す学習処理を予め実行することで生成すればよい。なお、図17に示すステップS21及びステップS22の処理は、図14に示すステップS11及びステップS12の処理と同様である。 The learned model M2 shown in FIG. 15 may be generated by performing the learning process shown in FIG. 17 in advance. Note that the processing in step S21 and step S22 shown in FIG. 17 is similar to the processing in step S11 and step S12 shown in FIG.
最後に、レーザ走査型顕微鏡システムは、振動有り画像と振動方向の組み合わせを学習する(ステップS23)。ここでは、処理装置20は、ステップS22で生成された振動有り画像の入力に対してステップS22で用いた拍動情報に含まれる振動方向(角度θ)を出力するように、学習済みモデルM2に学習させる。
Finally, the laser scanning microscope system learns the combination of the image with vibration and the vibration direction (step S23). Here, the
図16に示す学習済みモデルM3は、図18に示す学習処理を予め実行することで生成すればよい。なお、図18に示すステップS31の処理は、図14に示すステップS11の処理と同様である。 The trained model M3 shown in FIG. 16 may be generated by performing the learning process shown in FIG. 18 in advance. Note that the process in step S31 shown in FIG. 18 is similar to the process in step S11 shown in FIG.
その後、ステップS31で得られた画像(振動無し画像)を、主走査方向に関する拍動情報を用いて振動有り画像に変換する(ステップS32)。主走査方向に関する拍動情報は、例えば、サンプルの拍動の主走査方向成分に関する振動波形を表す情報である。主走査方向に関する拍動情報は、角度θを含まなくてもよく、又は、角度θが固定値(例えばθ=0)で与えられてもよい。 Thereafter, the image obtained in step S31 (image without vibration) is converted into an image with vibration using pulsation information regarding the main scanning direction (step S32). The pulsation information regarding the main scanning direction is, for example, information representing a vibration waveform regarding the main scanning direction component of the pulsation of the sample. The pulsation information regarding the main scanning direction may not include the angle θ, or the angle θ may be given as a fixed value (for example, θ=0).
最後に、レーザ走査型顕微鏡システムは、振動有り画像と主走査方向に関する拍動情報の組み合わせを学習する(ステップS33)。ここでは、処理装置20は、ステップS32で生成された振動有り画像とステップS31の走査時間の組み合わせの入力に対してステップS32で用いた主走査方向に関する拍動情報(振幅A、周期T、位相B)を出力するように、学習済みモデルM3に学習させる。
Finally, the laser scanning microscope system learns the combination of the image with vibration and the pulsation information regarding the main scanning direction (step S33). Here, the
本実施形態に係るレーザ走査型顕微鏡システムによっても、拍動に起因する画像の歪みを補正することができる。従って、レーザ走査型顕微鏡システムによれば、in vivoイメージングにおいて画像の歪みを抑制することができる。 The laser scanning microscope system according to this embodiment can also correct image distortion caused by pulsation. Therefore, according to the laser scanning microscope system, image distortion can be suppressed in in vivo imaging.
<第3の実施形態>
図19は、本実施形態に係る振動方向推測処理のフローチャートである。以下、図19を参照しながら、本実施形態について説明する。なお、本実施形態に係るレーザ走査型顕微鏡システム(以降、単にレーザ走査型顕微鏡システムと記す)の構成は、図1及び図2に示すレーザ走査型顕微鏡システム1と同様である。また、本実施形態に係るレーザ走査型顕微鏡システムが実行する処理の流れは、図11に示すとおりである。
<Third embodiment>
FIG. 19 is a flowchart of vibration direction estimation processing according to this embodiment. This embodiment will be described below with reference to FIG. 19. Note that the configuration of the laser scanning microscope system according to this embodiment (hereinafter simply referred to as the laser scanning microscope system) is the same as the laser
本実施形態に係るレーザ走査型顕微鏡システムでは、図11に示すステップS2において、図19に示す振動方向推測処理が行われる。具体的には、レーザ走査型顕微鏡システムは、まず、主走査方向を変更して複数回走査を行う(ステップS41)。つまり、主走査方向が互いに異なる複数の状態でスキャナ104による複数の第1走査が行われ、複数の予備画像が生成される。例えば、主走査方向を10°ずつ18回変更して、変更する度に複数回走査を行ってもよい。
In the laser scanning microscope system according to this embodiment, the vibration direction estimation process shown in FIG. 19 is performed in step S2 shown in FIG. Specifically, the laser scanning microscope system first performs scanning multiple times by changing the main scanning direction (step S41). That is, a plurality of first scans are performed by the
その後、レーザ走査型顕微鏡システムは、ステップS41で生成された複数の予備画像を比較し(ステップS42)、振動方向を推測する(ステップS43)。ここでは、処理装置20は、ステップS42において、同じ主走査方向で取得した複数の予備画像から同じ特徴点を抽出して、主走査方向毎にその特徴点の主走査方向の座標の最大変動量を取得してもよい。処理装置20は、ステップS43において、最大変動量が最も大きい主走査方向を特定して、その主走査方向を振動方向として推測してもよい。
After that, the laser scanning microscope system compares the plurality of preliminary images generated in step S41 (step S42) and estimates the vibration direction (step S43). Here, in step S42, the
本実施形態に係るレーザ走査型顕微鏡システムによっても、拍動に起因する画像の歪みを補正することができる。従って、レーザ走査型顕微鏡システムによれば、in vivoイメージングにおいて画像の歪みを抑制することができる。 The laser scanning microscope system according to this embodiment can also correct image distortion caused by pulsation. Therefore, according to the laser scanning microscope system, image distortion can be suppressed in in vivo imaging.
<第4の実施形態>
図20は、本実施形態に係るレーザ走査型顕微鏡システムの構成を例示した図である。図21は、本実施形態に係る学習済みモデルM4の入出力を説明するための図である。図22は、本実施形態に係る学習処理のフローチャートである。図20に示すレーザ走査型顕微鏡システムは、サンプルSに取り付けられるセンサ300を備える点が、レーザ走査型顕微鏡システム1とは異なる。その他の点は、レーザ走査型顕微鏡システム1と同様である。センサ300は、生体試料の波形を測定するセンサであり、例えば、心電図センサである。センサ300が測定したセンサ波形(心電図波形)は、コントローラ200へ出力される。また、本実施形態に係るレーザ走査型顕微鏡システムが実行する処理の流れは、図11に示すとおりである。
<Fourth embodiment>
FIG. 20 is a diagram illustrating the configuration of a laser scanning microscope system according to this embodiment. FIG. 21 is a diagram for explaining input and output of the learned model M4 according to this embodiment. FIG. 22 is a flowchart of learning processing according to this embodiment. The laser scanning microscope system shown in FIG. 20 differs from the laser
本実施形態に係るレーザ走査型顕微鏡システムでは、図11に示す振動波形情報推測処理(ステップS5)が、図21に示す、画像に写っている試料の振動の波形とセンサ300が試料の振動を測定することで得られるセンサ波形との関係を学習した学習済みモデルM4を用いて行われる。 In the laser scanning microscope system according to this embodiment, the vibration waveform information estimation process (step S5) shown in FIG. This is performed using a trained model M4 that has learned the relationship with the sensor waveform obtained by measurement.
具体的には、ステップS5では、処理装置20は、対象画像取得中(第2走査中)にセンサ300でサンプルSの振動を測定することで得られたセンサ波形を学習済みモデルM4へ入力して、学習済みモデルM4から出力される主走査方向に関する拍動情報に含まれる振幅A、周期T、位相Bを取得することで、振動波形を推測する。
Specifically, in step S5, the
図21に示す学習済みモデルM4は、図22に示す学習処理を予め実行することで生成すればよい。レーザ走査型顕微鏡システムは、まずサンプルSと同種のサンプル(例えば、マウス)を、振動方向と主走査方向とを一致させた状態で、心電図測定を行いながら走査する(ステップS51)。これにより、振動方向と主走査方向が一致した状態の画像と、画像取得中のセンサ波形との組み合わせを得ることができる。 The learned model M4 shown in FIG. 21 may be generated by performing the learning process shown in FIG. 22 in advance. The laser scanning microscope system first scans a sample of the same type as the sample S (for example, a mouse) while performing an electrocardiogram measurement with the vibration direction and the main scanning direction aligned (step S51). Thereby, a combination of an image in which the vibration direction and the main scanning direction match and a sensor waveform during image acquisition can be obtained.
次に、レーザ走査型顕微鏡システムは、学習済みモデルを用いてステップS51で得られた画像から主走査方向に関する拍動情報を算出する(ステップS52)。ここでは、例えば、上述した学習済みモデルM3などを用いればよい。なお、ステップS51とステップS52は、学習に必要十分なセンサ波形と拍動情報が得られるまで繰り返し行われる。 Next, the laser scanning microscope system calculates pulsation information regarding the main scanning direction from the image obtained in step S51 using the trained model (step S52). Here, for example, the trained model M3 described above may be used. Note that steps S51 and S52 are repeatedly performed until sufficient sensor waveform and pulsation information are obtained for learning.
最後に、レーザ走査型顕微鏡システムは、ステップS51で取得したセンサ波形と、そのセンサ波形に対応する画像を用いてステップS52で算出した拍動情報との組み合わせを学習する(ステップS53)。ここでは、処理装置20は、ステップS52で取得したセンサ波形の入力に対してステップS52で算出した拍動情報に含まれる振動方向(角度θ)を出力するように、学習済みモデルM4に学習させる。
Finally, the laser scanning microscope system learns the combination of the sensor waveform acquired in step S51 and the pulsation information calculated in step S52 using the image corresponding to the sensor waveform (step S53). Here, the
本実施形態に係るレーザ走査型顕微鏡システムによっても、拍動に起因する画像の歪みを補正することができる。従って、レーザ走査型顕微鏡システムによれば、in vivoイメージングにおいて画像の歪みを抑制することができる。 The laser scanning microscope system according to this embodiment can also correct image distortion caused by pulsation. Therefore, according to the laser scanning microscope system, image distortion can be suppressed in in vivo imaging.
図23は、上述した実施形態に係る処理装置を実現するためのコンピュータのハードウェア構成を例示した図である。図23に示すハードウェア構成は、例えば、プロセッサ21、メモリ22、記憶装置23、読取装置24、通信インタフェース26、及び入出力インタフェース27を備える。なお、プロセッサ21、メモリ22、記憶装置23、読取装置24、通信インタフェース26、及び入出力インタフェース27は、例えば、バス28を介して互いに接続されている。
FIG. 23 is a diagram illustrating the hardware configuration of a computer for realizing the processing device according to the embodiment described above. The hardware configuration shown in FIG. 23 includes, for example, a
プロセッサ21は、例えば、シングルプロセッサであっても、マルチプロセッサやマルチコアプロセッサであってもよい。プロセッサ21は、記憶装置23に格納されているプログラムを読み出して実行することで、図11等で例示された制御処理を実行する。
The
メモリ22は、例えば、半導体メモリであり、RAM領域およびROM領域を含んでいてよい。記憶装置23は、例えばハードディスク、フラッシュメモリ等の半導体メモリ、または外部記憶装置である。
The
読取装置24は、例えば、プロセッサ21の指示に従って着脱可能記憶媒体25にアクセスする。着脱可能記憶媒体25は、例えば、半導体デバイス、磁気的作用により情報が入出力される媒体、光学的作用により情報が入出力される媒体などにより実現される。なお、半導体デバイスは、例えば、USB(Universal Serial Bus)メモリである。また、磁気的作用により情報が入出力される媒体は、例えば、磁気ディスクである。光学的作用により情報が入出力される媒体は、例えば、CD(Compact Disc)-ROM、DVD(Digital Versatile Disk)、Blu-ray Disc等(Blu-rayは登録商標)である。
The
通信インタフェース26は、例えば、プロセッサ21の指示に従って、他の装置と通信する。入出力インタフェース27は、例えば、入力装置および出力装置との間のインタフェースである。入力装置は、例えば、ユーザからの指示を受け付けるキーボード、マウス、タッチパネルなどのデバイスである。出力装置は、例えばディスプレイなどの表示装置、およびスピーカなどの音声装置である。
The
プロセッサ21が実行するプログラムは、例えば、下記の形態でコンピュータに提供される。
(1)記憶装置23に予めインストールされている。
(2)着脱可能記憶媒体25により提供される。
(3)プログラムサーバなどのサーバから提供される。
The program executed by the
(1) Installed in the
(2) Provided by removable storage medium 25.
(3) Provided by a server such as a program server.
なお、図23を参照して述べた処理装置を実現するためのコンピュータのハードウェア構成は例示であり、実施形態はこれに限定されるものではない。例えば、上述の構成の一部が、削除されてもよく、また、新たな構成が追加されてもよい。また、別の実施形態では、例えば、上述の処理装置の一部または全部の機能がFPGA(Field Programmable Gate Array)、SoC(System-on-a-Chip)、ASIC(Application Specific Integrated Circuit)、およびPLD(Programmable Logic Device)などによるハードウェアとして実装されてもよい。 Note that the hardware configuration of the computer for realizing the processing device described with reference to FIG. 23 is an example, and the embodiment is not limited to this. For example, some of the configurations described above may be deleted, or new configurations may be added. In another embodiment, for example, some or all of the functions of the processing device described above may be implemented using an FPGA (Field Programmable Gate Array), an SoC (System-on-a-Chip), or an ASIC (Application Specific Integrated Circuit). it), and It may be implemented as hardware such as a PLD (Programmable Logic Device).
上述した実施形態は、発明の理解を容易にするために具体例を示したものであり、本発明はこれらの実施形態に限定されるものではない。上述の実施形態を変形した変形形態および上述した実施形態に代替する代替形態が包含され得る。つまり、各実施形態は、その趣旨および範囲を逸脱しない範囲で構成要素を変形することが可能である。また、1つ以上の実施形態に開示されている複数の構成要素を適宜組み合わせることにより、新たな実施形態を実施することができる。また、各実施形態に示される構成要素からいくつかの構成要素を削除してもよく、または実施形態に示される構成要素にいくつかの構成要素を追加してもよい。さらに、各実施形態に示す処理手順は、矛盾しない限り順序を入れ替えて行われてもよい。即ち、本発明のレーザ走査型顕微鏡システムは、特許請求の範囲の記載を逸脱しない範囲において、さまざまな変形、変更が可能である。 The embodiments described above are specific examples to facilitate understanding of the invention, and the present invention is not limited to these embodiments. Variations on the embodiments described above and alternatives to the embodiments described above may be included. In other words, the components of each embodiment can be modified without departing from the spirit and scope thereof. Further, new embodiments can be implemented by appropriately combining a plurality of components disclosed in one or more embodiments. Further, some components may be deleted from the components shown in each embodiment, or some components may be added to the components shown in the embodiments. Furthermore, the processing procedures shown in each embodiment may be performed in a different order as long as there is no contradiction. That is, the laser scanning microscope system of the present invention can be modified and changed in various ways without departing from the scope of the claims.
図24は、2光子励起顕微鏡400の構成を例示した図である。上述した実施形態では、レーザ走査型顕微鏡システムが共焦点顕微鏡100を含む例を示したが、共焦点顕微鏡100の代わりに図24に示す2光子励起顕微鏡400を含んでもよい。
FIG. 24 is a diagram illustrating the configuration of a two-
2光子励起顕微鏡400は、図24に示すように、照明光路上に、レーザ401と、スキャナ402と、瞳投影光学系403と、ミラー404と、ダイクロイックミラー405と、対物レンズ406とを備えている。
As shown in FIG. 24, the two-
レーザ401は、例えば、超短パルスレーザーであり、近赤外域のレーザ光を発振する。スキャナ402は、例えば、主走査方向と副走査方向に走査する2つのガルバノミラーである。瞳投影光学系403は、スキャナ402の像を対物レンズ406の瞳位置に投影する。ダイクロイックミラー405は、励起光(レーザ光)とサンプルSからの検出光(蛍光)とを分離する光分離手段であり、波長によってレーザ光と蛍光を分離する。
The
2光子励起顕微鏡400は、さらに、検出光路(ダイクロイックミラー405の反射光路)上に、瞳投影光学系407と、光検出器408とを備えている。光検出器408から出力された信号は、A/D変換器409に出力される。
The two-
瞳投影光学系407は、対物レンズ406の瞳の像を光検出器408に投影する光学系である。光検出器408は、例えば、光電子増倍管(PMT)であり、入射した蛍光の光量に応じたアナログ信号を出力する。A/D変換器409は、光検出器408からのアナログ信号をデジタル信号(輝度信号)に変換して、処理装置20へ出力する。
The pupil projection
図24に示す2光子励起顕微鏡などの多光子励起顕微鏡であっても共焦点顕微鏡と同様の理由によって画像に歪みが生じる。このため、図11に示す処理を行って画像の歪みを補正してもよい。 Even in a multiphoton excitation microscope such as the two-photon excitation microscope shown in FIG. 24, distortion occurs in images for the same reason as in a confocal microscope. Therefore, the image distortion may be corrected by performing the process shown in FIG.
上述した実施形態では、コントローラ200が互いに直交する方向に走査する2つのガルバノミラーの駆動タイミングと駆動速度を変更することで、主走査方向を振動方向へ近づける例を示したが、主走査方向は他の方法によって調整されてもよい。 In the embodiment described above, an example was shown in which the controller 200 changes the drive timing and drive speed of two galvano mirrors that scan in mutually orthogonal directions, thereby bringing the main scanning direction closer to the vibration direction. It may also be adjusted by other methods.
例えば、レーザ走査型顕微鏡システムは、共焦点顕微鏡100の代わりに、スキャナ104とダイクロイックミラー103の間にイメージローテーター501を含む図25に示す共焦点顕微鏡500を含んでもよい。この場合、イメージローテーター501を制御するコントローラ201が、主走査方向が振動方向に近づくように、イメージローテーター501の向きを変更してもよい。このような方法で主走査方向を調整した場合であっても、図11に示す処理を行うことで、画像の歪みを補正することができる。なお、イメージローテーター501を用いることで、回転方向の変更に制約のあるレゾナントスキャナをスキャナ104に用いてもよい。
For example, the laser scanning microscope system may include a
また、レーザ走査型顕微鏡システムは、共焦点顕微鏡100の代わりに、サンプルSが載置される回転ステージ601を含む図26に示す共焦点顕微鏡600を含んでもよい。この場合、回転ステージ601を制御するコントローラ202が、主走査方向が振動方向に近づくように、回転ステージ601の向きを変更してもよい。このような方法で主走査方向を調整した場合であっても、図11に示す処理を行うことで、画像の歪みを補正することができる。なお、回転ステージ601を用いることで、回転方向の変更に制約のあるレゾナントスキャナをスキャナ104に用いてもよい。
Further, the laser scanning microscope system may include, instead of the
また、上述した実施形態では、蛍光を検出する蛍光観察法を例にして説明したが、レーザ走査型顕微鏡システムで行われる観察法は蛍光観察法に限らない。その他の観察法に上述したレーザ走査型顕微鏡システムが適用されてもよい。 Furthermore, in the above-described embodiments, the fluorescence observation method for detecting fluorescence has been described as an example, but the observation method performed with the laser scanning microscope system is not limited to the fluorescence observation method. The laser scanning microscope system described above may be applied to other observation methods.
また、上述した実施形態では、生体試料を観察する例を示したが、試料は生体試料に限らない。工業用サンプルなどであっても、走査中に何らかの理由によって規則的な振動が生じる場合には、上述したレーザ走査型顕微鏡システムを適用することで振動に起因する歪みを補正可能である。 Further, in the embodiment described above, an example was shown in which a biological sample is observed, but the sample is not limited to a biological sample. Even with industrial samples, if regular vibrations occur for some reason during scanning, the distortion caused by the vibrations can be corrected by applying the above-described laser scanning microscope system.
また、上述した実施形態では、拍動によって生じる振動を例に説明したが、拍動の代わりに又は拍動に加えて呼吸によって生じる振動を推測して画像の歪みを補正してもよい。拍動と同様に呼吸による振動も周期的な振動と見做すことができるため、拍動と呼吸が合成された振動を波形情報として扱ってもよい。さらに、上述した実施形態では、振動を正弦波振動として仮定して波形情報を推測する例を示したが、振動波形は正弦波形状に限らない。より実際の振動に近い関数で振動波形を近似してもよい。 Furthermore, in the above-described embodiments, vibrations caused by pulsations have been described as an example, but image distortion may be corrected by estimating vibrations caused by breathing instead of or in addition to pulsations. Like pulsations, vibrations caused by breathing can be regarded as periodic vibrations, so vibrations that are a combination of pulsations and breathing may be treated as waveform information. Furthermore, in the embodiment described above, an example was shown in which the waveform information is estimated assuming that the vibration is a sine wave vibration, but the vibration waveform is not limited to a sine wave shape. The vibration waveform may be approximated by a function closer to actual vibration.
また、上述した実施形態では、変位量の算出単位である領域毎にシフト量の決定する例を示したが、変位量とシフト量の算出単位は異なってもよい。例えば、複数画素からなる領域毎に変位量を算出し、領域毎に算出された変位量から画素毎にシフト量を決定してもよい。 Further, in the embodiment described above, an example was shown in which the shift amount is determined for each region, which is the unit of calculation of the displacement amount, but the calculation units of the displacement amount and the shift amount may be different. For example, the amount of displacement may be calculated for each region consisting of a plurality of pixels, and the amount of shift may be determined for each pixel from the amount of displacement calculated for each region.
本明細書において、“Aに基づいて”という表現は、“Aのみに基づいて”を意味するものではなく、“少なくともAに基づいて”を意味し、さらに、“少なくともAに部分的に基づいて”をも意味している。即ち、“Aに基づいて”はAに加えてBに基づいてもよく、Aの一部に基づいてよい。 As used herein, the expression "based on A" does not mean "based only on A," but "based at least on A," and furthermore, "based at least in part on A." It also means "te". That is, "based on A" may be based on B in addition to A, or may be based on a part of A.
1 レーザ走査型顕微鏡システム
10 顕微鏡装置
20 処理装置
21 プロセッサ
100、500、600 共焦点顕微鏡
101、401 レーザ
104、402 スキャナ
200、201、202 コントローラ
300 センサ
400 2光子励起顕微鏡
501 イメージローテーター
601 回転ステージ
M1、M2、M3 学習済みモデル
1 Laser
M1, M2, M3 trained models
Claims (10)
前記主走査方向を制御するコントローラと、
処理装置と、を備え、
前記処理装置は、
前記スキャナによる前記生体試料の第1走査で生成された前記生体試料の画像である予備画像に基づいて、前記生体試料の振動方向を推測することと、
前記コントローラに、前記主走査方向を前記振動方向に近づけさせることと、
前記生体試料の振動の波形情報に基づいて算出される、前記主走査方向を前記振動方向に近づけた状態で行われた前記スキャナによる前記生体試料の第2走査における走査開始から前記生体試料の複数の領域の各々の走査時点までに各領域に生じた変位の量の違いを補うように、前記第2走査で生成された前記生体試料の画像である対象画像の複数のラインであって前記複数の領域に対応する複数のラインの各々のシフト量を決定することと、
前記対象画像の前記複数のラインを、前記複数のラインのシフト量だけで前記主走査方向にシフトすることと、
を実行するように構成される
ことを特徴とするレーザ走査型顕微鏡システム。 a scanner that scans a biological sample in the main scanning direction and the sub-scanning direction;
a controller that controls the main scanning direction;
comprising a processing device;
The processing device includes:
estimating a vibration direction of the biological sample based on a preliminary image that is an image of the biological sample generated in a first scan of the biological sample by the scanner;
causing the controller to bring the main scanning direction closer to the vibration direction;
A plurality of the biological samples from the start of a second scan of the biological sample by the scanner, which is performed with the main scanning direction close to the vibration direction, which is calculated based on waveform information of the vibration of the biological sample. A plurality of lines of a target image, which is an image of the biological sample generated in the second scan, so as to compensate for the difference in the amount of displacement that has occurred in each region up to the time of each scan of the region. determining the amount of shift of each of the plurality of lines corresponding to the area;
Shifting the plurality of lines of the target image in the main scanning direction by only the shift amount of the plurality of lines;
A laser scanning microscope system configured to perform.
前記処理装置は、さらに、前記対象画像に基づいて、前記生体試料の振動の波形情報を推測すること、を実行するように構成される
ことを特徴とするレーザ走査型顕微鏡システム。 The laser scanning microscope system according to claim 1,
The laser scanning microscope system is characterized in that the processing device is further configured to estimate vibration waveform information of the biological sample based on the target image.
前記スキャナは、互いに直交する方向に走査する2つのスキャナミラーを含み、
前記コントローラは、前記主走査方向が前記振動方向に近づくように、前記2つのスキャナミラーを制御する
ことを特徴とするレーザ走査型顕微鏡システム。 The laser scanning microscope system according to claim 1 or 2,
The scanner includes two scanner mirrors that scan in mutually orthogonal directions,
The laser scanning microscope system is characterized in that the controller controls the two scanner mirrors so that the main scanning direction approaches the vibration direction.
イメージローテーターを含み、
前記コントローラは、前記主走査方向が前記振動方向に近づくように、前記イメージローテーターの向きを変更する
ことを特徴とするレーザ走査型顕微鏡システム。 In the laser scanning microscope system according to claim 1 or 2, further:
Includes image rotator
The laser scanning microscope system is characterized in that the controller changes the orientation of the image rotator so that the main scanning direction approaches the vibration direction.
前記生体試料が載置される回転ステージを含み、
前記コントローラは、前記主走査方向が前記振動方向に近づくように、前記回転ステージの向きを変更する
ことを特徴とするレーザ走査型顕微鏡システム。 In the laser scanning microscope system according to claim 1 or 2, further:
including a rotation stage on which the biological sample is placed;
The laser scanning microscope system is characterized in that the controller changes the orientation of the rotation stage so that the main scanning direction approaches the vibration direction.
前記振動方向を推測することは、画像と前記画像に写っている試料の振動方向との関係を学習した学習済みモデルに前記予備画像を入力することを含む
ことを特徴とするレーザ走査型顕微鏡システム。 The laser scanning microscope system according to any one of claims 1 to 5,
A laser scanning microscope system characterized in that estimating the vibration direction includes inputting the preliminary image to a trained model that has learned a relationship between an image and a vibration direction of a sample shown in the image. .
前記振動方向を推測することは、前記主走査方向が互いに異なる複数の状態で行われた前記スキャナによる複数の第1走査で生成された複数の予備画像を比較することを含む
ことを特徴とするレーザ走査型顕微鏡システム。 The laser scanning microscope system according to any one of claims 1 to 5,
Preferably, estimating the vibration direction includes comparing a plurality of preliminary images generated in a plurality of first scans by the scanner performed in a plurality of states in which the main scanning directions are different from each other. Laser scanning microscope system.
前記振動の波形情報を推測することは、画像と走査時間と前記画像に写っている試料の振動の波形との関係を学習した学習済みモデルに前記対象画像と前記対象画像の取得に要した前記スキャナの走査時間とを入力することを含む
ことを特徴とするレーザ走査型顕微鏡システム。 The laser scanning microscope system according to claim 2,
Estimating the vibration waveform information involves using a trained model that has learned the relationship between the image, the scanning time, and the vibration waveform of the sample shown in the image to estimate the target image and the time required to acquire the target image. A laser scanning microscope system comprising inputting a scanning time of a scanner.
前記生体試料の振動を測定するセンサを備え、
前記処理装置は、さらに、前記センサが測定した前記生体試料の振動の波形に基づいて、前記波形情報を推測すること、を実行するように構成され、
前記波形情報を推測することは、画像に写っている試料の振動の波形と前記センサが前記試料の振動を測定することで得られるセンサ波形との関係を学習した学習済みモデルに前記センサが前記第2走査中に前記生体試料の振動を測定することで得られたセンサ波形を入力すること、を含む
ことを特徴とするレーザ走査型顕微鏡システム。 The laser scanning microscope system according to claim 1, further comprising:
comprising a sensor that measures vibrations of the biological sample,
The processing device is further configured to estimate the waveform information based on the vibration waveform of the biological sample measured by the sensor,
Estimating the waveform information means that the sensor uses a trained model that has learned the relationship between the vibration waveform of the sample shown in the image and the sensor waveform obtained when the sensor measures the vibration of the sample. A laser scanning microscope system comprising: inputting a sensor waveform obtained by measuring vibrations of the biological sample during a second scan.
前記振動方向を推測することは、画像と走査時間と前記画像に写っている試料の波形との関係を学習した学習済みモデルに前記予備画像と前記予備画像の取得に要した前記スキャナの走査時間とを入力することを含み、
前記振動の波形情報を推測することは、前記学習済みモデルに前記対象画像と前記対象画像の取得に要した前記スキャナの走査時間とを入力することを含む
ことを特徴とするレーザ走査型顕微鏡システム。 The laser scanning microscope system according to claim 2,
Estimating the vibration direction involves using a trained model that has learned the relationship between the image, the scanning time, and the waveform of the sample shown in the image to estimate the preliminary image and the scanning time of the scanner required to acquire the preliminary image. including entering
A laser scanning microscope system characterized in that estimating the vibration waveform information includes inputting the target image and the scanning time of the scanner required to acquire the target image into the learned model. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022034727A JP2023130196A (en) | 2022-03-07 | 2022-03-07 | Laser scan type microscope system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022034727A JP2023130196A (en) | 2022-03-07 | 2022-03-07 | Laser scan type microscope system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023130196A true JP2023130196A (en) | 2023-09-20 |
Family
ID=88024786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022034727A Pending JP2023130196A (en) | 2022-03-07 | 2022-03-07 | Laser scan type microscope system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023130196A (en) |
-
2022
- 2022-03-07 JP JP2022034727A patent/JP2023130196A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6411472B2 (en) | Method of correcting imaging aberrations with laser scanning microscopes and in particular with high resolution scanning microscopy | |
JP5181892B2 (en) | Drive signal generator, optical scanning device including the same, and image display device | |
JP5784393B2 (en) | Sample observation equipment | |
CN111008945B (en) | Multi-image quality parameter self-adaptive aberration correction method and device based on machine learning | |
JP6887875B2 (en) | Microscope system, control method, and program | |
JP6253395B2 (en) | Image generation system | |
WO2018061756A1 (en) | Observation device and method, and observation device control program | |
JP2023130196A (en) | Laser scan type microscope system | |
CN114778077A (en) | Method and apparatus for in vivo high resolution multi-photon microscopy | |
WO2012020811A1 (en) | Scanning microscope | |
CN111175954B (en) | Quick high-contrast image scanning microscopic imaging device based on Nipkow disk | |
KR20200128341A (en) | Image calibration algorithm based on lissajous scanning | |
JP2009151163A (en) | Shading correcting device and shading correcting method | |
JP7333744B2 (en) | Height measuring method and height measuring device | |
JP6422761B2 (en) | Microscope system and method for calculating relationship between Z position and set value of correction device | |
JP2013088570A (en) | Microscope apparatus | |
WO2022202565A1 (en) | Microscope, observation method, and program | |
JPWO2008155883A1 (en) | Confocal microscope | |
JP2018000954A (en) | Control method of checker, control device and program | |
JP2010164635A (en) | Confocal microscope | |
JP2018072641A (en) | Sheet illumination microscope | |
JP6128862B2 (en) | Microscope device and microscope system | |
JP4237530B2 (en) | Wavefront evaluation method and apparatus using information entropy | |
JP2004170573A (en) | Two-dimensional test pattern used for color confocal microscope system and adjustment of the system | |
JP2018101091A (en) | Microscope device, program, and observation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20220622 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20231110 |