JP2021513095A - Methods and systems for localized microscopy - Google Patents

Methods and systems for localized microscopy Download PDF

Info

Publication number
JP2021513095A
JP2021513095A JP2020536947A JP2020536947A JP2021513095A JP 2021513095 A JP2021513095 A JP 2021513095A JP 2020536947 A JP2020536947 A JP 2020536947A JP 2020536947 A JP2020536947 A JP 2020536947A JP 2021513095 A JP2021513095 A JP 2021513095A
Authority
JP
Japan
Prior art keywords
pixel
trace
filtered
filter
temporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020536947A
Other languages
Japanese (ja)
Other versions
JP7228917B2 (en
Inventor
マーシュ,リチャード
コックス,スーザン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kings College London
Original Assignee
Kings College London
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB1800026.5A external-priority patent/GB201800026D0/en
Priority claimed from GBGB1803638.4A external-priority patent/GB201803638D0/en
Application filed by Kings College London filed Critical Kings College London
Publication of JP2021513095A publication Critical patent/JP2021513095A/en
Application granted granted Critical
Publication of JP7228917B2 publication Critical patent/JP7228917B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/6408Fluorescence; Phosphorescence with measurement of decay time, time resolved fluorescence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • G01N21/6456Spatial resolved fluorescence measurements; Imaging
    • G01N21/6458Fluorescence microscopy
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/16Microscopes adapted for ultraviolet illumination ; Fluorescence microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/58Optics for apodization or superresolution; Optical synthetic aperture systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microscoopes, Condenser (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Image Processing (AREA)

Abstract

本発明の実施は、顕微鏡画像を処理する方法及びシステムを提供して高密度下での局在化を可能にし、よって、そうしない場合よりも高い空間分解能を達成する。これは、近接する発光体から得られる画像データの時間的な冗長性を利用することによって達成される。これらの近接する発光体は、さもなければ、それら発光体が同時に発光する又は同時に蛍光を発する単一の発光体として分離されるであろうが、わずかに異なる(だが重なる可能性はある)時間で発光する又は蛍光を発するので、異なる時間帯域幅の異なるフィルタによる時間フィルタリングにかけることができ、以って2つの発光体を分離できる。実際に、異なる時間フィルタは、2つの発光体の異なる発光時間又は蛍光時間を効果的に強調するために一緒に機能する異なる時定数を有しており、これにより2つの近接する発光体を別々に分離できる。 Implementations of the present invention provide methods and systems for processing microscopic images to allow localization under high densities, thus achieving higher spatial resolution than otherwise. This is achieved by taking advantage of the temporal redundancy of the image data obtained from adjacent illuminants. These adjacent illuminants would otherwise be separated as a single illuminant that simultaneously emits or fluoresces, but at slightly different (but potentially overlapping) times. Because it emits light or fluoresces, it can be time filtered by different filters with different time bandwidths, thus separating the two illuminants. In fact, the different time filters have different time constants that work together to effectively emphasize the different emission times or fluorescence times of the two emitters, thereby separating the two adjacent emitters. Can be separated into.

Description

本発明の実施は、複数の時間スケールのスライディング時間フィルタを順次に適用することにより個々の画像フレーム内の観測された発光体(emitters、エミッタ)/蛍光体(fluorophores、フルオロフォア)の密度を低減するよう、局在化顕微鏡法(localisation microscopy)における画像系列(シーケンス)を処理する方法及びシステムに関する。密度が低減されたことにより、高密度データ及び低密度データの分析方法を、これらの方法を高密度の発光体を含むデータに適用したときに通常生じてしまう画像アーチファクトを生成することなく、順次にこれらデータに適用することが可能となる。 The practice of the present invention reduces the density of observed emitters / fluorophores in individual image frames by sequentially applying sliding time filters on multiple time scales. The present invention relates to a method and a system for processing an image sequence in localized microscopy. Due to the reduced density, high-density and low-density data analysis methods are sequentially applied without generating image artifacts that would normally occur when these methods are applied to data containing high-density illuminants. It is possible to apply to these data.

局在化顕微鏡法は、一般に超解像と呼ばれる、回折限界を超えた画像分解能を得るための、光学顕微鏡法における手法である。これは、試料(サンプル)の構造を、蛍光間欠性又は蛍光「点滅性」を示す蛍光分子を用いて化学的に標識化(ラベリング)することを含んでいる。蛍光間欠性は、化学物質を添加することにより、及び、適切な強度(intensity、輝度)と波長を持つ光を照射することにより、制御できる。試料の構造を蛍光標識し、蛍光の発光間欠性を制御する手段は、大きく2つの種類に分類される。確率的光学再構成顕微鏡法(Stochastic Optical Reconstruction Microscopy、STORM)は、試料を蛍光有機色素分子で標識化する。蛍光間欠性は、通常、酸素消去酵素と化学的還元剤とを添加して促進される。光活性化局在性顕微鏡法(Photo Activatable Localisation Microscopy、PALM)は、構造の標識化に蛍光タンパク質を用いるが、このタンパク質は、短波長の可視光/近紫外光を適用することにより、非発光状態から発光状態へ、又は、ある発光状態から、それより長い波長の別の発光状態へ切り替えることができる(紫外光は、STORMにおける発光体/蛍光体を再活性化することもできる)。 Localized microscopy is a technique in optical microscopy for obtaining image resolution that exceeds the diffraction limit, which is generally called super-resolution. This involves chemically labeling the structure of the sample with fluorescent molecules that exhibit intermittent or fluorescent "blinking". Fluorescence intermittentness can be controlled by adding a chemical substance and by irradiating with light having an appropriate intensity (intensity) and wavelength. Means for fluorescently labeling the structure of a sample and controlling the intermittent emission of fluorescence are roughly classified into two types. Stochastic Optical Reconstruction Microscopy (STORM) labels a sample with a fluorescent organic dye molecule. Fluorescence intermittentness is usually promoted by the addition of an oxygen scavenging enzyme and a chemical reducing agent. Photoactivation localization microscopy (PALM) uses a fluorescent protein for structural labeling, which is non-emission by applying short wavelength visible / near-ultraviolet light. It is possible to switch from one state to another, or from one state to another with a longer wavelength (ultraviolet light can also reactivate the illuminant / phosphor in STORM).

試料の画像は、典型的な局在化顕微鏡法装置に取り込まれると、その大きさが回折限界に近い複数の蛍光「スポット(spot)」から構成されることになる。これらのスポットの大きさが、装置の点像分布関数(又は点拡がり関数、Point Spread Function、PSF)を定義する。各スポットは、自然に又は意図して、適切な発光状態へ切り替えられた単一の発光体(エミッタ)/蛍光体(フルオロフォア)によって生成されたものである。これら蛍光スポットが互いに重なり合わないように十分に離れていれば、間違いなく、アクティブな発光体/蛍光体が1つのみそのスポットに寄与していると想定できる。そして、発光体の位置は、蛍光スポットの大きさよりもはるかに高い精度(通常は10nmから30nmの精度)で、その蛍光発光から特定できる。これが局在化(ローカライゼーション、位置の特定)として知られる処理であり、コンピューターソフトウェアに実装されたアルゴリズムによって常に実行される。十分な数の発光体/蛍光体が首尾よく局在化されると、これらの局在化された位置から、試料の構造を高解像度で推定できる。発光体/蛍光体の発光画像は、通常、従来の広視野蛍光顕微鏡に取り付けた高感度(sCMOS/EMCCD)カメラを用いて、連続した画像フレームの長い系列として取得される。順次の各フレームにおいて、活性状態にある発光体/蛍光体のいくつかが発光状態から切り替わり、それまでは発光していなかった他のいくつかが発光状態へ切り替わる。活性状態にある発光体/蛍光体を十分に分離しなければならないという要件により、各フレームにおける活性状態にある発光体/蛍光体の数は相対的に少なく制限されることになるので、通常、試料の構造を正確に再構成するには数万個の画像フレームが必要となる。使用するカメラの速度の制限は、画像の取得に数分かかることを意味するが、この時間は、研究中の構造に対する多くの動的な変化、例えば生細胞試料で常時に見られる変化、を捉えるには長すぎる。 When an image of a sample is taken into a typical localized microscopy apparatus, it will consist of a plurality of fluorescent "spots" whose size is close to the diffraction limit. The size of these spots defines the device's point image distribution function (or point spread function, Point Spread Function, PSF). Each spot is generated by a single illuminant (emitter) / phosphor (fluorofore) that has been naturally or intentionally switched to the appropriate luminescent state. If these fluorescent spots are sufficiently separated so that they do not overlap each other, it can be arguably assumed that only one active illuminant / phosphor contributes to the spot. The position of the illuminant can be identified from the fluorescence emission with an accuracy much higher than the size of the fluorescence spot (usually an accuracy of 10 nm to 30 nm). This is a process known as localization (localization), which is always performed by algorithms implemented in computer software. Once a sufficient number of illuminants / phosphors have been successfully localized, the structure of the sample can be estimated in high resolution from these localized locations. The luminescent image of the illuminant / phosphor is usually acquired as a long series of continuous image frames using a high sensitivity (sCMOS / EMCCD) camera attached to a conventional wide-field fluorescence microscope. In each sequential frame, some of the active illuminants / phosphors switch from the luminescent state and some of the previously non-emitting illuminants switch to the luminescent state. The requirement that the active illuminants / phosphors must be sufficiently separated will usually limit the number of active illuminants / phosphors in each frame to a relatively small number. Tens of thousands of image frames are required to accurately reconstruct the structure of the sample. The speed limitation of the camera used means that it takes a few minutes to acquire the image, which is a time-consuming process for many dynamic changes to the structure under study, such as changes that are constantly seen in living cell samples. It's too long to catch.

上記の要約で述べ、公表されている先行技術の例として以下のものを挙げることができる:(STORMの参考文献)「Sub−diffraction−limit imaging by stochastic optical re−construction microscopy」,Rust,M.,Bates,M.,及びZhuang,X.著,Nat.Methods,3巻,ページ793〜796,2006年;(PALMの参考文献)「Imaging intracellular fluorescent proteins at nanometer resolution」,Betzig,E.他著,Science,313巻,ページ1642〜1645,2006年;並びに、(PALMの参考特許文献)「Optical microscopy with phototransformable optical labels」,WO2006/127592,Hess,Harold F. Examples of prior art described and published in the above summary include: (References in STORM) "Sub-diffraction-limited imaging by stochastic optical re-construction microscope", Rust, M. et al. , Bates, M. et al. , And Zhuang, X. et al. Written by Nat. Methods, Vol. 3, pp. 793-769, 2006; (PALM Bibliography) "Imaging intracellular fluororescent protein at nanometer resolution", Betzig, E. et al. Et al., Science, Vol. 313, pp. 1642-1645, 2006; and (PALM Reference Patent Documents) "Optical Microscopic with Phototransformal Optical Labels", WO 2006/127592, Hess, Halld.

各画像フレーム内のアクティブな発光体/蛍光体の数を増やし、正確な再構成に必要なフレーム数を減らすことにより、取得速度を大幅に高めることができる。しかし、局在化方法/アルゴリズムは、個々の発光体の蛍光発光パターン(スポット)の実質的な重なりに対処できねばならない。アクティブな発光体間の典型的な距離がPSF未満である実験の形態は、高密度局在化顕微鏡法と呼ばれている。この形態に達すると、単一のガウスフィッティング(Gaussian fitting)などの標準的な単発光体のアルゴリズムは、各発光体の検出及び/又は正確な位置特定に失敗することになる。さらに、近接し且つ分離された発光体/蛍光体のフィッティング位置は、相互の中心へ向くバイアスを含む。これは、再構成される超解像画像における、人工的な鮮鋭化(Artificial sharpening)、誤ったクラスタリング、構造の欠落などの実質的なアーチファクトにつながる。人工的な鮮鋭化は、フーリエリング相関(Fourier Ring Correlation、FRC)のような測定指標で測定した場合でさえ、高解像の誤った印象を与えることから、特に問題である。現在、局在化顕微鏡法による再構成において、これらのアーチファクトの存在を検出する方法はない。試験に付された試料のグラウンドトゥルース構造に関する知見はほとんどないため、これらのアーチファクトを本物の構造と簡単に間違えてしまう可能性がある。 The acquisition speed can be significantly increased by increasing the number of active illuminants / phosphors in each image frame and reducing the number of frames required for accurate reconstruction. However, localization methods / algorithms must be able to address the substantial overlap of fluorescence emission patterns (spots) of individual emitters. A form of experiment in which the typical distance between active illuminants is less than PSF is called high density localized microscopy. When this form is reached, standard monoluminous algorithms such as single Gaussian fitting will fail to detect and / or accurately locate each illuminant. In addition, the close and separated illuminant / phosphor fitting positions include a bias towards the center of each other. This leads to substantial artifacts such as artificial sharpening, false clustering, and lack of structure in the reconstructed super-resolution image. Artificial sharpening is particularly problematic because it gives the false impression of high resolution, even when measured with metrics such as Fourier Ring Correlation (FRC). Currently, there is no way to detect the presence of these artifacts in localized microscopy reconstruction. Little is known about the ground truth structure of the samples tested, so it is easy to mistake these artifacts for real structures.

上記のさらなる先行技術である代表的な文献として以下のものを挙げることができる:(アーチファクトの参考文献)「Artifacts in single−molecule localization microscopy」,Burgert,A.,Letschert,S.,Doose,S.及びSauer,M.著,Histochemistry and Cell Biology,144巻,ページ123〜131,2015年;(アーチファクトの参考文献)「Local dimensionality determines imaging speed in localization microscopy」,Fox−Roberts,P.他著,Nature Communications,8巻,ページ13558,2017年;並びに、(FRCの参考文献)「Measuring image resolution in optical nanoscopy」,Nieuwenhuizen,R.P.J.他著,Nature Methods,10巻,ページ557〜562,2013年 Representative references to the above further prior art include: (Artifacts references) "Artifacts in single-molecule localization microscopy", Burgert, A. et al. , Letschert, S.A. , Doose, S.A. And Sauer, M. et al. Written by Histochemistry and Cell Biology, Vol. 144, pp. 123-131, 2015; (References to Artifacts) "Local Dimensionality determines imaging, speeded in localization, Microscopy. E. et al., Nature Communications, Vol. 8, p. 13558, 2017; and (FRC Reference) "Measuring image resolution in optical nanoscopy", Nieuwenhuizen, R. et al. P. J. Others, Nature Methods, Volume 10, pp. 557-562, 2013

発光体PSFが重なり合う状況に対処するため、いくつかのアプローチが開発されてきたが、それでも、発光体密度が十分に高い場合には、依然として、それら全てで画像アーチファクトが生じてしまう。これらのアプローチについて、以下に簡単に要約する。 Several approaches have been developed to address the overlapping situation of illuminant PSFs, but nonetheless, if the illuminant densities are high enough, all of them still produce image artifacts. These approaches are briefly summarized below.

i) 複発光体フィッティング法(Multi Emitter fitting)
この方法は、低密度発光体のデータで用いられる標準的な単発光体−単フレームフィッティング法の拡張である。この方法では、PSFのスケールの画像の局所的最大値が識別されて、その最大値の周囲の画像の小さな部分(セクション)が選択される(単発光体フィッティングと同様)。1つ又は複数の発光体に対して、典型的なPSFがこの部分にフィッティングされる。通常、フィッティングの統計的に有意な改善が観察されなくなるまで、寄与する発光体の数は増加する。通常、正則化項(regularisation term)を導入して、フィッティングされた蛍光体の数、及び/又は、それらの強度に課される拘束条件を制限する。この方法は、発光体間の間隔が小さ過ぎず(約250nm)、且つ、密度が依然として明確に定義された局所的最大値を観察できるほど十分に低く、そして、重なり合う蛍光体の数がそれなりに(fairly)少ない場合には、有効に働く。しかしながら、これらの条件のいずれかが満たされない場合は、失敗する傾向にある。複発光体フィッティングの先行技術として、例えば以下のものを挙げることができる:(MEフィッティングの参考文献)「Simultaneous multiple−emitter fitting for single molecule super−resolution imaging」,Huang,F.,Schwartz,S.,Byars,J.及びLidke,K.著,Biomedical Optics Express,2巻,ページ1377〜1393,2011年;並びに、(MEフィッティングの参考文献)「DAOSTORM: an algorithm for high−density super−resolution microscopy」,Holden,S.J.,Uphoff,S.及びKapanidis,A.N.著,Nature Methods,8巻,ページ279〜280,2011年。
i) Multi-Emitter fitting method
This method is an extension of the standard single illuminant-single frame fitting method used for low density illuminant data. In this method, the local maximum value of the PSF scale image is identified and a small portion (section) of the image surrounding that maximum value is selected (similar to single light emitter fitting). For one or more illuminants, a typical PSF is fitted to this portion. Usually, the number of contributing illuminants increases until no statistically significant improvement in fitting is observed. Usually, a regularization term is introduced to limit the number of fitted phosphors and / or the constraints imposed on their intensities. This method is not too small (about 250 nm) between the illuminants, and the density is still low enough to observe a well-defined local maximum, and the number of overlapping phosphors is reasonable. (Fairly) When it is low, it works effectively. However, if any of these conditions are not met, it tends to fail. Prior arts for compound illuminant fitting include, for example: (ME fitting references) "Simultaneus multiple-emitter fitting for single molecule super-resolution imaging", Huang, F. et al. , Schwartz, S.A. , Byrs, J. et al. And Lidke, K. et al. Written by Biomedical Optics Express, Vol. 2, pp. 1377-1393, 2011; and (ME Fitting Reference) "DAOSTORM: an algorithm for high-density super-resolution microscope", H. J. , Upoff, S.A. And Kapanidis, A. et al. N. Written by Nature Methods, Volume 8, pp. 279-280, 2011.

ii)圧縮センシング法(Compressed sensing)
圧縮センシング法は、幅広い分野と用途に及ぶ、十分に確立された信号処理方法である。この方法は、特定の条件下で、それが十分に疎(スパース)である(含まれているものはほとんどゼロである)場合に、サンプリングされていない信号を実質的に復元させることができる最適化手法である。超解像顕微鏡法の場合、この方法は、より多く且つより小さな画素を伴う各画像フレームに対して、より高解像な変換を行うことを意味している。そして、これらの変換されたフレームは全て合計され、最終的な超解像画像が生成される。最適化を実行するには、特定の諸条件が満たされる必要がある。試料の構造は疎でなければならない、つまり、ほとんどの試料は、標識化された構造を含んでいてはならない。この条件は、微小管(micro−tubules)などの生物学的構造については全体的に当てはまることもあるかもしれないが、局所的には必ずしも当てはまらないであろう。また、装置のPSFは正確に既知でなければならず、しかも、どこでも一定でなければならない。これは、例えば、ある程度の焦点のドリフト又は収差はほぼ常に存在するので、当てはまる可能性は低い。背景の変化も、分析される画像の大きさに対して小さくなければならない。
ii) Compressed sensing method
Compressed sensing is a well-established signal processing method that covers a wide range of fields and applications. This method is optimal because under certain conditions it can substantially restore an unsampled signal if it is sufficiently sparse (contains almost zero). It is a conversion method. In the case of super-resolution microscopy, this method means performing a higher resolution transformation for each image frame with more and smaller pixels. Then, all these converted frames are summed up to generate a final super-resolution image. Certain conditions must be met in order for the optimization to be performed. The structure of the sample must be sparse, that is, most samples must not contain a labeled structure. This condition may apply globally to biological structures such as microtubules, but may not necessarily apply locally. Also, the PSF of the device must be accurately known and constant everywhere. This is unlikely to be the case, for example, as some focal drift or aberration is almost always present. The background change should also be small relative to the size of the image being analyzed.

この方法は、発光体の密度が高い場合に個々の発光体を識別するという点で、単発光体フィッティングより大幅に優れている一方、蛍光体の典型的な感覚がPSFの全幅の半分の最大値未満になると、精度は大幅に低下する。圧縮センシング法では、最適化を実行するためにいくつかの数学的手法が使われるが、これらの手法は、特定の条件下でアーチファクトを生成することが知られている。これらが超解像顕微鏡法にどのように適用されるかは未だ知られていない。 This method is significantly superior to single illuminant fitting in that it identifies individual illuminants when the illuminants are dense, while the typical sensation of a phosphor is up to half the full width of the PSF. Below the value, the accuracy drops significantly. Compressed sensing methods use several mathematical methods to perform optimization, and these methods are known to generate artifacts under certain conditions. It is not yet known how these are applied to super-resolution microscopy.

圧縮センシング顕微鏡法の先行技術として、例えば以下のものを挙げることができる:(圧縮センシング顕微鏡法の参考文献)「Faster STORM using compressed sensing」,Zhu,L,Zhang,W.,Elnatan,D.,及びHuang,B.著,Nature Methods,9巻,ページ721〜723,2012年。 Prior arts for compressed sensing microscopy include, for example: (References for Compressed Sensing Microscopy) "Faster STORM compressed sensing", Zhu, L, Zhang, W. et al. , Elnatan, D. et al. , And Huang, B. et al. Written by Nature Methods, Vol. 9, pp. 721-723, 2012.

iii)SOFI:超解像光学的変動イメージング法
この方法では、画像系列全体にわたる強度の変動が分析される。画素輝度の時間トレースでの自己又は相互キュムラントを特定の次数(specified order)計算する。変動がクラスタ化しているところでは蛍光体の密度が高くなり、そのため、この方法は、個々の変動を個々の蛍光体に関連付けない。計算値のマップは、超解像画像を形成する。この方法において知られているアーチファクトは、平均相対強度より高い試料領域の明るさを誇張する傾向があることであるが、これは、各蛍光体の「点滅」特性による悪影響を受けたものである。これにより、超解像画像では、明るさが低い構造を検出できなくなる可能性がある。回折限界よりも著しく高い解像度を得るためには、キュムラントを高次まで計算しなければならず、この問題を大きく悪化させてしまう。
iii) SOFI: Super-resolution optical variation imaging method In this method, intensity variation over the entire image sequence is analyzed. Calculate self or mutual cumulants in a time trace of pixel brightness at a specific order. The fluorescee density is high where the variability is clustered, so this method does not associate individual variability with individual fluorophores. The map of the calculated values forms a super-resolution image. The artifacts known in this method tend to exaggerate the brightness of the sample region above the average relative intensity, which is adversely affected by the "blinking" properties of each fluorophore. .. As a result, it may not be possible to detect a structure with low brightness in the super-resolution image. In order to obtain a resolution significantly higher than the diffraction limit, the cumulant must be calculated to a higher order, which greatly exacerbates this problem.

SOFIの先行技術として、例えば以下のものを挙げることができる:(SOFIの参考文献)「Fast, background−free, 3d Super−resolution optical fluctuation imaging (SOFI)」Dertinger,T.,Colyera,R.,Iyera,G.,Weissa,S.,及びEnderlein,J.著,Proc.Natl.Acad.Sci.,106巻,ページ22287〜22292,2009年。 The prior art of SOFI may include, for example: (references of SOFI) "Fast, background-free, 3d Super-resolution optical optication imaging (SOFI)", Dertinger, T. et al. , Colliera, R. et al. , Iyera, G. et al. , Weissa, S.A. , And Enderlein, J. et al. Written by Proc. Natl. Acad. Sci. , 106, pages 22287-22292, 2009.

iv)3B:ベイズ法での点滅と退色(Bayesian blinking and bleaching)
ここで採用するアプローチは、蛍光体の光スイッチング(「点滅性」)及び光退色の挙動を示す画像系列全体にフィッティングする試料のモデル構造を見つけ出す試みである。初期の推測から始め、蛍光体の位置は、それ以上の改善が観察されなくなるまで繰り返し調整される。この方法は、それなりに少ない数のフレームから高解像度を得ることができるが、発光体間の間隔が小さい場合は、複発光体フィッティングと同じく鮮鋭化するアーチファクトの影響を受ける。また、計算量が非常に多く、計算時間は他のいずれの方法よりもはるかに長くかかる。このため、大規模な計算リソースが利用可能でない限り、適用は極めて小さな画像に制限される。
iv) 3B: Blinking and fading in the Bayesian method (Bayesian blinking and bleaching)
The approach adopted here is an attempt to find a model structure of a sample that fits the entire image sequence showing the behavior of optical switching (“flashing”) and photobleaching of the phosphor. Starting with an initial guess, the position of the phosphor is repeatedly adjusted until no further improvement is observed. This method can obtain high resolution from a reasonably small number of frames, but if the spacing between the illuminants is small, it is affected by the sharpening artifacts similar to the compound illuminant fitting. Also, the amount of calculation is very large, and the calculation time is much longer than any other method. Therefore, application is limited to very small images unless large computational resources are available.

先行技術として、例えば以下のものを挙げることができる:(3Bの参考文献)「Bayesian localization microscopy reveals nanoscale podosome dynamics」,Cox,S.他著,Nature Methods,9巻,ページ195〜200,2012年。 Prior art can include, for example, the following: (References in 3B) "Bayesian localization microscopy microscopy revolutions nanoscale podosome dynamics", Cox, S. et al. Other work, Nature Methods, Vol. 9, pp. 195-200, 2012.

v)SRRF:超解像放射状変動法(Super −resolution radial fluctuations)
SRRFは、発光体の局在化と高次の時間相関(SOFI等)とを組み合わせたハイブリッドシステムとみなせる。第1の部分では、画像内での局所的な放射対称性のサブ画素マップが、画素の輝度の空間勾配から生成される。発光体が位置する場所では、局所的な放射対称性の程度は高いはずである。これらの「放射状マップ(radiality map)」の1つが、系列中の各フレームに対して生成される。その後、「放射状マップ」の系列全体がSOFIと同様の方法で分析されるが、今回は、各「放射状マップ」のサブ画素の時間トレースにおける時間相関を計算する。そして、これらの値により最終的な超解像画像が生成される。この方法は、局在化と時間分析についての長所と短所の両方を備えている。両方の段階で有用な解像度向上を得ることができるが、近接した蛍光体に対して、他のフィッティング法と同じく人工的に鮮鋭化したアーチファクトを生じ、SOFIで見られる構造における明るい方の部分と暗い方の部分/欠け部分とのコントラストも誇張される。
v) SRRF: Super-resolution radial fractionations
SRRF can be regarded as a hybrid system that combines localization of the illuminant and higher-order time correlation (SOFI, etc.). In the first part, a local radial symmetry sub-pixel map within the image is generated from the spatial gradient of pixel brightness. Where the illuminant is located, the degree of local radial symmetry should be high. One of these "radiality maps" is generated for each frame in the series. After that, the entire series of "radial maps" is analyzed in the same way as SOFI, but this time, the time correlation in the time trace of the sub-pixels of each "radial map" is calculated. Then, these values generate a final super-resolution image. This method has both advantages and disadvantages for localization and time analysis. Useful resolution gains can be obtained at both stages, but with the brighter parts of the structure seen in SOFI, they produce artificially sharpened artifacts for adjacent phosphors, similar to other fitting methods. The contrast with the darker part / missing part is also exaggerated.

SRRFの先行技術として、例えば以下のものを挙げることができる:(SRRFの参考文献)「Fast live−cell conventional fluorophore nanoscopy with ImageJ through super−resolution radial fluctuations」,Gustafsson,N.他著,Nature Communications,7巻,ページ12471,2016年。 Prior arts of SRRF include, for example: (References of SRRF) "Fast live-cell conventional fluorophore nanoscopy with ImageJ Thursday super-resolution radiation, Gustafsson. Other work, Nature Communications, Volume 7, page 12471, 2016.

vi)BALM:退色/点滅支援型局在化顕微鏡法(Bleaching/blinking assisted localisation microscopy)
この方法は、解像度を上げるのに役立つ時間情報を得るために画像系列全体を調べるのではなく、単に、一方のフレームから他方のフレーム(隣り合うペア)を減算することによって、一度に2つのフレームを比較するだけのものである。この方法は、顕著な強度スイッチング挙動を示さない、又は、光スイッチングバッファを用いない、蛍光標識を対象とする。初めに、大部分の蛍光体は発光状態にある。時間が経つにつれて、スイッチ「オフ」になる又は光退色する。特定の画像フレームにおいてスイッチ「オフ」になる又は光退色する蛍光体は、現在のフレームから後続のフレームを差し引くことにより検出できる。次に、局在化アルゴリズムがこの「差分」フレームに適用される。先行するフレームを差し引くことにより、より稀な「スイッチオン」事象を分離することができる。
vi) BALM: Bleaching / blinking assisted localization microscope
This method does not look at the entire image sequence to get time information that helps increase the resolution, but simply subtracts the other frame (adjacent pair) from one frame to get two frames at a time. It's just a comparison. This method targets fluorescent labels that do not show significant intensity switching behavior or do not use optical switching buffers. Initially, most phosphors are in a luminescent state. Over time, the switch turns off or fades. Fluorescent materials that switch "off" or photobleach in a particular image frame can be detected by subtracting subsequent frames from the current frame. The localization algorithm is then applied to this "difference" frame. By subtracting the preceding frame, the more rare "switch-on" event can be isolated.

しかし、この方法は、従来の局在化顕微鏡法や上記の他の高密度手法と比べて、いくつかの欠点がある。最も重要なことは、この方法はほぼ間違いなく高密度手法ではないということである。各差分フレームの発光体密度は、発光体の近接を解決することができる局在化アルゴリズムの能力によって制限されるため、高い忠実度の超解像の再構成を生成するには、同様な数のフレームが必要になる。同じフレームでは「オフ」(又は「オン」)になった重なり合う発光体は分離されない。同様に、一の発光体がスイッチ「オフ」になる際に、近接の発光体が同じフレーム内でスイッチ「オン」になると、それらは「差分」フレームで相互に部分的にあいまいになり、不確かな局在化につながる。蛍光体がゆっくりと切り替わる/退色するだけならば、それらの放出された光子の大部分は差分フレームから無視されて、正確とは程遠い局在化(バイアスを受けない場合)につながる。ほとんどの蛍光体が発光しているとき、個々の画素の輝度値は非常に高い。光子ショットノイズ及びカメラの読出しノイズも、差分信号と比較して高くなる。それゆえ、従来の局在化顕微鏡法よりもはるかに低い信号対ノイズ比となるため、局在化精度の低下につながり、得られる解像度は低くなる。 However, this method has some drawbacks compared to conventional localized microscopy and the other high density methods described above. Most importantly, this method is arguably not a high density method. Since the illuminant density of each difference frame is limited by the ability of the localization algorithm to resolve the illuminant proximity, similar numbers can be used to generate high fidelity super-resolution reconstructions. Frame is required. Overlapping illuminants that are "off" (or "on") are not separated in the same frame. Similarly, if one illuminant is switched "off" and nearby illuminants are switched "on" within the same frame, they will be partially ambiguous to each other in the "difference" frame and are uncertain. It leads to the localization. If the phosphors only switch / fade slowly, most of their emitted photons are ignored from the difference frame, leading to inaccurate localization (if not biased). When most phosphors emit light, the brightness values of individual pixels are very high. Photon shot noise and camera read noise are also higher than the difference signal. Therefore, the signal-to-noise ratio is much lower than that of the conventional localized microscopy, which leads to a decrease in localization accuracy and a low resolution.

BALMの先行技術として、例えば以下のものを挙げることができる:(BALMの参考文献)「Bleaching/blinking assisted localization microscopy for superresolution imaging using standard fluorescent molecules」,Burnette,D.T.,Sengupta,P.,Dai,Y.,Lippincott−Schwartz,J.及びKachar,B.著,PNAS,108巻,ページ21081〜21086,2011年。 Prior arts of BALM include, for example: (References of BALM) "Blinking / blinking assisted localization microscopic for super-resolution imaging standard fluorescence" standard fluorescence. T. , Sengupta, P. et al. , Dai, Y. et al. , Lippincott-Schwartz, J. Mol. And Kachar, B. et al. Written by PNAS, Vol. 108, pp. 21081 to 21086, 2011.

vii)多色検出法(Multi colour detection)
先に述べた方法は全て、多色検出法と組み合わせて使うことができる。この局在化顕微鏡法のバリエーションでは、試料内の2つ以上の異なる構造を、異なる発光波長(色)の蛍光分子で標識化する。含まれる装置は、従来の局在化顕微鏡の場合と同じであるが、収集された蛍光発光の光路に光学フィルタが追加される。光学フィルタの通過帯域は、2つの蛍光マーカ分子の発光波長を分離するように選択される。フィルタリングされた蛍光は、その後、別々のカメラ上の画像となる、又は、単一のカメラのセンサの別々の領域上の画像となる。したがって、各蛍光マーカに対応する複数の画像系列を生成できて、試料内の複数の構造を同時に画像化することが可能となる。しかしながら、複数の蛍光マーカの適切な「点滅性」を操作することは困難な場合があり、この方法は色収差によって影響を受ける可能性もある。多色局在化顕微鏡法の先行技術として、例えば以下のものを挙げることができる:(多色法の参考文献)「Subdiffraction−Resolution Fluorescence Imaging with Conventional Fluorescent Probes」,Heilemann,M.,Van de Linde,S.,Schuttpelz,M.,Kasper,R.,Seefeldt,B.,Mukherjee,A.,Tinnefeld,P.及びSauer,M.著,Angew Chem Int Ed Engl.,47巻33号,ページ6l72〜6,2008年。
vi) Multicolor detection
All of the methods mentioned above can be used in combination with the multicolor detection method. In this variation of localized microscopy, two or more different structures in a sample are labeled with fluorescent molecules of different emission wavelengths (colors). The equipment included is the same as for a conventional localized microscope, but an optical filter is added to the optical path of the collected fluorescence emission. The passband of the optical filter is selected to separate the emission wavelengths of the two fluorescent marker molecules. The filtered fluorescence then becomes an image on separate cameras, or an image on separate areas of the sensor of a single camera. Therefore, a plurality of image sequences corresponding to each fluorescence marker can be generated, and a plurality of structures in the sample can be imaged at the same time. However, it can be difficult to manipulate the proper "blinkability" of multiple fluorescent markers, and this method can also be affected by chromatic aberration. Prior arts for multicolor localized microscopy include, for example: (References for Multicolor Methods), "Subdifraction-Resolution Fluorescent Imaging With Conventional Fluorescent Probes", Heilemann, M. et al. , Van de Linde, S.A. , Schuttpelz, M. et al. , Kasper, R. et al. , Seefeld, B. et al. , Mukherjee, A.M. , Tinnefeld, P. et al. And Sauer, M. et al. Written by Angew Chem Int Ed Engl. , Vol. 47, No. 33, pages 6l 72-6, 2008.

本発明の実施は、高密度下での局在化を可能にし、よって、そうしない場合よりも高い空間分解能を達成するための、顕微鏡画像を処理する方法及びシステムを提供するものである。これは、近接する発光体から得られる画像データの時間的な冗長性を利用することによって達成され、これらの近接する発光体は、さもなければ、それら発光体が同時に発光する又は同時に蛍光を発する単発光体として分離されるが、わずかに異なる(しかし重なる可能性はある)時間で発光する又は蛍光を発するので、異なる時間帯域幅の異なるフィルタによる時間フィルタリング(時間的なフィルタ処理)にかけることができ、よって2つの発光体を分離できる。実質的に、異なる時間(的)フィルタは、2つの発光体の異なる発光時間又は蛍光時間を効果的に強調するために一緒に機能する異なる時定数を有しており、これにより2つの近接する発光体を別々に分離できる。 Implementations of the present invention provide methods and systems for processing microscopic images that allow localization under high densities and thus achieve higher spatial resolution than otherwise. This is achieved by taking advantage of the temporal redundancy of the image data obtained from the adjacent illuminants, which would otherwise emit or fluoresce at the same time. Separated as a single illuminant, but emits or fluoresces at slightly different (but may overlap) times, so it should be time filtered by different filters with different time bandwidths. Therefore, the two illuminants can be separated. In essence, the different time filters have different time constants that work together to effectively emphasize the different emission times or fluorescence times of the two illuminants, thereby causing the two to be in close proximity. The illuminant can be separated separately.

上記に鑑み、一の態様からは、局在化顕微鏡法のための方法が提供される。すなわち:顕微鏡によって取り込まれた顕微鏡画像フレームの時間(的な)系列を受け取るステップであって、画像フレームはその中に発光体又は蛍光体を含む画像である、ステップと;少なくとも1つの時間的フィルタを用いて、フレームの系列内のそれぞれの同じ画素位置の画素値のそれぞれの集合(セット)を時間的にフィルタ処理することにより、フレーム内のそれぞれの同じ画素位置についての時間的にフィルタ処理された画素値の少なくとも1つの集合を取得するステップと;時間的にフィルタ処理された画素値の少なくとも1つの集合を局在化アルゴリズムへ入力として提供しそれに依存して発光体又は蛍光体の局在化を可能にするステップと;を含む。 In view of the above, one aspect provides a method for localized microscopy. That is: a step of receiving a time series of microscopic image frames captured by a microscope, wherein the image frame is an image containing a illuminant or phosphor in it; with a step; at least one time filter. By temporally filtering each set of pixel values at each same pixel position in the frame series, it is temporally filtered for each same pixel position in the frame. Steps to obtain at least one set of pixel values; provide at least one set of temporally filtered pixel values as input to the localization algorithm and rely on it to localize the illuminant or phosphor. Includes steps and;

一実施において、この時間的フィルタ処理は、フレーム内の同一の各画素位置についての時間的にフィルタ処理された画素値の少なくとも2つの集合を取得するために、異なる時間的特性を有する少なくとも2つの異なる時間的フィルタを使用するステップを含み、時間的にフィルタ処理された画素値の少なくとも2つの集合は、発光体又は蛍光体の位置特定を可能にするために局在化アルゴリズムへ提供される。 In one embodiment, this temporal filtering is at least two having different temporal properties in order to obtain at least two sets of temporally filtered pixel values for each identical pixel position in the frame. At least two sets of temporally filtered pixel values, including the step of using different temporal filters, are provided to the localization algorithm to allow localization of the illuminant or phosphor.

さらなる特徴及び態様は、添付の特許請求の範囲から明らかになるであろう。 Further features and aspects will become apparent from the appended claims.

本発明のさらなる特徴及び利点は、単なる例として提示される、本発明の実施の以下の説明、並びに、添付図面から明らかになるであろう。ここで、同様の符号は同様の部分を示す。 Further features and advantages of the present invention will become apparent from the following description of the practice of the present invention, as well as the accompanying drawings, provided by way of example only. Here, similar reference numerals indicate similar parts.

アルゴリズムの典型的な実施の形態のフロー図である。It is a flow diagram of a typical embodiment of an algorithm. 本発明の一実施に係る局在化顕微鏡装置を示す図である。It is a figure which shows the localized microscope apparatus which concerns on one embodiment of this invention. 一実施に係る処理前及び処理後のフレーム系列の図であって、低減された発光体の密度を示すものである。It is a figure of the frame series before and after the treatment which concerns on one execution, and shows the density of the light emitting body which was reduced. ハール(Haar)ウェーブレットを用いるフィルタセットの一例を示した図である。It is a figure which showed an example of the filter set which uses a Haar wavelet.

本発明の実施はそれぞれ、各画像内のアクティブな発光体/蛍光体の数を減らすために、局在化顕微鏡法を用いて取得された一連の画像を処理する方法及びシステムを含む。この手法は、任意の局在化方法/アルゴリズムに先立って画像系列に適用され、発明の対象であるこの手法による出力は、はるかに長い画像系列であり、各画像フレーム内のアクティブな発光体/蛍光体の数は少なくなっている。次に、選択した局在化方法/アルゴリズムを、出力画像系列に適用して、個々の発光体/蛍光体の位置を特定(localize)し、超解像画像を生成する。本発明の別の実施は、複数の時間的なフィルタ処理の方法を、局在化方法/アルゴリズムと組み合わせて、単一の方法/アルゴリズムとすることであろう。フィルタ処理は、発光状態で現れる隣接フレームの数に基づいて、重なり合う発光体/蛍光体の発光を分離する。より正確には、より明るい若しくはより暗い発光状態又は非発光状態に切り替わる前のそれなりに一定の強度を維持した隣接画像フレームの数に基づく。 Each practice of the present invention includes methods and systems for processing a series of images obtained using localized microscopy to reduce the number of active illuminants / phosphors in each image. This technique is applied to the image sequence prior to any localization method / algorithm, and the output of this technique, which is the subject of the invention, is a much longer image sequence and the active illuminant in each image frame / The number of phosphors is decreasing. The selected localization method / algorithm is then applied to the output image sequence to locate the individual illuminants / phosphors and generate a super-resolution image. Another practice of the present invention would be to combine multiple temporal filtering methods with localization methods / algorithms into a single method / algorithm. The filtering process separates the emission of overlapping emitters / phosphors based on the number of adjacent frames appearing in the emission state. More precisely, it is based on the number of adjacent image frames that maintain a reasonably constant intensity before switching to a brighter or darker luminescent or non-luminous state.

フィルタのセットは、隣接する/近接するフレームの画素値のさまざまな時間スケールでの比較を構成する任意のセットである。各フィルタは、それが比較する最初の画像フレームと最後の画像フレームとの間の時間(フレーム数に関連)を表す特徴的な時間スケールを有するだろう。次に、各フィルタは、その特徴的な時間スケールにおける発光体の強度変動事象/スイッチング事象を他の全ての事象から分離する。使用する時間スケールの範囲は、これらの事象の大部分を捕捉するように、発光体の変動/スイッチングの時間スケールの範囲を反映したものとなる。フィルタの時間スケールの上限は、一般には画像系列の長さよりはるかに短くなるが、通常はこのような長い時間スケールでの発光体の変動はないであろう。 A set of filters is any set that constitutes a comparison of pixel values of adjacent / adjacent frames on various time scales. Each filter will have a characteristic time scale that represents the time (related to the number of frames) between the first and last image frames it compares. Each filter then separates the intensity fluctuation event / switching event of the illuminant on its characteristic time scale from all other events. The time scale range used will reflect the time scale range of illuminant variation / switching to capture most of these events. The upper limit of the filter time scale is generally much shorter than the length of the image sequence, but usually there will be no variation in the illuminant on such a long time scale.

このフィルタは、入力された画像系列から構成された一連の画素輝度の時間トレースに適用される。輝度の時間トレースは、この系列内の全ての画像フレーム内の特定の画素x、yの値を順に照合する(連結する)ことによって生成される。特定の特性を持つ時間スケールを有するフィルタが、画素輝度の時間トレースにおける特定の点と、記録された出力値とに適用される。そして、フィルタは時間トレースにおける複数の点(通常は複数だが、必ずしも全ての点ではない)に適用されて、結果である各値が前の値に追加されて、出力画素輝度の時間トレースを生成する。この工程は、元の画像系列の各画素の輝度トレースごとに繰り返され、等しい数の、出力画素輝度の時間トレースを生成する。これらの出力輝度トレースは元の画素位置x、yで再構成されて、出力画像系列を作成する。次に、この工程が、セット内の次のフィルタ及び後続の全てのフィルタに対して繰り返され、各出力の画像系列が前のものに追加されることで、元の系列よりもはるかに長い、トータルな出力系列が生成される。 This filter is applied to a time trace of a series of pixel brightness composed of the input image sequence. The luminance time trace is generated by sequentially collating (connecting) the values of specific pixels x and y in all the image frames in this series. A filter with a time scale with a particular characteristic is applied to a particular point in the pixel brightness time trace and the recorded output value. The filter is then applied to multiple points in the time trace (usually multiple, but not necessarily all points), and each resulting value is added to the previous value to generate a time trace of the output pixel brightness. To do. This step is repeated for each brightness trace of each pixel in the original image sequence to generate an equal number of time traces of output pixel brightness. These output luminance traces are reconstructed at the original pixel positions x and y to create an output image sequence. This process is then repeated for the next filter in the set and all subsequent filters, and the image sequence for each output is added to the previous one, much longer than the original sequence. A total output sequence is generated.

画素輝度の時間トレース内の異なる点へフィルタを適用する順序は、構造の時間的な進展が観察されない限り、そしてそれが全てのそのようなトレースに対して維持される限り、重要ではない。各フィルタが適用される順序も重要ではない。代替として、各フィルタを単一の入力輝度時間トレースへ順次に適用し、その出力を、はるかに長い出力時間トレースに追加することもできる。フィルタを適用する順序が一貫している限り、これらの長い出力トレースは、その後、前述のように最終的な出力画像系列に結合される。 The order in which the filters are applied to different points in the pixel brightness time trace is not important unless a temporal evolution of the structure is observed and it is maintained for all such traces. The order in which each filter is applied is also not important. Alternatively, each filter can be applied sequentially to a single input luminance time trace and its output added to a much longer output time trace. As long as the order in which the filters are applied is consistent, these long output traces are then combined into the final output image series as described above.

発光体の輝度が変動するとき、又は発光体の発光の状態が切り替わるとき、その位置のPSF幅内の全ての画素の時間トレースは、その時点での輝度変化(変動)を示す。PSFが同一画像フレーム内の最初の切り替え輝度が重なる他の蛍光体がない場合、隣接する画素間のこれらの変動の相対的な大きさは、装置のPSFを反映することになる。しかし、同一画像フレーム内で2つ以上の近接する発光体が輝度を切り替える場合、発光体のPSFの範囲内のいくつかの画素が、時間トレースにおける、複数の発光体に起因する輝度の変化を示す一方、その他の画素は、単一の発光体のみに起因する輝度のみを示す。しかしながら、単一の発光体のPSFと重なり合う他の発光体のいずれにおいても、前と後の両方での輝度の切り替えが互いに同じ相対量で且つ同じ画像フレームで生じることはきわめて稀なことである。それゆえ、フレームからフレームへの個々の画素の輝度の変動に対する各発光体の寄与度は、その変動が持続した画像フレームの数に基づいて分離できる。これは、複数の時間スケールによる時間フィルタリングによって実現される。いくつかのフレームにわたり画素の輝度値を比較することにより、各フィルタの出力は、輝度変動のサブセットのみを含む画像系列となり、その時間スケールは、適用されるフィルタの特徴的な時間スケールに左右される。ここでも、個々の発光体が輝度を切り替える場合、そのPSF内の全てのフィルタリングされた画素トレースは、PSFの形状を表す値と一致する出力を示すが、今回は、適用されたフィルタの特徴的な時間スケールによって設定された時間スケールにおいて切り替わる発光体に限られる。ここで、異なる時間スケールの発光体からの信号ノイズがフィルタを通過した場合には、同じ空間的一致が共有されず、隣接する画素の強度は装置のPSFを再現しない。局在化アルゴリズムは、装置のPSFに従って強度分布を特定し、ノイズを排除する一方でそれらの位置を特定するように設計される。 When the brightness of the light emitter fluctuates, or when the light emission state of the light emitter changes, the time traces of all the pixels within the PSF width at that position indicate the brightness change (variation) at that time. In the absence of other phosphors with overlapping initial switching brightness within the same image frame, the relative magnitude of these variations between adjacent pixels will reflect the PSF of the device. However, when two or more adjacent illuminants in the same image frame switch brightness, some pixels within the PSF range of the illuminant will experience a change in brightness due to the plurality of illuminants in the time trace. On the other hand, the other pixels show only the brightness due to only a single illuminant. However, in any of the other illuminants that overlap the PSF of a single illuminant, it is extremely rare for both front and rear brightness switching to occur in the same relative quantity and in the same image frame. .. Therefore, the contribution of each illuminant to the variation in brightness of individual pixels from frame to frame can be separated based on the number of image frames in which the variation persists. This is achieved by time filtering with multiple time scales. By comparing the brightness values of the pixels over several frames, the output of each filter is an image sequence containing only a subset of the brightness variation, the time scale of which depends on the characteristic time scale of the applied filter. To. Again, when individual emitters switch brightness, all filtered pixel traces within that PSF show an output that matches the value representing the shape of the PSF, but this time it is characteristic of the applied filter. It is limited to the illuminant that switches in the time scale set by the time scale. Here, when signal noise from light emitters of different time scales passes through the filter, the same spatial match is not shared and the intensities of adjacent pixels do not reproduce the PSF of the device. Localization algorithms are designed to identify intensity distributions according to the device's PSF, eliminating noise while locating them.

言い換えると、短い時間スケールのフィルタの出力は、特定の少数の画像フレームの間で発光状態にあった発光体/蛍光体のみの蛍光「スポット」を含む画像系列である。一方、長い時間スケールのフィルタの出力には、多数のフレームの間で発光していた発光体/蛍光体のみが含まれる。各フレーム内の発光体の数(及び発光体の密度とPSFの重なり合う部分)は大幅に減り、局在化アルゴリズムは発光体の位置をより正確に見つけることができる。複数のフィルタの時間スケールの結果を組み合わせることにより、ほぼ全ての発光体/蛍光体が少なくとも1つの画像フレームに現れる。これにより、重大な画像アーチファクトがなく、高解像度の再構成の生成に十分な数の局在化が可能となる。 In other words, the output of the short time scale filter is an image sequence containing fluorescence "spots" of only the emitter / phosphor that were in the emission state during a particular small number of image frames. On the other hand, the output of the long time scale filter includes only the illuminant / phosphor that was emitting light between a large number of frames. The number of illuminants in each frame (and the overlap of illuminant densities and PSFs) is significantly reduced, and localization algorithms can more accurately locate illuminants. By combining the time scale results of multiple filters, almost all illuminants / phosphors appear in at least one image frame. This allows for a sufficient number of localizations to generate high resolution reconstructions without significant image artifacts.

複数の時間スケールによる時間フィルタリングは、多色イメージングの代替/補足として更に用いられる。短い方の時間スケールと長い方の時間スケールのフィルタの出力を組み合わせて、「ハイパス」と「ローパス」のペアとすることができる(又は3つ以上のグループに分けたものならばバンドパスである)。試料が「速い/良い」で点滅する1つの蛍光体と、「遅い/劣る」で点滅する1つの蛍光体とで標識化されていたとすると、たとえそれらが同じ発光波長であっても、各フィルタのペアは、2つの蛍光体のうちの一方又は他方のいずれだけからの発光を主として含むことになろう。したがって、先に述べた多色イメージングの短所は回避される。 Time filtering by multiple time scales is further used as an alternative / supplement to multicolor imaging. The output of the shorter time scale and the longer time scale filter can be combined into a "high pass" and "low pass" pair (or bandpass if divided into three or more groups). ). If the sample was labeled with one "fast / good" flashing and one "slow / inferior" flashing, each filter, even if they had the same emission wavelength. The pair will primarily contain luminescence from either one or the other of the two fluorophores. Therefore, the disadvantages of multicolor imaging mentioned above are avoided.

さらなる特徴及び利点は、以下の詳細な説明から明らかになるであろう。 Further features and advantages will become apparent from the detailed description below.

本発明の実施例を、各図を参照して、ここに説明する。特に、図2は、画像化された試料において発光体/蛍光体について高解像度の局在化を可能にするために、本明細書に記載する手法に従って処理されることになる画像を取り込むために使用できる顕微鏡装置の一例を示したものである。 Examples of the present invention will be described herein with reference to each figure. In particular, FIG. 2 captures an image that will be processed according to the techniques described herein to allow high resolution localization of the illuminant / phosphor in the imaged sample. An example of a microscope device that can be used is shown.

より詳細には、図2には、本発明の一実施に係る、局在化顕微鏡法の画像系列の取得で通常用いられる装置の例が示されている。対象となる蛍光標識化された試料(204)は、試料ステージ(202)により、高開口数の対物レンズ(206)に対して固定/調節可能な相対位置に保持される。1つ又は複数の励起光源(220)は、一般に1つ又は複数の励起波長と1つ又は複数の活性化波長とからなり、両波長は、ビーム結合光学系(222)によって共通の光路に沿って方向付けられる。光源は、レーザーであっても、他のコリメートされた(collimated、平行な、視準の合った)高強度光源であってもよい。さらに、ビーム拡大望遠部(beam expanding telescope)(218)などのビーム調節光学系を使用して、ビーム強度分布及びコリメーション(collimation)を変更することができる。次に、光源はダイクロイックミラー(主要なダイクロイック208)により、対物レンズ(206)を通って試料(204)の上に反射される。主要なダイクロイック(208)の位置までの光源の結合及び方向付けは、光ファイバによっても部分的又は全面的に達成できる。ビーム方向付け/調節光学系は、通常、対物レンズを介してビーム経路を変更する何らかの手段を設けることにより、試料の境界面において励起光の全(又はそれに近い)反射(TIRF)を実現する。 More specifically, FIG. 2 shows an example of an apparatus commonly used in the acquisition of localized microscopy image sequences according to one embodiment of the present invention. The fluorescently labeled sample (204) of interest is held by the sample stage (202) in a fixed / adjustable relative position with respect to the high numerical aperture objective lens (206). One or more excitation sources (220) generally consist of one or more excitation wavelengths and one or more activation wavelengths, both wavelengths along a common optical path by the beam-coupled optics (222). Is oriented. The light source may be a laser or another collimated, collimated, collimated, high intensity light source. In addition, beam intensity distribution and collimation can be modified using beam conditioning optics such as beam expanding telescope (218). The light source is then reflected onto the sample (204) through the objective lens (206) by a dichroic mirror (major dichroic 208). Coupling and directing the light source to the position of the major dichroic (208) can also be achieved partially or wholly by fiber optics. Beam directional / adjustable optics usually provide total internal reflection fluorescence (TIRF) of excitation light at the interface of the sample by providing some means of altering the beam path through the objective lens.

個々の発光体/蛍光体からの蛍光光は、対物レンズによって集められ、主要ダイクロイックを通過し、チューブレンズ(210)を通るように光学系(216)によって方向付けられる。これは、画像を形成するデジタルカメラ(212)のセンサに光を集束させる。このカメラは、含まれる微弱レベルの光を検出するのに十分な感度が必要であり、また1秒あたり複数(約100枚)の画像を取り込むのに十分な速度も必要である。したがって、通常は科学計測用CMOS(sCMOS)、又は電子増倍型CCD(EMCCD)カメラが使用される。出力データストリームは、コンピュータ(214)に記録される。 Fluorescent light from the individual illuminants / phosphors is collected by the objective lens and directed by the optical system (216) to pass through the main dichroic and through the tube lens (210). This focuses the light on the sensor of the digital camera (212) that forms the image. The camera needs to be sensitive enough to detect the faint levels of light it contains, and it needs to be fast enough to capture multiple (about 100) images per second. Therefore, a CMOS (sCMOS) for scientific measurement or an electron multiplier CCD (EMCDD) camera is usually used. The output data stream is recorded on the computer (214).

コンピュータ(214)には、ハードディスク、フラッシュドライブ、メモリカードなどのデータ記憶媒体224が設けられ、データ記憶媒体224上には、顕微鏡装置によって取り込まれた画像から得られた画素データの形式で処理されるデータ、処理後の画像の形式での処理出力、及び、実行時にコンピュータを制御して入力画像に必要な処理を実行し出力画像を取得する実行可能プログラムであって、本実施の形態の場合は一般的な制御プログラム(226)、ハールウェーブレットカーネル(Harr Wavelet Kernel、HWK)計算プログラム(228)、及び局在化プログラム(230)を格納できる。一般的な制御プログラム(226)は、処理全体を制御し、必要に応じてHWK計算プログラムと局在化プログラムとを呼び出す。HWK計算プログラム(228)は、取り込まれた顕微鏡画像の個々の画素に関連する画素データのそれぞれの入力ストリームを受け取り、それらに以下に説明する方法でハールウェーブレット関数を適用することで、各画素に対して画素データの出力ストリームを生成する。ここで、それぞれのハールウェーブレット関数でフィルタリングされた画素データが出力されるが、それぞれの出力は、異なる次数のハールウェーブレット関数(例えば、1次から4次)のそれぞれに適用して取得されたものであり、それらの出力が連結され若しくは結合されて、画素ごとに出力される画素ストリームを形成する。出力された画素ストリームには、入力された画素ストリームの輝度の増加又は減少に対応して、正の値と負の値の両方が含まれる。これらを処理するには、絶対値を取る、又は、出力の画素ストリームの大きさを2倍にして、正の値と負の値を2つの連続する出力の画素ストリームに分離してから、絶対値を付加するとよい。このような場合には、全ての欠損値はゼロで埋められる。3番目の選択肢としては、大きな固定オフセット値を全ての出力画素値に加え、出力画像系列に負の画素値がないようにする(例えば、入力のダイナミックレンジの半分)。次に、出力画像系列は、発光体に対応する最大値と最小値の両方からなる。この状況で、局在化アルゴリズムは、より正確な局在化を生成する可能性が高い負及び正の振幅のモデルであるPSFに適合できなければならない。したがって、出力画素ストリームには入力ストリームより多くのデータが含まれる。というのは、特定の入力の画素に適用されるハールウェーブレット関数の各次数に対して1つの出力画素値(又は正値と負値が分離されている場合は2つの画素値)が生成されるからである。 The computer (214) is provided with a data storage medium 224 such as a hard disk, a flash drive, and a memory card, and is processed on the data storage medium 224 in the form of pixel data obtained from an image captured by a microscope device. Data, processing output in the form of processed image, and an executable program that controls a computer at the time of execution to execute necessary processing for the input image and acquire the output image. Can store a general control program (226), a Harr Wavelet Kernel (HWK) calculation program (228), and a localization program (230). The general control program (226) controls the entire process and calls the HWK calculation program and the localization program as needed. The HWK calculator (228) receives each input stream of pixel data associated with each pixel of the captured microscopic image and applies the Haar wavelet function to them as described below for each pixel. On the other hand, an output stream of pixel data is generated. Here, the pixel data filtered by each Haar wavelet function is output, and each output is obtained by applying it to each of the Haar wavelet functions of different orders (for example, 1st to 4th order). And their outputs are concatenated or combined to form a pixel stream that is output pixel by pixel. The output pixel stream contains both positive and negative values as the brightness of the input pixel stream increases or decreases. To process these, either take the absolute value or double the size of the output pixel stream to separate the positive and negative values into two consecutive output pixel streams and then absolute. Add a value. In such cases, all missing values are filled with zeros. The third option is to add a large fixed offset value to all output pixel values so that the output image sequence has no negative pixel values (eg, half the dynamic range of the input). Next, the output image sequence consists of both maximum and minimum values corresponding to the illuminant. In this situation, the localization algorithm must be compatible with PSF, a model of negative and positive amplitudes that is likely to produce more accurate localizations. Therefore, the output pixel stream contains more data than the input stream. This is because one output pixel value (or two pixel values if the positive and negative values are separated) is generated for each order of the Haar wavelet function applied to the pixel of a particular input. Because.

例えば、1次から4次のHWK関数が入力画素ストリームに適用されたならば、出力画素ストリームは、各入力画素値に対して、4つ(又は正値と負値が分離されている場合は8つ)の画素値(1次から4次のHWK関数の各々によって1つ/2つが生成される)を有する。これらの4つ(又は8つ)の値は、通常、出力画素ストリームにおいて一方が他方の後に連結され、画素ごとの出力画素ストリームは、局在化プログラム230によってその入力として用いられ、HWKフィルタリング処理された画素に基づいて発光体を局在化することができる。この点に関して、この局在化プログラム230は、画素ごとの出力ストリーム234をHWK計算プログラム228から受け取ること、及び、顕微鏡からの生の画素ストリーム232に対してではなくこれらの出力ストリームに対して発光体/蛍光体の局在化を実施することを除き、従来のオペレーションのものである。もちろん、他の実施として、例えば、バターワース(Butterworth)フィルタ又はチェビシェフ(Chebyshev)フィルタなどの、ハールウェーブレット関数以外の他の時間フィルタ関数を適用してもよい。したがって、本明細書におけるHWKフィルタについての説示は、単なる例に過ぎず、より一般的には、異なる長さの時間で持続する事象を区別できる他の時間フィルタ関数を用いてもよい。 For example, if the 1st to 4th order HWK functions are applied to the input pixel stream, the output pixel stream will have 4 (or positive and negative values separated) for each input pixel value. It has 8) pixel values (1 / 2 is generated by each of the 1st to 4th order HWK functions). These four (or eight) values are typically concatenated one after the other in the output pixel stream, and the pixel-by-pixel output pixel stream is used as its input by the localization program 230 for HWK filtering. The illuminant can be localized based on the pixels. In this regard, the localization program 230 receives the pixel-by-pixel output streams 234 from the HWK calculator 228 and emits light to these output streams rather than to the raw pixel streams 232 from the microscope. It is of conventional operation, except that body / phosphor localization is performed. Of course, as another embodiment, a time filter function other than the Haar wavelet function, such as a Butterworth filter or a Chebyshev filter, may be applied. Therefore, the description of the HWK filter herein is merely an example, and more generally, other time filter functions that can distinguish between events that persist for different lengths of time may be used.

図1は、本発明の一実施で実行される処理をより詳細に示すフロー図である(ただし、さらなるグラフによる例については後に説明する)。ここで、一般的なスキーマとしては、各時間フィルタは、次の画素トレースへ移る前に、ある画素輝度時間トレースの各ポイントに対して順番に順次適用される。次に、各出力時間トレースが画像系列に再結合された後に、次のフィルタを用いてこの手順を繰り返し、その結果を前の結果に追加する。しかし、画素時間トレースにおけるある単一の点について各フィルタを順番に適用し、各結果を出力時間トレースに追加した後に、入力時間トレースにおいて次の位置へ移ることも、同様に有効な処理である。さもなければ、全ての画素輝度トレースの同一時点におけるフィルタの結果を組み合わせて、その結果を出力系列に追加する画像に形成した後、時間トレースにおける次の点へ移ることもできる。これらの統合が実行される順番は、画像系列全体で一貫性が維持されている限り、又は一貫性が維持されていないとしても出力ファイル内の統合の順番が分かっている場合には、重要ではない。 FIG. 1 is a flow chart showing in more detail the processing executed in one embodiment of the present invention (however, a further graph example will be described later). Here, as a general schema, each time filter is sequentially applied to each point of a certain pixel luminance time trace before moving on to the next pixel trace. Then, after each output time trace is recombined into the image sequence, this procedure is repeated with the following filter to add the result to the previous result. However, applying each filter in turn for a single point in the pixel time trace, adding each result to the output time trace, and then moving to the next position in the input time trace is also a valid process. .. Otherwise, the results of the filters at the same time point in all pixel luminance traces can be combined to form the result in an image to be added to the output series before moving on to the next point in the time trace. The order in which these integrations are performed is important as long as the entire image series is consistent, or if the order of integration in the output file is known even if it is not consistent. Absent.

上記の観点より、図1は、本発明の一実施において実行可能な処理フロー図の一の例を示すが、この処理は、フィルタごと、画素位置ごとに作動する処理である。すなわち入力の画像系列に対して、第1の時間フィルタ、例えばn次のHWKフィルタが画素ごとに画素の各ストリームに適用され、その処理は全ての画素位置がそのフィルタで処理されるまで行われる。その後、n+1次のフィルタを適用しながら処理は繰り返されるが、その処理は再び映像系列全体に対して全ての画素位置が処理されるまで行われる。その後、全てのフィルタが適用されるまで、順番に各次数のフィルタに対してこの処理が繰り返されるが、この場合、その出力画像系列(ここでは入力系列よりもはるかに長くなり、具体的には入力系列の長さにx(又は2x)を乗じたものになる。ここで、xは、適用される異なる次数のフィルタの数である)がその後、発光体検出のための局在化アルゴリズムへ出力される。 From the above viewpoint, FIG. 1 shows an example of a processing flow diagram that can be executed in one embodiment of the present invention, and this processing is a processing that operates for each filter and each pixel position. That is, for the input image sequence, a first time filter, for example, an nth-order HWK filter is applied to each stream of pixels for each pixel, and the processing is performed until all pixel positions are processed by the filter. .. After that, the process is repeated while applying the n + 1th-order filter, but the process is performed again until all the pixel positions are processed for the entire video sequence. After that, this process is repeated for each degree of filter in turn until all the filters are applied, in which case the output image sequence (here it is much longer than the input sequence, specifically). The length of the input sequence is multiplied by x (or 2x), where x is the number of filters of different orders applied) to the localization algorithm for illuminant detection. It is output.

図1を参照してより詳細に説明すると、s.1.2において、顕微鏡の画像系列がs.1.2で受信され、次にs.1.4において、適用される処理用の時間フィルタ(例えば、HWK、バターワース、チェビシェフ等)が選択され、最初に適用されるフィルタの次数が選択される。次にs.1.6において、受信された画像フレーム内の最初の画素の位置、例えば、フレーム内の画素位置(a,b)が選択される。次に、入力の顕微鏡法フレーム系列の各フレームにおける選択された画素の位置に対する画素値を調べることにより、ある画素の時間トレース又はストリームが作成される。すなわち、例えば、系列内の各フレームから位置(a,b)の全ての画素値をまとめて1つの系列に連結することによって、フレーム内のピクセル位置(a,b)に対して1つの画素データのストリームが取得される。 More specifically, with reference to FIG. 1, s. In 1.2, the image sequence of the microscope is s. Received at 1.2, then s. In 1.4, the time filter for processing to be applied (eg, HWK, Butterworth, Chebyshev, etc.) is selected, and the order of the filter to be applied first is selected. Next, s. In 1.6, the position of the first pixel in the received image frame, for example, the pixel position (a, b) in the frame is selected. A time trace or stream of a pixel is then created by examining the pixel values for the positions of the selected pixels in each frame of the input microscopy frame sequence. That is, for example, by concatenating all the pixel values of the positions (a, b) from each frame in the series into one series, one pixel data for the pixel positions (a, b) in the frame. Stream is retrieved.

s.1.10において、画素時間トレース/ストリームの開始点が選択され、s.1.12において、選択されたフィルタが、選択された開始点及びその周辺の画素値へ適用される。次に、s.1.22において、フィルタの結果(フィルタ計算の詳細は後述する)が取得され、その後、特定の画素の位置(a、b)について出力時間トレースがその結果を含むように開始される。s.1.24において、フレームの系列内の画素(a、b)の全てにフィルタが適用されたかどうかが評価され、適用されていない場合は、s.1.26において系列内の次の画素が選択されて、処理はs.1.10へ戻る。この処理ループを繰り返すことにより、時間フィルタは、画素位置(a,b)に対してその画素の時間トレース/ストリーム内の全ての画素に適用される。 s. In 1.10, the pixel time trace / stream start point was selected and s. In 1.12., the selected filter is applied to the pixel values in and around the selected starting point. Next, s. At 1.22, the result of the filter (details of the filter calculation will be described later) is acquired, after which the output time trace is started to include the result for a particular pixel position (a, b). s. In 1.24, it is evaluated whether or not the filter is applied to all the pixels (a, b) in the frame series, and if not, s. In 1.26, the next pixel in the series is selected and the process is s. Return to 1.10. By repeating this processing loop, the time filter is applied to all pixels in the time trace / stream of that pixel with respect to the pixel position (a, b).

フィルタの結果の中には、負値の結果となったものがある可能性があり、それらは削除しなければならない。そして、先に述べた選択肢に応じて、画素時間トレースにおいてクリーンアップルーチンが実行され、後で詳細を述べる方法で負値を処理してから、出力系列における位置(a,b)に対する画素トレースとして、出力における画素位置(a、b)の出力トレースを処理する。次に、同じ方法でフレーム内の次の画素位置(たとえば(a+1,b)を処理でき、処理はs.1.6へ戻る。顕微鏡法のフレームの各画素の位置について上記ステップを繰り返すことにより、現在選択されている時間フィルタに対する画素トレースが各画素位置について得られる(s.1.34)。 Some of the filter results may have negative results and should be removed. Then, according to the options described above, a cleanup routine is executed in the pixel time trace, and after processing the negative value by the method described in detail later, as a pixel trace for the position (a, b) in the output series. , Process the output trace of pixel positions (a, b) in the output. Next, the next pixel position in the frame (eg, (a + 1, b) can be processed in the same way, and the process returns to s.1.6. By repeating the above steps for the position of each pixel in the microscopic frame. , A pixel trace for the currently selected time filter is obtained for each pixel position (s. 1.34).

その後の処理で、所望の時間フィルタが全て適用されたかどうかが判定される。この点で、通常は、より高次のフィルタ、例えば1次から4次のハールウェーブレットフィルタ、又はバターワースフィルタも適用されるであろう。全てのフィルタが適用されていない場合は、s.1.40で、次のフィルタが選択され(例えば、1次のHWKフィルタが適用されたばかりであれば2次のフィルタが選択される等)、処理はs.1.4のループの先頭へ戻る。このように、各フレームにおける同一位置(a,b)での対応する画素は、第1の時間フィルタを用いて処理され、その後、同一位置(a,b)にある対応する各画素は、第2の時間フィルタ(例えば、より高次のフィルタ)を用いて処理される等、全てのフィルタが各画素トレースに適用されるまで行われる。ひとたび全てのフィルタが適用されると、フィルタ処理された画素トレースの集合を、例えば既知の順番で連結することによって集め、その後、局在化アルゴリズムへの入力として用いることができる。 Subsequent processing determines if all the desired time filters have been applied. In this regard, higher order filters, such as first to fourth order Haar wavelet filters, or Butterworth filters, will usually also be applied. If not all filters have been applied, s. At 1.40, the next filter is selected (eg, if the primary HWK filter has just been applied, the secondary filter is selected, etc.) and the process is s. Return to the beginning of the 1.4 loop. In this way, the corresponding pixels at the same position (a, b) in each frame are processed by using the first time filter, and then the corresponding pixels at the same position (a, b) are the first. Processing is performed using a time filter of 2 (eg, a higher order filter) until all filters are applied to each pixel trace. Once all the filters have been applied, a set of filtered pixel traces can be collected, for example by concatenating them in a known order, and then used as input to a localization algorithm.

画素輝度時間トレースのフィルタリングが個々の発光体の蛍光の寄与をいかに分離するかの実証実験を図3に示す。上の3つの画像(302,304,306)は、発光状態と非発光状態との間でランダムに切り替わる2つの近接した(すなわち、PSFより小さい間隔で分離された)蛍光体のシミュレーションにおける3つの連続フレームを示している。一方の蛍光体は「a」とマーク付けられた画素の中心に位置し、他方の蛍光体は画素「c」の中心に位置する。中央のフレーム(304)では、両方の蛍光体が発光状態にあり、その場合、個々のPSF(蛍光スポット)は実質的に重なり合う。先のフレームと後のフレーム(それぞれ302と306)では、「a」の蛍光体のみが発光している。2つの発光体の切り替わりは、対応する画素輝度時間トレース(308)で確認できるが、この図では、画像(302,304,306)における「a」、「b」、「c」とマーク付けられた3つの画素は、系列のフレーム79,80及び81に対応するとして示されている。フレーム76では、画素「c」にある蛍光体のみが発光しており、このことは、画素「c」の輝度が画素「b」の輝度よりも高く、同様に画素「b」の輝度が画素「a」の輝度よりも高いことに反映されている。「a」での蛍光体のみがフレーム78、79、81及び82で発光している場合は、逆の比(ratio)が成り立つ。フレーム80では、画素輝度時間トレースにおける変動が観察される。フレーム80での3つの画素間におけるこの変動の相対的な大きさは、「c」にある蛍光体のみが発光している場合のフレーム76で観測された変動と非常に類似している。この変動は、フィルタを適用することにより、残りの時間トレースから分離できる。 FIG. 3 shows a demonstration experiment of how filtering of the pixel luminance time trace separates the fluorescence contributions of individual light emitters. The three images above (302, 304, 306) are three in a simulation of two adjacent (ie, separated by smaller intervals than PSF) phosphors that randomly switch between luminescent and non-luminescent states. Shows continuous frames. One fluorophore is located in the center of the pixel marked "a" and the other fluorophore is located in the center of the pixel "c". In the central frame (304), both phosphors are in a luminescent state, in which case the individual PSFs (fluorescent spots) substantially overlap. In the first frame and the second frame (302 and 306, respectively), only the phosphor of "a" emits light. The switching between the two illuminants can be seen in the corresponding pixel luminance time trace (308), which is marked "a", "b", "c" in the images (302, 304, 306). The three pixels are shown as corresponding to frames 79, 80 and 81 of the series. In the frame 76, only the phosphor in the pixel "c" emits light, which means that the brightness of the pixel "c" is higher than the brightness of the pixel "b", and similarly, the brightness of the pixel "b" is the pixel. This is reflected in the fact that it is higher than the brightness of "a". When only the fluorophore in "a" emits light in frames 78, 79, 81 and 82, the opposite ratio (ratio) holds. At frame 80, variations in the pixel luminance time trace are observed. The relative magnitude of this variation between the three pixels at frame 80 is very similar to the variation observed at frame 76 when only the fluorophore at "c" is emitting light. This variation can be separated from the remaining time trace by applying a filter.

これらの3つの画素に対し、フィルタ関数として第1のハールウェーブレット(図4及び以下で説明する)を用いた結果(310)では、単フレームの間だけ継続する変動のみが示される。「a」にある蛍光体がオンに切り替わる場合(フレーム78)及び値がゼロに近い他の場合と比較して、またフレーム80で両方が一緒に発光している場合であっても、「c」にある蛍光体が発光状態に切り替わると、3つの画素の輝度比が逆転する(フレーム76及び80)。フィルタ処理された全ての画素輝度時間トレースが一の画像系列に再結合された場合、フレーム80に対応するフィルタ処理された画像(312)は、画素「c」に中心を有するPSFの大きさである蛍光スポットを示す。フィルタとして第3のハールウェーブレットを適用することにより、フレーム78からフレーム82の間で発光状態に切り替わる「a」にある蛍光体によって引き起こされるより長い時間変動が分離される。この場合のフレーム80に対応するフィルタ処理された系列からの画像(314)は、画素「a」に中心を有するPSFの大きさである蛍光「スポット」を示す。フレーム80における2つの発光体からの蛍光の寄与(304)は、互いに2つの別々の画像フレーム(312及び314)に分離されたことになる。この状態においては標準の低密度用の局在化アルゴリズムでも2つの発光体/蛍光体の位置を高精度に個別に局在化できるはずだが、以前の場合であれば、2つの発光体の存在を識別できず、それ故に2つの蛍光体の間の中央の位置に誤って局在化されて、再構成においてアーチファクトを生じさせる。第1のハールウェーブレットフィルタからの出力は、単一フレームの時間より長く続く発光体の変動によるノイズを含む。「a」にある蛍光体が5フレームの期間(フレーム78からフレーム82)発光した際のこのフィルタ処理された系列からの出力フレームの例(316)は、このノイズの相対的な振幅がPSFを正確に反映していないことを示している。しかしながら、いくつかの局在化アルゴリズムは往々にして、このノイズを蛍光「スポット」としてフィッティングしようとする場合があり、再構成での画質低下につながる。これらの局在化へのフィッティングは強度が低く、物理的には広くも狭くもなく、必要に応じて、再構成時に用いられる局在化のリストから簡単に削除できる。この方法で分離できる重なり合う発光体の数は、それらが全て異なる時間スケールの変動に起因する限り、十分な信号対ノイズが与えられるので、本質的に制限はない。 The result (310) of using the first Haar wavelet (described in FIG. 4 and below) as a filter function for these three pixels shows only fluctuations that continue only during a single frame. Compared to the case where the phosphor in "a" is switched on (frame 78) and the other cases where the value is close to zero, and even when both are emitting light together in frame 80, "c". When the phosphor in "" is switched to the light emitting state, the brightness ratios of the three pixels are reversed (frames 76 and 80). When all filtered pixel luminance time traces are recombinated into one image sequence, the filtered image (312) corresponding to frame 80 is the size of the PSF centered on pixel "c". Indicates a certain fluorescent spot. By applying a third Haar wavelet as a filter, longer time variability caused by the fluorophore at "a" switching to the luminescent state between frames 78 and 82 is separated. The image (314) from the filtered sequence corresponding to the frame 80 in this case shows a fluorescence "spot" which is the size of the PSF centered on pixel "a". The fluorescence contribution (304) from the two illuminants in frame 80 is separated from each other into two separate image frames (312 and 314). In this state, the standard low-density localization algorithm should be able to localize the positions of the two illuminants / phosphors individually with high accuracy, but in the previous case, the existence of the two illuminants. Is indistinguishable and is therefore mislocalized at a central location between the two phosphors, causing an artifact in the reconstruction. The output from the first Haar wavelet filter contains noise due to illuminant fluctuations that last longer than a single frame of time. In the example (316) of the output frames from this filtered sequence when the fluorophore in "a" emits light for a period of 5 frames (frames 78 to 82), the relative amplitude of this noise determines the PSF. It shows that it is not reflected accurately. However, some localization algorithms often attempt to fit this noise as fluorescent "spots", leading to poor image quality in the reconstruction. The fittings to these localizations are low-strength, not physically wide or narrow, and can be easily removed from the list of localizations used during reconstruction, if desired. The number of overlapping illuminants that can be separated in this way is essentially unlimited, as long as they all result from variations on different time scales, sufficient signal vs. noise is provided.

フィルタセットは、隣接する又は近接するフレームの範囲にわたり、画素の輝度値を比較する任意のセットとすることができる。各フィルタは、輝度の変動に敏感な特徴的な時間スケールを有する。この観点から説明する例は、ハールウェーブレット関数をフィルタセットとして用いる。図4は、最初の4つのウェーブレット(それぞれ402,404,406,408)を示す。これらの関数は、データ圧縮局面では画像分析に広く使われてきた。ここで述べる方法で輝度時間トレースに適用した場合、これらの関数は、変化する時間スケールでのトレースにおけるある時点の前後の平均強度値の差分を示す。図3の(b)でマーク付けられた画素時間トレースへ第1のハールウェーブレットフィルタを適用したものを、開始フレーム80(410)及びフレーム82(412)に対するものとして示し、同様に第3のハールフィルタをフレーム80へ適用したもの(414)を示す。 The filter set can be any set that compares the brightness values of the pixels over a range of adjacent or adjacent frames. Each filter has a characteristic time scale that is sensitive to fluctuations in brightness. The example described from this point of view uses the Haar wavelet function as a filter set. FIG. 4 shows the first four wavelets (402, 404, 406, 408, respectively). These functions have been widely used for image analysis in the data compression phase. When applied to luminance time traces as described herein, these functions show the difference between the mean intensity values before and after a point in the trace on a changing time scale. The pixel time trace marked in FIG. 3B with the first Haar wavelet filter applied is shown for the start frames 80 (410) and 82 (412), as well as the third Haar. The filter applied to the frame 80 (414) is shown.

ここで、アルゴリズムの正確な実装の形態を2つの例で示す。どちらの例も上記ハールウェーブレット関数をフィルタセットとして用いる。最初の例は、含まれる個々のステップを強調して、行列の乗算により画素輝度時間トレースへフィルタを適用する方法を示す。次の例は、より簡潔な方法の実施として、時間トレースをカーネルと畳み込み演算する。 Here, two examples show the exact form of implementation of the algorithm. Both examples use the above Haar wavelet function as a filter set. The first example shows how to apply a filter to a pixel luminance time trace by matrix multiplication, highlighting the individual steps involved. The following example convolves the time trace with the kernel as a simpler implementation.

行列乗算の例:
第1のステップでは、未処理の画像系列から画素輝度トレースの集合を作成する。

Figure 2021513095

ここで、x,yは画素インデックス、tはフレーム番号である。各画素について、順に、その輝度トレースX(t)(列ベクトルとして)にハール行列を乗算して、その変換トレースY(t’)を生成する。
Figure 2021513095

ハール行列の非ゼロ要素は以下のように与えられる:
Figure 2021513095

ここで、i,jは行と列のインデックスであり、floor(..)は最も近い整数に切り捨てることを示し、Nはフレームの総数であって2の整数乗になるように切り捨てる必要があるものである。正の整数mは、ハールウェーブレット変換(HWT)の「レベル」を表す。各レベルは、最短(m=1)から最長(m=logN)までで、元の時間トレースにおいて異なる長さの蛍光体の点滅、及びDC成分に対応する。これは、単一フレームから画像の長さの半分まで続く輝度の変動(点滅)に一定の背景値(試料とカメラ成分の和)を加えたものに対応する。mの適切な値については後述する。単純な4フレームの輝度トレースのHWTの例を以下に示す:
Figure 2021513095

ここで、ハール行列の異なるフィルタレベルは、m=1(下の2行)、m=2(第2行)、及び背景(最上行)となる。 Matrix multiplication example:
In the first step, a set of pixel luminance traces is created from the unprocessed image sequence.
Figure 2021513095

Here, x and y are pixel indexes, and t is a frame number. For each pixel, the luminance trace X (t) (as a column vector) is multiplied by the Haar matrix in order to generate the transformation trace Y (t').
Figure 2021513095

The non-zero elements of the Haar matrix are given as follows:
Figure 2021513095

Here, i and j are the row and column indexes, floor (...) indicates to truncate to the nearest integer, and N is the total number of frames and needs to be truncate to the integer factorial of 2. It is a thing. The positive integer m represents the "level" of the Haar wavelet transform (HWT). Each level ranges from the shortest (m = 1) to the longest (m = log 2 N) and corresponds to different lengths of fluorescent flashes and DC components in the original time trace. This corresponds to a change in brightness (blinking) that lasts from a single frame to half the length of the image, plus a constant background value (sum of sample and camera components). An appropriate value of m will be described later. An example of an HWT for a simple 4-frame luminance trace is shown below:
Figure 2021513095

Here, the different filter levels of the Haar matrix are m = 1 (bottom two rows), m = 2 (second row), and background (top row).

次の段階では、変換された輝度トレースへフィルタ(レベルm)を適用する。これは、ハール行列の特定のレベルに対応しない列ベクトルの全ての要素をゼロに設定することによって行われる。

Figure 2021513095

フィルタ処理された画素の輝度トレースを取得するためにHWTの逆行列を適用する必要がある。ハール行列の逆行列は、その転置行列(transpose)と等しいため、簡単に求めることができる。
Figure 2021513095

フィルタ処理された画素の輝度トレースZ(m)は次式で与えられる:
Figure 2021513095

下記は、式(4)の変換された輝度トレースに対してフィルタレベルm=1を適用した後の上記の逆変換の例である。
Figure 2021513095

フィルタ処理された輝度トレースには、大きさが等しく符号が反対の奇数/偶数フレームのペアが含まれることに留意すべきである。これは単一ハール周波数成分を使用することによる避けられない結果であるが、符号の空間的相関は物理的に意味がある。PSFと同じ大きさの正値のクラスタは、奇数フレームから偶数フレームへと発光体の輝度が増加することを示す。反対に、同様の負値の集まりは、発光体輝度が低下することを示す。これは、奇数番号のフレームでは全ての負値をゼロに調整し(cropping)、且つ偶数番号のフレームでは全ての正値をゼロに調整してから−1を乗じることにより、オンとオフの遷移を区別するメカニズムを提供する。フィルタ処理された輝度トレースに対するこの調整手順は、次の条件式で表される:
Figure 2021513095

ここで、Z’(m)(t)は、調整された画素の輝度トレースである。 In the next step, a filter (level m) is applied to the converted luminance trace. This is done by setting all elements of the column vector that do not correspond to a particular level of the Haar matrix to zero.
Figure 2021513095

It is necessary to apply the inverse matrix of HWT to obtain the luminance trace of the filtered pixels. Since the inverse matrix of the Haar matrix is equal to its transpose, it can be easily obtained.
Figure 2021513095

The brightness trace Z (m) of the filtered pixels is given by:
Figure 2021513095

The following is an example of the above inverse transformation after applying the filter level m = 1 to the transformed luminance trace of equation (4).
Figure 2021513095

It should be noted that the filtered luminance trace contains odd / even frame pairs of equal size and opposite sign. This is an unavoidable result of using a single Haar frequency component, but the spatial correlation of the sign is physically meaningful. Positive clusters of the same size as the PSF indicate that the brightness of the illuminant increases from odd-numbered frames to even-numbered frames. On the contrary, a similar collection of negative values indicates that the luminous intensity of the illuminant decreases. This is a transition between on and off by cropping all negative values in odd-numbered frames, and adjusting all positive values to zero in even-numbered frames and then multiplying by -1. Provides a mechanism to distinguish between. This adjustment procedure for filtered luminance traces is expressed by the following conditional expression:
Figure 2021513095

Here, Z' (m) (t) is a brightness trace of the adjusted pixel.

この変換フィルタ逆変換処理は、画像系列内の全ての画素に対して繰り返され、フィルタ処理されていないトレースXxyの集合からフィルタ処理された輝度トレースZxy (m)の集合を生成する。これらが再び組み合わされ、フィルタ処理された画像系列I (m)が形成される。

Figure 2021513095
This transformation filter inverse transformation process is repeated for all pixels in the image series to generate a set of filtered luminance traces Z xy (m) from a set of unfiltered traces X xy. These are combined again filtered image sequence I n (m) is formed.
Figure 2021513095

最初のフィルタリングのレベルであるm=1の場合、HWTは輝度値を2つの隣接フレームの中の1つとのみ比較する。これは、全てのウェーブレット関数について1フレームだけシフトする(ハール行列の列を回転する)処理を繰り返すことにより、より簡単に修正できる。同様に、画像系列を1フレームだけ周期的に回転させることも有効である。これは偶数フレームを奇数フレームと比較することになる(2と3、4と5...)。この新しい画素の輝度トレースは以下のように与えられる:

Figure 2021513095

次に、この新しい画素の輝度トレースの集合X’(t)に対して、処理が繰り返される。結果である画像系列はその前の画像系列に追加され、フレーム数は元のデータの2倍になる。 For the first filtering level, m = 1, the HWT compares the luminance value with only one of the two adjacent frames. This can be more easily corrected by repeating the process of shifting by one frame (rotating the sequence of the Haar matrix) for all wavelet functions. Similarly, it is also effective to periodically rotate the image sequence by one frame. This will compare even frames with odd frames (2 and 3, 4 and 5 ...). The brightness trace of this new pixel is given as follows:
Figure 2021513095

Next, the process is repeated for the set X'(t) of the luminance traces of the new pixel. The resulting image sequence is added to the previous image sequence, and the number of frames is double that of the original data.

最終的な出力の画像系列は、所望のフィルタレベルmの各々に対して全処理を繰り返し、その結果の画像系列を合わせて追加することで取得され、元の画像系列よりはるかに長い画像系列が生成される。フィルタレベルm>1を実行すると、式7の出力は2(m−1)個の重複フレームを生成する。したがって、式9へ進む前に、Z(m)のうち2(m−1)番目を除く全ての要素を削除でき、その結果、輝度トレースは短くなり、式11から得られる画像系列は短くなる。しかし、出力の重複が生じる前に元の画像系列を2(m−1)回並べ替える(permute)ことができるので、各フィルタレベルは依然として合計で2N個のフレームを出力する。 The final output image sequence is obtained by repeating the entire process for each of the desired filter levels m and adding the resulting image sequence together, resulting in a much longer image sequence than the original image sequence. Generated. When the filter level m> 1 is executed, the output of Equation 7 produces 2 (m-1) overlapping frames. Therefore, before proceeding to Equation 9, all elements of Z (m) except the 2 (m-1) th can be deleted, resulting in a shorter luminance trace and a shorter image sequence obtained from Equation 11. .. However, since the original image sequence can be permuted 2 (m-1) times before the output overlap occurs, each filter level still outputs a total of 2N frames.

適用するフィルタレベルの適切な数は、蛍光体の点滅特性に依存することになる。本質的に、その一つは、発光体の「オン」時間の大部分をカバーする時間スケールの範囲を選択する試みである。したがって、この手順を、3番目、4番目又はそれ以上のレベルに対して続けることができるが(4,8,16...フレーム比較に対応する)、蛍光体の点滅特性が悪い場合やバッファ条件が最適からほど遠い場合を除いて、5番目のレベルを過ぎると十分に長く「オン」である発光体の数は少なくなる。しかし、より多くのフィルタレベルを選択することは、画像系列の大きさの増加及び関連する分析時間の増加以外に短所がほとんどない。実際には、元のフレームの総数Nが10個以上である場合、HWT計算における計算負荷は非常に重くなる可能性がある。したがって、画像系列はより小さな部分(例えば、256フレーム)に分割され得る。各部分は個別に処理され、その結果は単一画像系列に追加される。これは、Nが2の累乗でない場合に多過ぎるフレームが破棄されてしまうことも防げる。 The appropriate number of filter levels to apply will depend on the blinking characteristics of the phosphor. In essence, one is an attempt to select a time scale range that covers most of the "on" time of the illuminant. Therefore, this procedure can be continued for the 3rd, 4th or higher levels (corresponding to 4,8,16 ... frame comparison), but if the blinking characteristics of the phosphor are poor or buffered. Unless the conditions are far from optimal, the number of illuminants that are "on" long enough after the fifth level is reduced. However, choosing more filter levels has few disadvantages other than increased image sequence size and associated analysis time. In fact, if the total number of original frame N is 10 4 or more, the computational load in the HWT calculations can be very heavy. Therefore, the image sequence can be divided into smaller parts (eg, 256 frames). Each part is processed individually and the result is added to a single image series. This also prevents too many frames from being discarded if N is not a power of 2.

必要な数のフィルタレベルが適用されると、単発光体若しくは複発光体フィッティングアルゴリズムを用いた通常の方法により、又はSOFI若しくはSRRF等の非線形画像処理手法により、出力画像系列を分析できる。フィッティングを実行する際の唯一の差異は、背景が削除されているため、カメラの基準レベルをゼロに設定する必要があることである。さらに、フィルタリング、特に最初(m=1)のフィルタレベルは、画素輝度トレースへのノイズ(ショットノイズ、読出しノイズ等)の相対的な寄与を増加させる。これは、特に元の系列における発光体の輝度が低い場合に、処理される画像において比較的高輝度の単一画素を生成する可能性がある(316参照)。局在化アルゴリズムは、非常に狭い場合(単一実体の場合)又は非常に広い場合(拡散したクラスタの場合)の発光体PSFとして、これらをフィッティングしようとするかもしれない。アルゴリズムがそれをサポートしていれば、非物理的と言えるほどに広い又は狭いPSFを用いて行う局在化を、未処理データを用いて行うよりも大幅に省略することによって、再構成の画質を改善することができるが、それでもなお、未処理データの場合よりも多くの数の局在化が残る(注:代替として、アルゴリズムの出力段階にフィルタを導入して、これらの局所的に明るい画素を削除することもできる)。これは、偽ノイズによって引き起こされる局在化が、一般には、「実際の」発光体信号よりも低い輝度によるものだからである(信号対ノイズが非常に低い場合を除く)。低輝度における局在化をフィルタリングすることも(程度は低いが)効果的であり、3D局在化顕微鏡法の非点収差レンズ法とも両立できる。 Once the required number of filter levels have been applied, the output image sequence can be analyzed by conventional methods using single or double illuminant fitting algorithms, or by nonlinear image processing techniques such as SOFI or SRRF. The only difference when performing the fitting is that the background has been removed and the camera reference level must be set to zero. In addition, filtering, especially the first (m = 1) filter level, increases the relative contribution of noise (shot noise, readout noise, etc.) to the pixel luminance trace. This can produce relatively bright single pixels in the processed image, especially when the brightness of the illuminant in the original series is low (see 316). Localization algorithms may attempt to fit these as illuminant PSFs in very narrow cases (in the case of a single entity) or in very wide cases (in the case of diffuse clusters). If the algorithm supports it, the image quality of the reconstruction can be significantly reduced by significantly omitting localization using non-physically wide or narrow PSFs as compared to using raw data. Can be improved, but still a larger number of localizations remain than in the case of raw data (Note: as an alternative, a filter is introduced at the output stage of the algorithm to make these locally brighter. You can also delete the pixel). This is because the localization caused by false noise is generally due to lower luminance than the "real" illuminant signal (unless the signal vs. noise is very low). Filtering localization at low brightness is also effective (to a lesser extent) and is compatible with the astigmatism lens method of 3D localized microscopy.

カーネル畳み込み(Kernel convolution)の例:
ハールフィルタは、1次元の画像カーネルとして同様に表現できる。最初の3つのハールカーネルの大きさは、それぞれ、2、4、8であり、次のように与えられる:

Figure 2021513095

Figure 2021513095

Figure 2021513095

先に述べたように、各画素を個別に輝度時系列として扱う。したがって、画像スタック(l(x,y,t))が与えられると、ある画素位置x,yに対して、時系列はX(t)=l(x,y,t)となる。次に、Xとカーネルとの畳み込みを計算する:
Figure 2021513095

等、ここで*は離散的畳み込みの演算子である。Xをパディングしないので、結果であるZはXよりも短くなる。画素x,yに対して、様々なZを連結することによって最終的な時系列を作成する:
Figure 2021513095

ここで、nはZにおける要素の数である。蛍光体がオフに切り替わると、Zに負値が生じる。最後のステップでは、正値と負値をZ’に分離する。
Figure 2021513095

代替として、絶対値を使うこともできる:
Figure 2021513095

最終的な時間系列Z’のそれぞれを画像スタックに再構成し、ThunderSTORM等のサードパーティアルゴリズムで各フレームを個別に分析する。 Example of kernel convolution:
The Haar filter can be similarly represented as a one-dimensional image kernel. The sizes of the first three Haar kernels are 2, 4, and 8, respectively, given:
Figure 2021513095

Figure 2021513095

Figure 2021513095

As mentioned earlier, each pixel is treated individually as a luminance time series. Therefore, given an image stack (l (x, y, t)), the time series is X (t) = l (x, y, t) for a certain pixel position x, y. Next, calculate the convolution between X and the kernel:
Figure 2021513095

Etc., where * is a discrete convolution operator. Since X is not padded, the resulting Z is shorter than X. Create a final time series by concatenating various Z's for pixels x, y:
Figure 2021513095

Here, ni is the number of elements in Z i. When the phosphor is switched off, a negative value occurs in Z. In the final step, the positive and negative values are separated into Z'.
Figure 2021513095

As an alternative, you can use the absolute value:
Figure 2021513095

Each of the final time series Z'is reconstructed into an image stack, and each frame is analyzed individually by a third party algorithm such as ThunderSTORM.

このアルゴリズムの実施は、計算が非常に高速であり、その後の局在化分析よりもはるかに短い時間しかかからない。単発光体のガウシアンフィッティングと組み合わせると、精度が向上するだけでなく、計算が最も高速な高密度方法の1つになる。 The implementation of this algorithm is very fast and takes much less time than subsequent localization analysis. Combined with the Gaussian fitting of a single illuminant, it not only improves accuracy, but also makes it one of the fastest high-density methods of calculation.

(ThunderSTORMの参考文献)「ThunderSTORM:A comprehensive ImageJ plug−in for PALM and STORM data analysis and super−resolution imaging. Bioinformatics」,Ovensy,M.,Krizek,P.,Borkovec,J.,Svindrych,Z.及びHagen,G.M.著,Bioinformatics,30巻,ページ2389〜2390、2014年 (References of ThunderSTORM) "ThunderSTORM: A comprehensive ImageJ plug-in for PALM and STORM data analysis and super-resolution imaging. , Chrisek, P. et al. , Borkovec, J. Mol. , Svindrych, Z. et al. And Hagen, G. et al. M. Written by Bioinformatics, Vol. 30, pp. 2389-2390, 2014

追加、削除、又は置換のいずれかよる様々なさらなる改変を、先に述べた実施に行って、さらなる実施が提供されてもよいが、それらの全ては付帯する特許請求の範囲に含まれることとする。
Various further modifications, either additions, deletions, or substitutions, may be made to the aforementioned implementations to provide further implementations, all of which are included in the accompanying claims. To do.

Claims (15)

顕微鏡によって取り込まれた顕微鏡画像フレームの時間的な系列を受け取るステップであって、前記画像フレームはその中に発光体又は蛍光体を含む画像である、ステップと;
前記フレーム内の同じ画素位置のそれぞれに対する時間的にフィルタ処理された複数の画素値のそれぞれの集合を取得するために、異なるフィルタ特性を有する複数の時間的フィルタを用いて、前記フレームの前記系列における前記同じ画素位置のそれぞれに対する画素値の集合のそれぞれを時間的にフィルタ処理するステップと;
前記時間的にフィルタ処理された画素値の前記集合のそれぞれを局在化アルゴリズムへの入力として提供することによりそれに依存して発光体又は蛍光体の局在化を可能とするステップと;を備える、
局在化顕微鏡法のための方法。
A step of receiving a temporal sequence of microscopic image frames captured by a microscope, wherein the image frame is an image containing a luminescent material or a fluorophore.
To obtain each set of temporally filtered pixel values for each of the same pixel positions in the frame, the sequence of the frame is used with a plurality of temporal filters having different filter characteristics. With the step of temporally filtering each of the set of pixel values for each of the same pixel positions in
It comprises a step of providing each of the temporally filtered set of pixel values as an input to a localization algorithm to allow localization of the illuminant or phosphor depending on it. ,
A method for localized microscopy.
前記時間的にフィルタ処理するステップは、
前記画像フレーム内の画素位置に対して、前記画像フレーム内の前記同じ画素位置での画素値に対応する画素トレースを形成するステップと;
第1の時間的フィルタを前記画素トレース内の前記画素値に適用して第1のフィルタ処理された画素トレースを取得するステップと;
少なくとも前記第1の時間的フィルタとは異なる第2の時間的フィルタを、前記トレース内の前記画素値に適用して第2のフィルタ処理された画素トレースを取得するステップと;
前記第1のフィルタ処理された画素トレースと前記第2のフィルタ処理された画素トレースとを組み合わせて、前記局在化アルゴリズムへの入力のためのフィルタ処理された単一の出力トレースとするステップと;を備える、
請求項1に記載の方法。
The time-filtering step
With respect to the pixel position in the image frame, a step of forming a pixel trace corresponding to the pixel value at the same pixel position in the image frame;
With the step of applying the first temporal filter to the pixel value in the pixel trace to obtain the first filtered pixel trace;
A step of applying at least a second temporal filter different from the first temporal filter to the pixel values in the trace to obtain a second filtered pixel trace;
A step of combining the first filtered pixel trace with the second filtered pixel trace into a single filtered output trace for input to the localization algorithm. With;
The method according to claim 1.
少なくとも前記第1の時間的フィルタ及び前記第2の時間的フィルタとは異なる第3の時間的フィルタを前記トレース内の前記画素値に適用して、第3のフィルタ処理された画素トレースを取得するステップと;
前記第1のフィルタ処理された画素トレースと、前記第2のフィルタ処理された画素トレースと、前記第3のフィルタ処理された画素トレースとを組み合わせて、前記局在化アルゴリズムへの入力のためのフィルタ処理された単一の出力トレースとするステップと;を更に備える、
請求項2に記載の方法。
At least a third temporal filter different from the first temporal filter and the second temporal filter is applied to the pixel values in the trace to obtain a third filtered pixel trace. With steps;
The first filtered pixel trace, the second filtered pixel trace, and the third filtered pixel trace are combined for input to the localization algorithm. Further with a step of making a single filtered output trace;
The method according to claim 2.
組み合わされた出力トレースを形成するために、前記第1、前記第2、及び前記第3のフィルタ処理された画素トレースが連結される、
請求項2又は請求項3に記載の方法。
The first, second, and third filtered pixel traces are concatenated to form a combined output trace.
The method according to claim 2 or 3.
前記時間的フィルタは、
i)ハールウェーブレットカーネル;
ii)バターワース;又は
iii)チェビシェフ;を備えるグループから選択される、
請求項1乃至請求項4のいずれか1項に記載の方法。
The time filter is
i) Haar wavelet kernel;
Selected from groups with ii) Butterworth; or ii) Chebyshev;
The method according to any one of claims 1 to 4.
前記複数の時間的フィルタは、同じ種類ではあるが異なる時間的特性を有する時間的フィルタであり、前記時間的特性は、画素のフィルタ処理された値が現在検出されている現フレームの周辺の連続フレームの数に関係し、前記フィルタ処理された値の計算に寄与する、
請求項1乃至請求項5のいずれか1項に記載の方法。
The plurality of temporal filters are temporal filters of the same type but having different temporal characteristics, and the temporal characteristics are continuous around the current frame in which the filtered value of the pixel is currently detected. It is related to the number of frames and contributes to the calculation of the filtered value.
The method according to any one of claims 1 to 5.
前記顕微鏡を単独で用いた場合の解像度よりも高い解像度で前記入力画像内の発光体又は蛍光体の前記位置を識別するために、時間的にフィルタ処理された画素値の前記集合のそれぞれに対して前記局在化アルゴリズムを適用するステップを更に備える、
請求項1乃至請求項6のいずれか1項に記載の方法。
For each of the sets of time-filtered pixel values to identify the position of the illuminant or phosphor in the input image at a higher resolution than when the microscope was used alone. Further include the step of applying the localization algorithm.
The method according to any one of claims 1 to 6.
コンピュータ読取可能な顕微鏡画像フレームを生成するように構成された顕微鏡法のシステムと;
プロセッサと;
前記プロセッサによって実行されると、前記プロセッサに所定の動作を実行させるコンピュータ読取可能な命令を格納するコンピュータ読取可能な記憶媒体であって、前記所定の動作は、
i)前記顕微鏡法のシステムによって取り込まれた顕微鏡画像フレームの時間的な系列を受け取る動作であって、前記画像フレームはその中に発光体又は蛍光体を含む画像である、動作と;
ii)前記フレーム内の同じ画素位置のそれぞれに対する時間的にフィルタ処理された複数の画素値のそれぞれの集合を取得するために、異なるフィルタ特性を有する複数の時間的フィルタを用いて、前記フレームの前記系列における前記同じ画素位置のそれぞれに対する画素値の集合のそれぞれに対して時間的にフィルタ処理する動作と;
iii)時間的にフィルタ処理された画素値の前記集合のそれぞれを局在化アルゴリズムへの入力として提供することによりそれに依存して発光体又は蛍光体の局在化を可能とする動作と;を備える、前記コンピュータ読取可能な記憶媒体と;を備える、
局在化顕微鏡法のシステム。
With a system of microscopy configured to produce computer-readable microscopic image frames;
With a processor;
A computer-readable storage medium that stores computer-readable instructions that cause the processor to perform a predetermined operation when executed by the processor, wherein the predetermined operation is performed.
i) The operation of receiving a temporal sequence of microscopic image frames captured by the microscopic system, wherein the image frame is an image containing a luminescent material or a phosphor.
ii) In order to obtain each set of temporally filtered pixel values for each of the same pixel positions in the frame, a plurality of temporal filters having different filter characteristics are used to obtain the frame. The operation of temporally filtering each of the set of pixel values for each of the same pixel positions in the series;
iii) An operation that enables localization of a illuminant or a phosphor depending on each of the temporally filtered set of pixel values as an input to a localization algorithm; With the computer-readable storage medium;
Localized microscopy system.
前記時間的にフィルタ処理する動作は、
前記画像フレーム内の画素位置に対して、前記画像フレーム内の前記同じ画素位置での画素値に対応する画素トレースを形成する動作と;
第1の時間的フィルタを前記画素トレース内の前記画素値に適用して、第1のフィルタ処理された画素トレースを取得する動作と;
少なくとも前記第1の時間的フィルタとは異なる第2の時間的フィルタを前記トレース内の前記画素値に適用して、第2のフィルタ処理された画素トレースを取得する動作と;
前記第1のフィルタ処理された画素トレースと前記第2のフィルタ処理された画素トレースとを組み合わせて、前記局在化アルゴリズムへの入力のためのフィルタ処理された単一の出力トレースとする動作と;を備える、
請求項8に記載のシステム。
The operation of filtering in time is
An operation of forming a pixel trace corresponding to a pixel value at the same pixel position in the image frame with respect to the pixel position in the image frame;
The operation of applying the first temporal filter to the pixel value in the pixel trace to obtain the first filtered pixel trace;
An operation of applying at least a second temporal filter different from the first temporal filter to the pixel values in the trace to obtain a second filtered pixel trace;
The operation of combining the first filtered pixel trace and the second filtered pixel trace into a single filtered output trace for input to the localization algorithm. With;
The system according to claim 8.
前記所定の動作は、少なくとも前記第1の時間的フィルタ及び前記第2の時間的フィルタとは異なる第3の時間的フィルタを前記トレース内の前記画素値に適用して、第3のフィルタ処理された画素トレースを取得する動作と;
前記第1のフィルタ処理された画素トレースと、前記第2のフィルタ処理された画素トレースと、前記第3のフィルタ処理された画素トレースとを組み合わせて、前記局在化アルゴリズムへの入力のためのフィルタ処理された単一の出力トレースとする動作と;を更に備える、
請求項9に記載のシステム。
The predetermined operation is subjected to a third filtering process by applying at least a third temporal filter different from the first temporal filter and the second temporal filter to the pixel values in the trace. With the operation of acquiring the pixel trace
The first filtered pixel trace, the second filtered pixel trace, and the third filtered pixel trace are combined for input to the localization algorithm. Further with the behavior of a single filtered output trace;
The system according to claim 9.
組み合わされた出力トレースを形成するために、前記第1、前記第2及び前記第3のフィルタ処理された画素トレースが連結される、
請求項9又は請求項10に記載のシステム。
The first, second and third filtered pixel traces are concatenated to form a combined output trace.
The system according to claim 9 or 10.
前記時間的フィルタは、
i)ハールウェーブレットカーネル;
ii)バターワース;又は、
iii)チェビシェフ;を備えるグループから選択される、
請求項8乃至請求項11のいずれか1項に記載のシステム。
The time filter is
i) Haar wavelet kernel;
ii) Butterworth; or
iii) Chosen from a group with Chebyshev;
The system according to any one of claims 8 to 11.
前記複数の時間的フィルタは、同じ種類ではあるが異なる時間的特性を有する時間的フィルタであり、前記時間的特性は、画素のフィルタ処理された値が現在検出されている現フレームの周辺の連続フレームの数に関係し、前記フィルタ処理された値の計算に寄与する、
請求項8乃至請求項12のいずれか1項に記載のシステム。
The plurality of temporal filters are temporal filters of the same type but having different temporal characteristics, and the temporal characteristics are continuous around the current frame in which the filtered value of the pixel is currently detected. It is related to the number of frames and contributes to the calculation of the filtered value.
The system according to any one of claims 8 to 12.
前記所定の動作は、前記顕微鏡を単独で用いた場合の解像度よりも高い解像度で前記入力画像内の発光体又は蛍光体の前記位置を識別するために、時間的にフィルタ処理された画素値の前記集合のそれぞれに対して前記局在化アルゴリズムを適用する動作を更に備える、
請求項8乃至請求項12のいずれか1項に記載のシステム。
The predetermined operation is a time-filtered pixel value to identify the position of the illuminant or phosphor in the input image at a resolution higher than that when the microscope is used alone. Further comprising the operation of applying the localization algorithm to each of the sets.
The system according to any one of claims 8 to 12.
コンピュータによって実行されると、前記コンピュータに請求項1乃至請求項7のいずれか1項に記載の方法を実行させるコンピュータ読取可能な命令を備える、
コンピュータプログラム。
A computer-readable instruction that, when executed by a computer, causes the computer to perform the method according to any one of claims 1 to 7.
Computer program.
JP2020536947A 2018-01-02 2018-12-21 Method and system for localization microscopy Active JP7228917B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GBGB1800026.5A GB201800026D0 (en) 2018-01-02 2018-01-02 Method & systems for localisation microscopy
GB1800026.5 2018-01-02
GB1803638.4 2018-03-07
GBGB1803638.4A GB201803638D0 (en) 2018-03-07 2018-03-07 Method and system for localisation microscopy
PCT/GB2018/053765 WO2019135069A1 (en) 2018-01-02 2018-12-21 Method and system for localisation microscopy

Publications (2)

Publication Number Publication Date
JP2021513095A true JP2021513095A (en) 2021-05-20
JP7228917B2 JP7228917B2 (en) 2023-02-27

Family

ID=64949339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020536947A Active JP7228917B2 (en) 2018-01-02 2018-12-21 Method and system for localization microscopy

Country Status (5)

Country Link
US (1) US11169368B2 (en)
EP (1) EP3735606B1 (en)
JP (1) JP7228917B2 (en)
CN (1) CN111656246B (en)
WO (1) WO2019135069A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022131444A1 (en) 2022-11-28 2024-05-29 Carl Zeiss Microscopy Gmbh Method for identifying analytes in an image sequence
DE102022131445A1 (en) 2022-11-28 2024-05-29 Carl Zeiss Microscopy Gmbh Method and apparatus for processing data to identify analytes
DE102022131447A1 (en) 2022-11-28 2024-05-29 Carl Zeiss Microscopy Gmbh Method and apparatus for processing data to identify analytes
DE102022131446A1 (en) 2022-11-28 2024-05-29 Carl Zeiss Microscopy Gmbh Method and apparatus for processing data to identify analytes
DE102022131448A1 (en) 2022-11-28 2024-05-29 Carl Zeiss Microscopy Gmbh Method and apparatus for processing data to identify analytes
DE102022131449A1 (en) 2022-11-28 2024-05-29 Carl Zeiss Microscopy Gmbh Method and apparatus for processing data to identify analytes
DE102022131450A1 (en) 2022-11-28 2024-05-29 Carl Zeiss Microscopy Gmbh Method and apparatus for processing data to identify analytes
DE102022131451A1 (en) 2022-11-28 2024-05-29 Carl Zeiss Microscopy Gmbh Method and device for determining a signal composition of signal sequences of an image sequence

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1079024A (en) * 1996-07-24 1998-03-24 Philips Electron Nv Method and device for time-filtering noise in image in sequence of digital picture
US20030011674A1 (en) * 2001-07-14 2003-01-16 Leica Microsystems Heidelberg Gmbh Method and system for adjusting the image acquisition system of a microscope
JP2004053498A (en) * 2002-07-23 2004-02-19 Matsushita Electric Ind Co Ltd Microscope image analyzing apparatus and its image analyzing method
US20090237501A1 (en) * 2008-03-19 2009-09-24 Ruprecht-Karis-Universitat Heidelberg Kirchhoff-Institut Fur Physik method and an apparatus for localization of single dye molecules in the fluorescent microscopy
JP2012078827A (en) * 2010-09-30 2012-04-19 Carl Zeiss Microimaging Gmbh Microscope system, microscopy and storage medium
JP2012530947A (en) * 2009-06-26 2012-12-06 カール ツァイス マイクロスコピー ゲーエムベーハー Method for evaluating fluorescence events in microscopic images
WO2013047284A1 (en) * 2011-09-26 2013-04-04 シャープ株式会社 Image processing device, image processing method, image processing program, and recording medium storing image processing program
JP2013531221A (en) * 2010-04-28 2013-08-01 フェーイーベー フェーゼットウェー Method and apparatus for imaging of labeled biological samples
DE102012102707A1 (en) * 2012-03-29 2013-10-02 Carl Zeiss Ag Methods and apparatus for image processing
CN104202609A (en) * 2014-09-25 2014-12-10 深圳市云朗网络科技有限公司 Video coding method and video decoding method
JP2015041164A (en) * 2013-08-20 2015-03-02 キヤノン株式会社 Image processor, image processing method and program
JP2015516063A (en) * 2012-05-02 2015-06-04 サントル ナショナル ドゥ ラ ルシェルシュ シアンティフィク Method and apparatus for single particle localization using wavelet analysis
WO2016157346A1 (en) * 2015-03-27 2016-10-06 株式会社ニコン Microscope device, viewing method, and control program
JP2017004024A (en) * 2009-12-22 2017-01-05 カール ツァイス マイクロスコピー ゲーエムベーハーCarl Zeiss Microscopy Gmbh High-resolution microscope and method for adjusting two-dimensional or three-dimensional position of object

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6215587B1 (en) * 1994-02-14 2001-04-10 Robert R. Alfano Microscope imaging inside highly scattering media
EP1432976A4 (en) * 2001-09-05 2007-11-28 Genicon Sciences Corp Apparatus for reading signals generated from resonance light scattered particle labels
RU2305270C2 (en) * 2005-05-18 2007-08-27 Андрей Алексеевич Климов Fluorescent nanoscopy method (variants)
EP2453239B1 (en) * 2005-05-23 2017-04-26 Harald F. Hess Optical microscopy with transformable optical labels
WO2006127592A2 (en) 2005-05-26 2006-11-30 Othera Pharmaceuticals, Inc. Use of hydroxylamine derivates for inhibiting vitrectomy-induced cataracts
US7485875B2 (en) * 2005-07-22 2009-02-03 Carl Zeiss Microimaging Gmbh Resolution-enhanced luminescence microscopy
KR20140010190A (en) * 2006-04-03 2014-01-23 퀄컴 인코포레이티드 Preprocessor method and apparatus
US7838302B2 (en) * 2006-08-07 2010-11-23 President And Fellows Of Harvard College Sub-diffraction limit image resolution and other imaging techniques
US7776613B2 (en) * 2006-08-07 2010-08-17 President And Fellows Of Harvard College Sub-diffraction image resolution and other imaging techniques
US7916304B2 (en) * 2006-12-21 2011-03-29 Howard Hughes Medical Institute Systems and methods for 3-dimensional interferometric microscopy
DE102007018048A1 (en) * 2007-04-13 2008-10-16 Michael Schwertner Method and arrangement for optical imaging with depth discrimination
US8564792B2 (en) * 2007-12-21 2013-10-22 President And Fellows Of Harvard College Sub-diffraction limit image resolution in three dimensions
GB0900526D0 (en) * 2009-01-14 2009-02-11 Perkinelmer Ltd Fluorescence microscopy methods and apparatus
DE102009005953A1 (en) * 2009-01-19 2010-07-22 Universität Tübingen Method and system for characterizing a sample by means of imaging fluorescence microscopy
WO2011112559A2 (en) * 2010-03-08 2011-09-15 Bruce Adams System, method and article for normalization and enhancement of tissue images
DE102010037190B4 (en) * 2010-08-27 2015-11-26 Leica Microsystems Cms Gmbh Device for temporally shifting white light laser pulses
US9523846B2 (en) * 2010-09-24 2016-12-20 Carl Zeiss Microscopy Gmbh 3D localisation microscopy and 4D localisation microscopy and tracking methods and systems
US10908403B2 (en) * 2011-02-14 2021-02-02 European Molecular Biology Laboratory (Embl) Light-pad microscope for high-resolution 3D fluorescence imaging and 2D fluctuation spectroscopy
US9104903B2 (en) * 2012-03-16 2015-08-11 University Of Utah Research Foundation Microscopy visualization
EP2834695B1 (en) * 2012-04-03 2021-08-25 University Court of The University of St Andrews High resolution imaging of extended volumes
JP6335160B2 (en) * 2012-04-13 2018-05-30 バイオアキシアル エスエーエス Optical measuring method and optical measuring device
FR2989472B1 (en) * 2012-04-13 2015-09-25 Bioaxial METHOD AND OPTICAL DEVICE
TW201404879A (en) * 2012-07-31 2014-02-01 Nat Defense Medical Ct Nonadhesive sphere cell culture container, system, and method
JP6161276B2 (en) * 2012-12-12 2017-07-12 キヤノン株式会社 Measuring apparatus, measuring method, and program
WO2014145620A2 (en) * 2013-03-15 2014-09-18 The Broad Institute, Inc. Novel hybridization probes and uses thereof
DE102013218231A1 (en) * 2013-09-11 2015-03-12 Sirona Dental Systems Gmbh Optical system for generating a time-varying pattern for a confocal microscope
CN103592278B (en) * 2013-11-21 2016-01-20 中国计量学院 Based on random position super-resolution microscopic method and the device of fluorescent emission inhibiting mechanism
WO2015117115A1 (en) * 2014-02-03 2015-08-06 President And Fellows Of Harvard College Three-dimensional super-resolution fluorescence imaging using airy beams and other techniques
JP6378931B2 (en) * 2014-05-21 2018-08-22 浜松ホトニクス株式会社 Microscope device and image acquisition method
US10795144B2 (en) * 2014-12-06 2020-10-06 Howard Hughes Medical Institute Microscopy with structured plane illumination and point accumulation for imaging and nanoscale topography
US10921255B2 (en) * 2014-12-09 2021-02-16 Bioaxial Sas Optical measuring device and process
KR20170141784A (en) * 2015-04-30 2017-12-26 지멘스 악티엔게젤샤프트 Optical emission measurement device and method for measuring light emission
ES2862905T3 (en) 2015-06-19 2021-10-08 Us Gov Sec Navy Determination of the extracellular concentration of analytes with nanoplasmonic sensors
CN108603836A (en) * 2015-12-02 2018-09-28 美国政府健康及人类服务部 As the fluorescence nano diamond for microscopy and the reference mark of fluorescence imaging
DE102015016353A1 (en) 2015-12-16 2017-06-22 Horst Wochnowski PALM method with several only marginally different fluorophores
WO2017177180A1 (en) * 2016-04-08 2017-10-12 ARIZONA BOARD OF REGENTS on behalf of THE UNIVERSITY OF ARIZONA, A BODY CORPORATE Systems and methods for extended depth-of-field microscopy
CN109477095A (en) * 2016-05-26 2019-03-15 卓异生物公司 Array and its application for Single Molecule Detection
WO2017223426A1 (en) * 2016-06-24 2017-12-28 Howard Hughes Medical Institute Automated adjustment of light sheet geometry in a microscope
DE102017211031A1 (en) * 2016-11-21 2018-05-24 Carl Zeiss Microscopy Gmbh Method and microscope for determining a fluorescence intensity
US10573003B2 (en) * 2017-02-13 2020-02-25 Amit Sethi Systems and methods for computational pathology using points-of-interest
GB201704275D0 (en) * 2017-03-17 2017-05-03 Science And Tech Facilities Council Super-resolution microscopy
US11255785B2 (en) * 2019-03-14 2022-02-22 Applied Materials, Inc. Identifying fiducial markers in fluorescence microscope images
WO2020186029A1 (en) * 2019-03-14 2020-09-17 Applied Materials, Inc. Identifying fiducial markers in microscope images

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1079024A (en) * 1996-07-24 1998-03-24 Philips Electron Nv Method and device for time-filtering noise in image in sequence of digital picture
US20030011674A1 (en) * 2001-07-14 2003-01-16 Leica Microsystems Heidelberg Gmbh Method and system for adjusting the image acquisition system of a microscope
JP2004053498A (en) * 2002-07-23 2004-02-19 Matsushita Electric Ind Co Ltd Microscope image analyzing apparatus and its image analyzing method
US20090237501A1 (en) * 2008-03-19 2009-09-24 Ruprecht-Karis-Universitat Heidelberg Kirchhoff-Institut Fur Physik method and an apparatus for localization of single dye molecules in the fluorescent microscopy
JP2011514532A (en) * 2008-03-19 2011-05-06 ルプレヒト−カールス−ウニヴェルジテート ハイデルベルク Method and apparatus for the localization of a single dye molecule in a fluorescence microscope
JP2012530947A (en) * 2009-06-26 2012-12-06 カール ツァイス マイクロスコピー ゲーエムベーハー Method for evaluating fluorescence events in microscopic images
JP2017004024A (en) * 2009-12-22 2017-01-05 カール ツァイス マイクロスコピー ゲーエムベーハーCarl Zeiss Microscopy Gmbh High-resolution microscope and method for adjusting two-dimensional or three-dimensional position of object
JP2013531221A (en) * 2010-04-28 2013-08-01 フェーイーベー フェーゼットウェー Method and apparatus for imaging of labeled biological samples
JP2012078827A (en) * 2010-09-30 2012-04-19 Carl Zeiss Microimaging Gmbh Microscope system, microscopy and storage medium
WO2013047284A1 (en) * 2011-09-26 2013-04-04 シャープ株式会社 Image processing device, image processing method, image processing program, and recording medium storing image processing program
DE102012102707A1 (en) * 2012-03-29 2013-10-02 Carl Zeiss Ag Methods and apparatus for image processing
JP2015516063A (en) * 2012-05-02 2015-06-04 サントル ナショナル ドゥ ラ ルシェルシュ シアンティフィク Method and apparatus for single particle localization using wavelet analysis
JP2015041164A (en) * 2013-08-20 2015-03-02 キヤノン株式会社 Image processor, image processing method and program
CN104202609A (en) * 2014-09-25 2014-12-10 深圳市云朗网络科技有限公司 Video coding method and video decoding method
WO2016157346A1 (en) * 2015-03-27 2016-10-06 株式会社ニコン Microscope device, viewing method, and control program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHARLES KERVRANN ET AL.: "A Guided Tour of Selected Image Processing and Analysis Methods for Fluorescence and Electron Micros", IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSING, vol. 10, no. 1, JPN6022039152, 1 February 2016 (2016-02-01), pages 6 - 30, XP055569606, ISSN: 0004877246, DOI: 10.1109/JSTSP.2015.2505402 *
EELCO HOOGENDOORN ET AL.: "The fidelity of stochastic single-molecule super-resolution reconstructions critically depends upon", SCIENTIFIC REPORTS, vol. Vol. 4, Article number 3854, JPN6022039153, 24 January 2014 (2014-01-24), pages 1 - 10, ISSN: 0004877245 *

Also Published As

Publication number Publication date
EP3735606A1 (en) 2020-11-11
EP3735606B1 (en) 2023-03-22
WO2019135069A1 (en) 2019-07-11
US20200348504A1 (en) 2020-11-05
CN111656246B (en) 2022-07-29
US11169368B2 (en) 2021-11-09
CN111656246A (en) 2020-09-11
JP7228917B2 (en) 2023-02-27

Similar Documents

Publication Publication Date Title
JP2021513095A (en) Methods and systems for localized microscopy
EP2966492B1 (en) Method and apparatus for single-particle localization using wavelet analysis
US20110043619A1 (en) Resolution-Enhanced Luminescence Microscopy
JP5870821B2 (en) Apparatus, system, method, and program for image analysis of multiple fluorescent images
Deng et al. Spatial covariance reconstructive (SCORE) super-resolution fluorescence microscopy
US11915360B2 (en) Volumetric microscopy methods and systems using recurrent neural networks
Zhao et al. Faster super-resolution imaging with auto-correlation two-step deconvolution
EP3471393B1 (en) Data recovery device, microscope system, and data recovery method
Li et al. Rethinking resolution estimation in fluorescence microscopy: from theoretical resolution criteria to super-resolution microscopy
WO2019152216A1 (en) Systems and methods for robust background correction and/or emitter localization for super-resolution localization microscopy
Rieger et al. Image processing and analysis for single-molecule localization microscopy: Computation for nanoscale imaging
Xue et al. Hessian single-molecule localization microscopy using sCMOS camera
Hazelwood et al. Entering the portal: understanding the digital image recorded through a microscope
JP7009550B2 (en) Image processing equipment, systems and methods for improving the signal-to-noise ratio of microscopic images
Cabriel et al. Event-based vision sensor enables fast and dense single-molecule localization microscopy
Mayerich et al. Superresolution Image Processing
US20240233158A9 (en) Method and device for light field microscopy
CN113191981A (en) Deep two-photon calcium imaging method and device based on non-negative matrix decomposition
Fersini et al. Direct access to optical aberration information in fluorescence laser scanning microscopy using detector arrays
Geng et al. Blind optical sectioning and super-resolution imaging in multifocal structured illumination microscopy
DE102021122720A1 (en) SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES
WO2022117695A1 (en) Superresolution optical imaging system and method
WO2024003253A1 (en) Computer-implemented multispectral imaging method and system
Barsic Localization of Dense Clusters of Nanoscale Emitters for Super-resolution Microscopy
Vicente et al. Evaluation of 3D image-treatment algorithms applied to optical-sectioning microscopy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230207

R150 Certificate of patent or registration of utility model

Ref document number: 7228917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150