JP2022507259A - ホログラフィック顕微鏡画像を様々なモダリティの顕微鏡画像に変換するためのシステムおよび方法 - Google Patents

ホログラフィック顕微鏡画像を様々なモダリティの顕微鏡画像に変換するためのシステムおよび方法 Download PDF

Info

Publication number
JP2022507259A
JP2022507259A JP2021525740A JP2021525740A JP2022507259A JP 2022507259 A JP2022507259 A JP 2022507259A JP 2021525740 A JP2021525740 A JP 2021525740A JP 2021525740 A JP2021525740 A JP 2021525740A JP 2022507259 A JP2022507259 A JP 2022507259A
Authority
JP
Japan
Prior art keywords
image
microscope
sample
holographic
different
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021525740A
Other languages
English (en)
Inventor
オズキャン,アイドガン
リヴェンソン,ヤイル
ユ,イチェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of California
Original Assignee
University of California
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of California filed Critical University of California
Publication of JP2022507259A publication Critical patent/JP2022507259A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0008Microscopes having a simple construction, e.g. portable microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/0443Digital holography, i.e. recording holograms with digital recording means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0866Digital holographic imaging, i.e. synthesizing holobjects from holograms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/26Processes or apparatus specially adapted to produce multiple sub- holograms or to obtain images from them, e.g. multicolour technique
    • G03H1/268Holographic stereogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0016Technical microscopes, e.g. for inspection or measuring in industrial production processes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • G03H2001/005Adaptation of holography to specific applications in microscopy, e.g. digital holographic microscope [DHM]
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/0443Digital holography, i.e. recording holograms with digital recording means
    • G03H2001/0447In-line recording arrangement
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0866Digital holographic imaging, i.e. synthesizing holobjects from holograms
    • G03H2001/0883Reconstruction aspect, e.g. numerical focusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Image Analysis (AREA)
  • Microscoopes, Condenser (AREA)
  • Holo Graphy (AREA)

Abstract

トレーニングされた深層ニューラルネットワークが、ホログラフィック顕微鏡で取得したサンプルの画像を、異なる顕微鏡画像モダリティを有する顕微鏡で取得した顕微鏡画像に実質的に類似した画像に変換する。異なる画像モダリティの例には、明視野、蛍光、および暗視野が含まれる。明視野アプリケーションの場合、深層学習により、サンプルのホログラフィック画像に明視野顕微鏡コントラストが与えられ、ホログラフィのボリュームイメージング機能と、明視野顕微鏡のスペックルやアーチファクトのない画像コントラストとなる。ホログラフィック顕微鏡で得られたホログラフィック顕微鏡画像は、トレーニングされた深層ニューラルネットワークに入力され、サンプルボリューム内の特定の深度に対応するデジタル逆伝播ホログラムから、異なる顕微鏡画像モダリティを有する顕微鏡を使用して同じ特定の深度で得られたサンプルの顕微鏡画像に実質的に類似する画像へのクロスモダリティ画像変換を実行する。【選択図】図1A

Description

[0001]この出願は、2018年11月15日に出願され米国仮特許出願第62/768,040号の優先権を主張するものであり、その全体が参照により本明細書に組み込まれる。優先権は35U.S.C§119およびその他の該当する法令に従って主張される。
米国連邦政府後援の研究開発に関する声明
[0002]本発明は、国立科学財団によって授与された助成番号1533983の下で政府の支援を受けて行われた。米国政府は、本発明において一定の権利を有する。
[0003]技術分野は、一般に、ホログラフィック画像を、例えばインコヒーレント明視野、蛍光、および暗視野の顕微鏡画像を含む他の顕微鏡画像モダリティを使用して得られるものに類似した画像へと変換する方法およびシステムに関する。
[0004]デジタルホログラフィック顕微鏡によると、機械的なスキャンを行うことなく、1回のホログラム測定からボリュームサンプルの再構成が可能である。しかしながら、ほとんどの実用的なアプリケーションにおいて、ホログラフィック画像は、インコヒーレント明視野顕微鏡のスペックルやアーチファクトのない画像コントラストに匹敵するものではない。これらのホログラフィックアーチファクトの一部には、双像(twin-image)ノイズや自己干渉ノイズが含まれる。これらは位相情報の欠落に関連するが、照明源のコヒーレンス長/直径が長いために、光ビーム経路内のフォーカス外または不要なオブジェクト/表面からのスペックルや背景干渉が発生し、更なるアーチファクトが現れる。言い換えれば、コヒーレント撮像システムの点広がり関数には横方向と軸方向の両方に沿って減少しないリップルがあるため、焦点が合っていないオブジェクトが、ホログラフィック再構成において焦点が合ったオブジェクトと重なる干渉縞を生じ、ボリュームサンプルを再構成するときの画像のコントラストを低下させる。これらの問題は、様々なホログラフィック再構成方法を使用して、時には追加の手段を用いて、部分的に軽減することができる。しかしながら、追加の手段や複雑な再構成アルゴリズムを必要とせずに、ホログラフィック顕微鏡で取得した画像の画質と有用性を向上させるための追加の方法とシステムが必要である。
[0005]一実施形態では、コンピューティングデバイスを使用してソフトウェアによって実行されるトレーニングされた深層ニューラルネットワークを使用して、サンプルボリューム内の所定の深度に対応するデジタル逆伝播ホログラム(または生のホログラム)から、同じ深度で取得された異なる顕微鏡画像モダリティに実質的に類似した画像への、クロスモダリティ画像変換を実行するシステムおよび方法が記載される。一実施形態では、異なる顕微鏡画像モダリティは、明視野、蛍光、および暗視野顕微鏡画像のうちの1つである。単一のホログラムを使用して、サンプルボリューム内の異なるセクションまたは平面(例えば、高さ)にデジタル伝播し、各セクションの異なる顕微鏡画像モダリティの画像に実質的に類似した画像を仮想的に生成するため、このアプローチはデジタルホログラフィのボリュームイメージング機能と、明視野顕微鏡(あるいは他の実施形態では蛍光顕微鏡または暗視野顕微鏡)のスペックルおよびアーチファクトのない画像コントラストを橋渡しする。トレーニング後、深層ニューラルネットワークは、ホログラフィックイメージングシステムと所望の異なる顕微鏡画像モダリティ(例えば、特定の一実施形態ではインコヒーレント明視野顕微鏡)との間の統計的画像変換を学習する。この点において、深層学習は、ホログラフィックとインコヒーレント明視野画像化モダリティの利点を融合することにより、両方の世界の長所を融合させる。
[0006]ホログラフィックまたはコヒーレント顕微鏡で取得したホログラフィック顕微鏡画像が、トレーニングされた深層ニューラルネットワークに入力され、サンプルボリューム内の特定の深度に対応するデジタル逆伝播ホログラムから、異なる顕微鏡画像モダリティで同じ深度で取得された画像に実質的に似た画像へのクロスモダリティ画像変換が実行される。本発明の好ましい一態様では、異なる顕微鏡画像モダリティは明視野顕微鏡画像である。ホログラフィと明視野顕微鏡の間のこの深層学習対応の画像変換により、ボリュームサンプルを機械的にスキャンする必要がなくなる。さらに、ホログラフィック顕微鏡で取得された単一のモノクロ画像を、トレーニングされた深層ニューラルネットワークを使用して、同等の明視野画像と実質的に同じ色分布を有するカラー画像に変換することができる。
[0007]一実施形態では、ホログラフィック顕微鏡で取得したサンプルの画像を、異なる顕微鏡画像モダリティで取得した画像に実質的に類似する画像に変換する方法は、ホログラフィック顕微鏡でサンプルの単一のホログラフィック画像を取得するステップを含む。サンプルのホログラフィック画像は、画像処理ソフトウェアを使用して特定の深度までデジタル逆伝播される。逆伝播されたホログラフィック画像は、1つまたは複数のプロセッサを使用してコンピューティングデバイスで実行されるソフトウェアで具現化された、トレーニングされた深層ニューラルネットワークに入力される。トレーニングされた深層ニューラルネットワークは、特定の深度でのサンプルの画像を出力する。この出力画像は、一実施形態では、同じ特定の深度で取得されたサンプルの明視野顕微鏡画像に実質的に類似する。別の実施形態では、トレーニングされた深層ニューラルネットワークは、特定の深度でサンプルの画像を出力し、この出力画像は同じ特定の深度で得られたサンプルの蛍光顕微鏡画像に実質的に類似する。別の実施形態では、トレーニングされた深層ニューラルネットワークは、特定の深度でサンプルの画像を出力し、この出力画像は同じ特定の深度で得られたサンプルの暗視野顕微鏡画像に実質的に類似する。
[0008]別の実施形態では、ホログラフィック顕微鏡で取得したサンプルの画像を、異なる顕微鏡画像モダリティを有する顕微鏡で取得した顕微鏡画像に実質的に類似する画像に変換する方法は、ホログラフィック顕微鏡でサンプルの単一のホログラフィック画像を取得する操作を含む。サンプルの(逆伝播されていない)ホログラフィック画像は、コンピューティングデバイスによって実行されるトレーニングされた深層ニューラルネットワークに入力される。トレーニングされた深層ニューラルネットワークは、トレーニングされた深層ニューラルネットワークから特定の深度でのサンプルの画像を出力し、この出力画像は、異なる顕微鏡画像モダリティを有する顕微鏡を用いて同じ特定の深度で得られたサンプルの顕微鏡画像に実質的に類似する。
[0009]別の実施形態では、顕微鏡システムは、ホログラフィック顕微鏡(または干渉アーチファクトをもたらすコヒーレント光源を使用する他の画像化モダリティ)と、トレーニングされた深層ニューラルネットワークを実行するように構成されたソフトウェアを有するコンピューティングデバイスとを具え、ホログラフィック顕微鏡(または他の画像化モダリティ)で取得されたサンプルの生および/または逆伝播ホログラム画像を入力し、サンプル内の任意の深度でサンプルの1つまたは複数の出力画像を出力し、この1つまたは複数の出力画像は、サンプル内の同じ任意の深度で取得されたサンプルの明視野顕微鏡画像に実質的に類似する。
[0010]図1Aは、一実施形態による、ホログラフィックまたはコヒーレント顕微鏡で取得したサンプルの画像を、異なる顕微鏡画像モダリティを有する顕微鏡で得られた1つまたは複数の深度(本明細書で説明するz方向)での出力画像に変換するために使用されるシステムを概略的に示す。 [0011]図1Bは、サンプルのホログラフィック画像を取得するために使用されるホログラフィック顕微鏡(例えば、この実施形態ではレンズレス)の一実施形態を概略的に示す。 [0012]図2は、ホログラフィック顕微鏡で取得したサンプルの画像を、異なる顕微鏡画像モダリティを有する顕微鏡で取得した顕微鏡画像に実質的に類似する画像に変換する方法の動作を示すフローチャートである。 [0013]図3は、一実施形態によるニューラルネットワーク構造の構造を示す。数字は各ブロックのサイズとチャンネルを表す。ReLUは正規化線形ユニット(rectified linear unit)であり、Convは畳み込み層(convolutional layer)である。 [0014]図4は、一実施形態による、ニューラルネットワークをトレーニングするために使用される画像の位置合わせ(registration)およびデータ前処理のフローチャートである。このプロセスは、異なる平面での明視野画像ペアを、深層ニューラルネットワークのトレーニングに使用されるホログラフィック顕微鏡で取得した逆伝播ホログラムと位置合わせするために使用される。 [0015]図5は、基板上に捕捉された花粉混合物の画像化プロセスを示す。各入力ホログラムまたはホログラフィック画像は、フリンジをよりよく示すために、より大きなFOVで表示されている。各ネットワーク出力画像は、顕微鏡比較画像の横に示されている二乗平均平方根誤差(RMSE)、構造的類似性指数(SSIM)、およびユニバーサル画質指数(UIQI)を使用して、対応する明視野顕微鏡のグラウンドトゥルース画像と定量的に比較される。 [0016]図6は、GANおよびCNNで実行されたサンプル再構成の画像を、グラウンドトゥルース画像とともに示す。画像は、二乗平均平方根誤差(RMSE)、ピアソン相関係数(Corr.)、構造的類似性指数(SSIM)、およびユニバーサル画質指数(UIQI)を使用して、同じ深度で取得された対応する顕微鏡画像のグラウンドトゥルースと比較される。各画像の各基準のより良い値が太字で強調表示されている。 [0017]図7Aは、PDMS3D基板(厚さ約800μm)に含まれる花粉混合物を概略的に示す。 [0018]図7Bは、PDMS3D基板に含まれる花粉混合物の写真画像である。 [0019]図7Cは、ホログラフィック顕微鏡で撮影したPDMS基板のホログラフィック画像を示す。 [0020]図7Dは、ネットワーク出力を生成するトレーニングされた深層ニューラルネットワークに入力される、異なる距離(z)での様々な逆伝播(back-propagated:BP)ホログラフィック画像を示す。対応するネットワーク出力画像とともに対応する顕微鏡画像も示されている。 [0021]図8は、花粉ボリュームサンプルについての、明視野ホログラフィと反復相回復法との比較を示している。オブジェクトサポートベースの相回復が用いられた(反復20回)。ネットワーク出力画像と明視野顕微鏡のグラウンドトゥルース画像は、比較のためにMatlab関数rgb2grayを用いてグレースケールに変換されている。コントラスト対ノイズ比(CNR)を、ノイズ(マスクの外の画素振幅の標準偏差)に対するコントラスト(CNRマスク外の画素振幅の平均からマスク内の画素振幅の平均を引いたもの)の比率として定義し、これを用いて結果を定量的に比較し、各画像の左上に対応するCNR値を数字で示した。 [0022]図9Aは、単一のマイクロビーズの3Dイメージングと、ネットワーク出力に対する標準ホログラフィック逆伝播結果と、軸方向ステップサイズ0.5μmのN=81スキャンを介して走査明視野顕微鏡でキャプチャした画像との比較を示す。 [0023]図9Bは、245個の個別/単離マイクロビーズに対応する横方向のPSF FWHMヒストグラム比較を示す。 [0024]図9Cは、245個の個別/単離マイクロビーズに対応する軸方向のPSF FWHMヒストグラム比較を示す。
[0025]図1Aは、ホログラフィックまたはコヒーレント顕微鏡16で得られたサンプル14の画像12を、異なる顕微鏡画像モダリティを有する顕微鏡で得られた顕微鏡画像に実質的に類似する、1つまたは複数の深度(本明細書で説明するz方向)の出力画像20に変換するために使用されるシステム10の一実施形態を概略的に示す。例えば、システム10は、ホログラフィック顕微鏡16で得られたサンプル14の画像12を、サンプル14の同じ1つ以上の深度での明視野画像に実質的に類似する(1つ以上の深度での)出力画像20に変換するために使用することができる。さらに別の例では、システム10を使用して、ホログラフィック顕微鏡16で取得したサンプル14の画像12を、サンプル14の同じ1つ以上の深度での蛍光画像に実質的に類似する(1つ以上の深度での)出力画像20に変換することができる。さらに別の例では、システム10を使用して、ホログラフィック顕微鏡16で取得したサンプル14の画像12を、サンプル14の同じ1つ以上の深度での暗視野画像に実質的に類似する出力画像20(1つ以上の深度)に変換することができる。本明細書で説明するように、システム10は、単一の深度で出力画像20を生成することができ、その場合にシステム10は2次元(2D)画像を出力する。このシステム10はまた、複数の深度で複数の出力画像20を生成することができ、その場合にシステムは3次元(3D)画像スタックを出力する。
[0026]図1Aにおいて、ホログラフィック顕微鏡16は、サンプル14のホログラフィック画像12(あるいは複数のそのような画像またはホログラム12)を取得する。サンプル14は、図1Aおよび図1Bに示すようなサンプルホルダ18上に配置することができるが、他の実施形態では、サンプルホルダ18は省略されてもよい。サンプルホルダ18は、光透過性の基板等を有し得る。サンプル14は、組織、細胞、体液、環境液などの生物学的サンプルを含み得る。サンプル14はまた、三次元サンプルボリューム(例えば、固体または流体ボリューム)を含み得る。本明細書に記載の実施例では、サンプル14は、花粉や汚染物質などの粒子状物質を含み得る。サンプル14は、有機または無機サンプルも含んでもよい。サンプル14は、環境サンプル(例えば、生物または特定の物質を含む水または流体)を含み得る。サンプル14は、キャリア媒体または流体に含まれる細胞を含み得る。サンプルは静止していても、動いていてもよい(例えば、マイクロチャネル、フローセルなどの中を流れる流体)。
[0027]図1Aにあるように、システム10は、1つまたは複数のプロセッサ34を使用して実行される画像処理ソフトウェア32を有するコンピューティングデバイス30を含む。画像処理ソフトウェア32は、その一部として、本明細書に記載のトレーニングされたニューラルネットワーク36を含む。コンピューティングデバイス30は、例として、パーソナルコンピュータ、ラップトップ、タブレットPC、ポータブル電子デバイス、サーバ、または仮想サーバを含み得る。コンピューティングデバイス30は、ホログラフィック顕微鏡16と一緒に、またはその近くにローカル配置することができる。ホログラフィック顕微鏡16とコンピューティングデバイス30との間の通信は、従来の有線または無線接続(例えば、Bluetooth(登録商標)、Wi-Fiなど)を介して生じ得る。コンピューティングデバイス30は、ホログラフィック顕微鏡16から遠隔の場所に配置してもよい。例えば、コンピューティングデバイス30は、コンピュータネットワーク(例えば、インターネットなどの広域ネットワーク)上で転送されるホログラフィック画像12を受信するサーバまたは他のクラウドタイプのコンピュータであり得る。画像処理ソフトウェア32は、任意の数のプログラムで実装することができる。例には、C++、Python、Tensorflow、MATLABなどのプログラムまたはプログラミング言語が含まれる。いくつかの実施形態では、1つまたは複数のプロセッサ34は、深層ニューラルネットワーク36およびシステム10の出力のトレーニングを高速化できるが、必須ではない1つまたは複数のグラフィックス処理ユニット(GPU)を含み得る。トレーニングされたニューラルネットワーク36の逆伝播および実行などの画像処理ソフトウェア32の様々な態様は、同じソフトウェアプログラムまたはモジュールによって実行されてもよいし、一緒に動作する別個のプログラムまたはモジュールとして動作してもよい。さらに、コンピューティングデバイス30は、様々な機能を実行するために、複数のコンピューティングデバイス30またはコンピューティングモジュールを採用してもよい。例えば、1つのコンピューティングデバイス30またはモジュールを使用してデジタル逆伝播を実行しつつ、別のコンピューティングデバイス30またはモジュールを使用してトレーニング済みニューラルネットワーク36を実行することができる。もちろん、これらは単一のコンピューティングデバイス30またはモジュールによって実行してもよい。
[0028]図1Bは、ホログラフィック顕微鏡16の特定の実施例を示す。この実施例のホログラフィック顕微鏡16はレンズを有さないが、ホログラフィック画像12は、他の従来のレンズを有するホログラフィック顕微鏡16で取得してもよいことを理解されたい。ホログラフィック顕微鏡16は、いくつかの実施形態では、スマートフォンなどのポータブル電子デバイスを、サンプル14のホログラフィック画像12を取得するための光源、外部レンズ、取得するサンプルホルダを含むオプトメカニカルアタッチメントとともに使用するような、ポータブルまたはモバイルのホログラフィック顕微鏡16を含み得る。いくつかの実施形態では、ホログラフィック顕微鏡16は、流動する流体に含まれる流体または物体などの移動サンプル14を撮像することができる。例えば、ホログラフィック顕微鏡14は、フローサイトメトリホログラフィック顕微鏡またはマイクロ流体ベースのホログラフィック顕微鏡を含み得る。ホログラフィック顕微鏡14を使用して、基板に衝突する粒子または物体を画像化することもできる。例えば、ガス流に混入した粒子または物体が基板に衝突し、基板上に保持され、その後、画像化されてもよい。これらのオブジェクトは、インパクターベースのホログラフィック顕微鏡を使用して画像化できる。システム10はまた、他の実施形態では、ホログラフィック顕微鏡16の代わりに、光ビーム経路内の焦点が合っていない物体または不要な物体とのスペックルまたは干渉をもたらすコヒーレント光を用いる別の画像化モダリティを具えてもよい。
[0029]図1Bの実施形態において、光源40は、コヒーレントまたは部分的にコヒーレントな照明を発する。これには、レーザダイオード、発光ダイオード、VCSELダイオードなどが含まれる。光源40は、数センチメートルの距離から試料14を照明する。図1Bに示すように、試料14は試料ホルダ18上に配置される。イメージセンサ42が、サンプル14とサンプルホルダ18の反対側に配置され、サンプル14のホログラム(ホログラフィック画像)を取り込む。イメージセンサ42は、例えば、CMOS(相補型金属酸化膜半導体)イメージセンサ等を含み得る。イメージセンサ42は、サンプル14のモノクロまたはカラー画像を取得することができる。イメージセンサ42は、典型的には、サンプルホルダ18に非常に近接して、または隣接して(例えば、数μmから数mm以内に)配置される。図1Bは、サンプル14の三次元ボリューム内に位置する様々な深度またはz距離(例えば、z1、z2、z3)を示す。本明細書で説明するように、システム10および方法を使用して、単一のホログラフィック画像12またはショットから、サンプル14内の任意の深度(z)で、取得されたホログラフィック画像12とは異なる画像化モダリティである出力画像20を生成することができる。これは、例えば明視野、暗視野、および蛍光画像である1つまたは複数の出力画像20を含み得る。
[0030]図2は、システム10の操作で用いられるステップまたは操作の例示的なワークフローを示す。まず、操作100において、サンプル14をホログラフィック顕微鏡16を用いて画像化し、ホログラフィック画像12を生成する。次に、操作102に示すように、ホログラフィック画像12は、画像処理ソフトウェア32を使用して、サンプル14のボリューム空間内の1つ以上のz距離にデジタル逆伝播される。例えば、図1Bの文脈において、これはz1、z2、およびz3であり得る。ホログラフィック画像12のデジタル逆伝播は、例えば角度スペクトルに基づく逆伝播を含む任意の既知のデジタル逆伝播技手法を使用して達成することができる。角度スペクトル法は、波動場の伝播をモデル化する手法であり、複雑な波動場を無数の平面波の和に拡張することを含む。ホログラムは、最初に高速フーリエ変換(FFT)を用いて空間周波数領域に変換される。次に、波長、伝搬距離、および媒質の屈折率の関数である位相係数が、角度スペクトルに乗算される。最後に、サンプルの逆伝播画像を得るために、空間領域に逆フーリエ変換される。
[0031]別の実施形態では、ホログラフィック画像12をデジタル逆伝播する操作102は省略するか回避して、操作104に示すように、ホログラフィック画像12を、トレーニングされた深層ニューラルネットワーク36に直接入力してもよい。すなわち、図2に挙げた操作の文脈において、いくつかの実施形態では操作102はオプションであり、生のホログラフィック画像12またはホログラムが、トレーニングされた深層ニューラルネットワーク36に直接入力される。
[0032]デジタル逆伝播により、図2に示すように、特定のz距離に対して、実逆伝播画像15aと、仮想逆伝播画像15bとが生成される。次に、操作104に示すように、逆伝播画像15a、15bは、画像処理ソフトウェア32のトレーニングされた深層ニューラルネットワーク36に入力される。次に、図2の操作106に示すように、トレーニングされた深層ニューラルネットワーク36は、異なる顕微鏡画像モダリティを有する顕微鏡を用いて同じ特定の深度zで得られたサンプル14の顕微鏡画像と実質的に類似または実質的に同等である、特定のz距離での出力画像20を出力または生成する。例えば、出力画像20は、明視野顕微鏡(明視野画像)、暗視野顕微鏡(暗視野画像)、または蛍光顕微鏡(蛍光画像)から同じz距離で得られた画像に実質的に類似しているか、または実質的に同等であり得る。別の実施形態では、出力画像20は、異なる画像モダリティを有する顕微鏡で得られた生画像、逆伝播画像、および/またはグラウンドトゥルース画像の横方向および/または軸方向の解像度を超えた横方向および/または軸方向の解像度を有し得る。
[0033]出力画像20には、スペックルおよび他の干渉アーチファクトが実質的にない。この重要な利点は、サンプル14から得られた単一のホログラフィック画像12を使用して、サンプル14内の任意の深度(z)で強化された出力画像20(例えば、明視野顕微鏡画像、暗視野顕微鏡画像、または蛍光画像と類似の)を生成できることである。つまり、単一のホログラフィック画像12を使用して、サンプル14内の任意の数の深度(z)における完全に異なる画像化モダリティに類似するサンプル14の複数の異なる疑似画像20を得ることができる。さらに、サンプル14のホログラフィック画像12は、一実施形態ではモノクロの画像センサ42を使用して取得されるが、いくつかの実施形態では、トレーニングされた深層ニューラルネットワーク36によって生成される出力画像(複数可)20はカラー画像となる。すなわち、モノクロの画像センサ42を使用して得られたホログラフィック画像12から、適切にトレーニングされたニューラルネットワーク36を使用して、カラーの出力画像20(例えば、カラーの明視野画像)を生成することができる。
[0034]従来の画像化プロセスでは、高価な光学顕微鏡を使用して、様々な高さで時間のかかる多数のスキャンを実行し、画像スライスごとに機械的スキャンを実行する必要があった。例えば、従来の光学顕微鏡を使用すると、単一のFOVでN=81のスライススタックを生成するのに約1分かかり得る。対照的に、デジタルホログラフィックレンズレス顕微鏡16は安価であり、単一(N=1)のホログラフィック画像12をキャプチャするだけで済み、これがトレーニングされたニューラルネットワーク36の助けを借りて任意のz距離に逆伝播され、再構成された同等の品質の出力イメージ20が生成される。
[0035]システム10は、トレーニングされた深層ニューラルネットワーク36を使用して、サンプル14のボリューム内の所定の深度(z)に対応するデジタル逆伝播ホログラム(15a、15b)から、異なる画像化モダリティを使用して同じ深度で取得された顕微鏡画像と実質的に類似するか実質的に同等である出力画像20へのクロスモダリティ画像変換を実行する。単一のホログラフィック画像12を使用して、画像情報をサンプル14の異なるセクションにデジタル伝播させて、一実施形態では各セクションの疑似明視野画像20を仮想的に生成するため、このアプローチにより、デジタルホログラフィのスナップショットボリュームイメージング能力と、明視野顕微鏡法のスペックルおよびアーチファクトのない画像コントラストおよび軸方向のセクショニング性能とが組み合わされる。トレーニング後に、深層ニューラルネットワーク36は、ホログラフィック顕微鏡16と異なる画像化モダリティ(例えば、明視野顕微鏡)との間の統計的画像変換を学習した。ある意味で、深層学習は、ホログラフィックとインコヒーレント明視野画像化モダリティの両方の利点を融合することにより、両方の世界の長所を結び付ける。
[0036]実験
[0037]ホログラフィック顕微鏡16で得られたホログラフィック画像12を擬似明視野画像20に変換する実験が行われた。ホログラフィックから明視野画像への変換のために、トレーニングされた深層ニューラルネットワーク36は、敵対的生成器ネットワーク(GAN)を使用した。図3は、GAN36のネットワーク構造を示す。深層ニューラルネットワーク36のトレーニングデータセットは、粘着性のカバースリップを使用して平らな基板上にキャプチャされた花粉サンプル14からの画像で構成された。カバースリップは、明視野顕微鏡(オリンパスIX83、20×/0.75NA対物レンズ)を使用して3Dスキャンされ、0.5μmの軸間隔で121枚の画像のスタックがキャプチャされ、対象領域ごとにグラウンドトゥルースラベルが構成された。次に、レンズレスホログラフィック顕微鏡16を使用して、明視野顕微鏡で走査したのと同じ視野(FOV)に対応するインラインホログラフィック画像12を取得した。グローバル座標から各画像パッチのローカル座標への一連の画像位置合わせステップ(例えば、図4に見られるようなグローバルおよびローカル位置合わせプロセス)を段階的に適用することにより、異なる深度での逆伝播ホログラフィック画像15a、15bを、横方向と軸方向の両方で、明視野顕微鏡のグラウンドトゥルース画像スタックに正確に一致させた。図4は、異なる深度/平面においてグラウンドトゥルース画像をホログラフィック画像12と位置合わせするために使用される画像位置合わせおよびデータ前処理を示す。逆伝播ホログラム画像15a、15bと対応する明視野顕微鏡画像のこれらの位置合わせされたペアは、次に、深層ニューラルネットワーク36のトレーニングのために、256×256ピクセルの約6,000パッチにトリミングされた。
[0038]図4は、サンプル14の大型またはフルFOVホログラフィック画像12が、陰影補正操作110の後にオートフォーカス操作112を受けるプロセスを示す。陰影補正は、画像の汚れや不要なパターンを除去する。操作114では、トリミングされたホログラムFOVが作成される。操作116に示すように、このトリミングされたホログラムFOVから、より小さなFOV(300×300ピクセル)を有するホログラムが生成される。操作118でオートフォーカス操作が実行され、最も焦点の合った平面で小さなFOVを有するホログラムが生成される。最も焦点の合った平面に加えて、操作120(図2)で説明した本書記載のデジタル逆伝播102を使用して、異なるz距離またはグラウンドトゥルースの選択されたz距離に対応する平面で、複数(この場合は5つ)の追加のホログラムまたはホログラフィック画像(ホログラムzスタック)が生成される、(図4の操作140)。トレーニングのために、異なるz距離または平面でのグラウンドトゥルース(例えば、明視野)画像50がサンプル14から取得される。次に、操作122に示すように、中間平面FOV画像50をつなぎ合わせて、フルFOV明視野画像を生成する。次に、操作124において、画像の傾き、回転、またはシフトを補正するために画像を再スケーリングする変換行列が生成される。操作126では、中央平面FOV画像50が陰影補正を受ける。操作124で生成された変換行列は、操作128で見られる変換された明視野FOV画像を生成するために使用される。次に、操作130に示すように、変換された明視野FOV画像50および操作112のオートフォーカスされたフルFOVホログラム内の重なり合った領域が切り出される。操作132に示すように、この切り出されたBF FOVから、小さいFOV(300×300ピクセル)の画像が生成される。
[0039]図4をさらに参照すると、画像スタックの他の明視野画像50は、操作134に示すように陰影補正操作を受ける。これらの明視野(BF)画像は、操作136に示すように、小さなFOV画像のBFスタックを作成するためにトリミングされる。操作138に示すように、BFの小さいFOVの最も焦点の合った平面を見つけるためにオートフォーカス操作が実行される。次に、操作140において、他のランダム平面(この実施形態では5つ)における画像のBFスタックが、z方向のガウスサンプリングを使用して選択され、xおよびy方向に整列される。操作142に示すピラミッド弾性位置合わせプロセスが実行され、合計6つの小さなFOV画像ペアが生成される。位置合わせされた各画像ペアには、対応するデジタル逆伝播画像と共にグラウンドトゥルースBF画像が含まれる。最後の操作では、位置合わせされた画像対が操作144に示すようにトリミングされ、6つの小さいFOV画像のペア(256×256)が作成される。これらの位置合わせされた画像ペアは、深層ニューラルネットワーク36をトレーニングするために使用される。
[0040]図4は、顕微鏡で得られた明視野画像と対応する逆伝播ホログラム画像の画像ペアを同じ深度でグローバルおよびローカルに位置合わせするために使用される様々な態様を示しているが、サンプル画像が特にきれいであったり、汚れ、ほこり、その他のアーチファクトがなく、または傾斜、回転などがない場合には、これらの操作の1つまたは複数を省略することができる(例えば、陰影補正、変換行列の適用など)。
[0041]これらのステップは、GANネットワーク36のトレーニングのために1回だけ実行する必要があり、その後、生成ワーク36が、これまで見たことのない新しい逆伝播画像15a、15bを盲目的に取得することができ(逆伝播画像は、実数成分と虚数成分をまとめて含む)、サンプル14のボリューム内の任意の深度(z)における対応する明視野画像(または他の実施形態では蛍光画像や暗視野画像)をほぼリアルタイムで推論できることを強調しておく(例えば、約0.15mmのFOVの推論時間は、単一のNvidia1080TiGPUを使用した場合は約0.1秒)。図5は、いくつかの花粉混合物に対するこれらのブラインド試験結果の例を示しており、逆伝播ホログラム画像15a、15bは、双像および自己干渉アーチファクト、ならびにスペックルおよび焦点外れの干渉によって損なわれている。一方、各深度(z)に対する生成器ネットワーク36の出力画像20は、コントラストが明確に改善されており、逆伝播ホログラム画像15a、15bで観察されるアーチファクトやノイズ特徴(例えば、スペックルおよび干渉アーチファクトおよび双像ノイズ)がない。これらの結果は、同じサンプル深度における対応する明視野画像(グラウンドトゥルース画像)とよく一致する。すなわち、出力画像20は、明視野顕微鏡を用いて同じ深度で得られたサンプル14の画像に実質的に類似する。
[0042]さらに、トレーニングされた深層ニューラルネットワーク36は、モノクロセンサ(SonyIMX219PQ、1.12μmピクセルサイズ)および狭帯域照明(λ=850nm、帯域幅約1nm)で取得された入力ホログラフィック画像12を使用して、複素数値の入力画像15bの形態的特徴に基づいて、出力画像20が明視野グラウンドトゥルース画像の色分布と一致するように、出力画像20を正しくカラー化する。これが、黄色のブタクサ花粉とオーク花粉、および白いバミューダグラス花粉について、図5に示されている。さらに、図5に示すように、二乗平均平方根誤差(RMSE)、構造的類似性指数(SSIM)、およびユニバーサル画質指数(UIQI)を使用して、ネットワーク推論(すなわち、出力画像20)と明視野顕微鏡のグラウンドトゥルース画像とが非常に類似していることを定量的に示されている。さらに、GANネットワーク36のフレームワークのいくつかのバリエーションについて、敵対的損失のないもの、識別器にスペクトル正規化を加えたもの、エンコーダ-デコーダ構造のものなどの性能を定量的に比較した結果、これらのGANのバリエーションが同様の推論性能を示すことが明らかになった。
[0043]図6は、上で開示されたGANネットワーク36および畳み込みニューラルネットワーク(CNN)36を含む、2つの異なるトレーニングされた深層ニューラルネットワーク36の結果を示している。CNNは、弁別器と敵対的損失項を使用せずにトレーニングさせた生成器ネットワークと同じである。2つのネットワーク36は、同じデータセットで同様の反復回数(約40エポック)でトレーニングされた。花粉サンプル14の4つの焦点の合った再構成画像を示す。これらの画像は、二乗平均平方根誤差(RMSE)、ピアソン相関係数(Corr.)、構造的類似性指数(SSIM)、およびユニバーサル画質指数(UIQI)を使用して、同じ深度で取得された対応する顕微鏡画像のグラウンドトゥルースと比較している。各画像の各基準のより良い値を太字で強調表示している。この比較から得られた定量的な値は、GANとCNNの出力画像20でほぼ同じであった。ただし、GAN出力画像20は、CNN出力画像20よりも鮮明で、より多くの情報を表示しており、視覚的により魅力的である。また各サンプル画像20を、BRISQUE(Blind/Referenceless Image Spatial Quality Evaluator)スコアを使用して評価した。スコアが低いほど視覚的品質が良いことを示す。BRISQUEスコアは画像の下隅に表示され、GAN出力画像20は、CNN出力画像20と比較してスコアが小さい/良いことを示している。
[0044]以下の表1は、4つの異なるネットワークバリエーションの定量的な比較を示している。GAN36は、本書の結果を報告するために使用された、図3に示されるネットワーク36である。CNNは、弁別器および敵対的損失を使用しない同じ生成器ネットワーク36である。エンコーダ・デコーダ構造は、U-Net内のコンカチネーション接続(図3のコンカチネーション矢印)を除去して構築したものである。スペクトル正規化を行ったGANは、GAN36と同じ構造であり、弁別器の各畳み込み層でスペクトル正規化を行った。すべての異なるトレーニング済み深層ニューラルネットワーク36は、同じデータセットで同様の反復回数(約40エポック)でトレーニングされた。トレーニングされたニューラルネットワーク36は、175のデジタルフォーカスされた花粉の逆伝播ホログラム画像でテストされた。ネットワーク出力画像20は、同じ深度で取得した対応する顕微鏡画像のグラウンドトゥルースに対して、二乗平均平方根誤差(RMSE)、ピアソン相関係数(Corr.)、構造的類似性指数(SSIM)、およびユニバーサル画質指数(UIQI)を使用して、定量的に比較された。この比較から得られた定量的な値は、導入したネットワークバリエーションの違いに関係なく類似している。
(表1)
Figure 2022507259000002
[0045]深層ニューラルネットワーク36は、2D基板に捕捉された花粉混合物のみを使用してトレーニングされたが、異なる深度でのサンプルのボリュームイメージングの推論をうまく実行することができる。図7Aおよび7Bは、約800μmの厚さのポリジメチルシロキサン(PDMS)のバルクボリューム内に3Dで捕捉された花粉混合物を示す。サンプル14の単一のインラインホログラフィック画像12(図7C)が取り込まれ、サンプルボリューム内の異なる深度(z)にデジタル逆伝播された(図7D)。これらの逆伝播ホログラフィック画像15a、15bをトレーニングされた深層ニューラルネットワーク36に供給することにより、ホログラフィで観察されるスペックルアーチファクトおよび他の様々な干渉アーチファクト(例えば、双像、焦点が合っていないオブジェクトに関連するフリンジ、および自己干渉)のない出力画像20が得られた(図7D(ネットワーク出力画像20))。これらの画像は、3Dサンプル内の同一平面に機械的に焦点を合わせた明視野顕微鏡画像のコントラストおよび被写界深度(DOF)と一致する。
[0046]トレーニング画像データは均一で比較的まばらなサンプル(バイオエアロゾル)から取得されたため、はるかに高密度または空間的に接続された3Dサンプル14の場合、トレーニングされた深層ニューラルネットワーク36の推論プロセスは最適ではない結果を生成する可能性がある。空間的に高密度または接続されたサンプル14の場合、ホログラム形成における参照波は、インライン操作のために歪んでしまい、高密度の散乱およびサンプル内で生じ得るオクルージョンのために平面波から逸脱する可能性がある。例えば、エアロゾルイメージングやサイトメトリに関連するアプリケーションの場合、この現象は制限をもたらさないが、3Dでより高密度のサンプルのイメージングを必要とする他のアプリケーションの場合、このアプローチの推論性能は、高密度で空間的に接続されたサンプル14でネットワーク36をトレーニングすることによって向上させることができる。
[0047]提示されているスナップショットボリューム再構成の性能は、標準のコヒーレントノイズ除去または位相回復方法では得られないことに留意すべきである。この例を示すために、図8は、異なる高さに逆伝播された同じサンプルホログラフィック画像12に適用された、オブジェクトサポートベースの位相回復方法の比較結果を示している。本図に示すように、反復位相回復方法は、逆伝播ホログラフィック画像のコントラスト対ノイズ比(CNR)を約2から約3に実際に改善し、特に双像に関するアーチファクトのいくつかを抑制する。ただし、3Dオブジェクトによって作成された焦点の合っていないフリンジは十分に切り取られず、反復位相回復後でも再構成アーチファクトとして残っている。対照的に、トレーニングされた深層ニューラルネットワーク36の出力画像20は、デフォーカスしたコヒーレントフリンジを逓減されたインコヒーレントブロブに変換し、15~25を超える高いCNRを達成し、図8に示すように、高NA明視野顕微鏡によってキャプチャされたグラウンドトゥルース画像と非常によく一致した。
[0048]このクロスモダリティ変換性能をさらに定量化するために、1μmのポリスチレンビーズを含むサンプル14を画像化し、同じ方法に従って別のGAN36をトレーニングした。次に、245個の個別/単離したマイクロビーズを含むサンプルをブラインドテストし、GAN推論の前後にそれらの3D PSF分布を測定した(図9A~9C)。この比較の一例が図9Aに示されており、逆伝播ホログラム画像(逆伝播振幅画像が示されている)は、出力画像20によって明らかなように、GANによって除去された有意な干渉アーチファクトを含み、機械的にスキャンされた明視野顕微鏡のグラウンドトゥルース画像(図9Aの顕微鏡画像)の高コントラストに一致する出力画像20が得られた。図9Bは、これらの245個のマイクロビーズを使用して得られた3D PSFに対応する横方向および軸方向の半値全幅(FWHM)値の分布を示している。干渉アーチファクトと低コントラストにより、逆伝播ホログラム(入力)のPSFのFWHM値は横方向にランダムに分布し、FWHMの中央値は2.7176μmであった。対照的に、GAN出力画像20のPSFの横方向のFWHM値は単分散であり、FWHMの中央値は1.8254μmであり、走査型明視野顕微鏡のグラウンドトゥルース(1.8719pm)の値と一致する(図9B)。コヒーレンス長が長いため、逆伝播ホログラム(入力)のPSFは軸方向に長く、FWHMの中央値は12.9218μmであり、走査型明視野顕微鏡のグラウンドトゥルース(FWHMの中央値は9.8003μm)と比較して大きくなっている。ネットワーク推論の結果は、軸方向のPSF分布が大幅に狭く、FWHMの中央値が9.7978μmで、走査型明視野顕微鏡で得られたグラウンドトゥルースと非常によく一致している(図9C)。これらの結果と、ネットワーク出力画像20と走査型明視野顕微鏡で得られたグラウンドトゥルース画像との間の定量的な一致は、本システム10の有効性をさらに裏付けるものである。
[0049](一例として)ホログラフィと明視野イメージングとの間の、この深層学習対応のクロスモダリティ画像変換システム10および方法は、ボリュームサンプルを機械的にスキャンする必要性をなくすことができる。ホログラフィのデジタル波伝播フレームワークから利益を得て、サンプル14のボリューム全体を仮想的にスキャンし、これらのデジタル伝播フィールドのそれぞれが、空間と色のコントラスト、およびインコヒーレント顕微鏡から期待される浅いDOFを示す明視野顕微鏡画像に実質的に類似するか同等の出力画像20に変換される。この点に関して、深層学習対応のホログラム変換ネットワーク36は、ホログラフィのボリュームデジタルイメージング能力を、明視野顕微鏡のスペックルおよびアーチファクトのない画像コントラストと融合することにより、両方の世界の長所を達成する。この機能は、液体中を流れるサンプルの高速ボリュームイメージングに特に有用である。このアプローチは、他のホログラフィック顕微鏡および/またはインコヒーレント顕微鏡モダリティに適用して、1つのコヒーレントイメージングモードから別のインコヒーレント顕微鏡モダリティへの統計的画像変換を確立することもできる。システム10は、単一のスナップショットホログラフィック画像12(例えば、ホログラム)から3Dサンプルボリューム全体の推測を可能にし、したがって、高スループットのボリュームイメージングのタスクのための高NA明視野顕微鏡に代わる強力な代替手段として、コヒーレントホログラフィックイメージングを再導入し、したがって、コヒーレント顕微鏡の分野へのユニークな貢献をする。
[0050]方法
[0051]デジタルホログラフィック画像取得
[0052]ホログラフィック画像12を、図1Bに概略的に示すカスタマイズされたレンズレスホログラフィック撮像システム(例えば、ホログラフィック顕微鏡16)を用いて取得した。このシステムは、照明用の光源40としての垂直共振器面発光レーザ(VCSEL)ダイオード(λ=850nm)、相補型金属酸化膜半導体(CMOS)イメージセンサ42(SonyIMX219PQ、画素サイズ1.12μm)、およびシステム制御用のRaspberryPi2で構成した。この近赤外線照明は、カラーイメージセンサ42の4つすべてのベイヤーチャネルを使用して、1回のスナップショットで達成できるホログラムのピクセルサイズに限定された解像度を向上させるために選択された。サンプル14は、イメージセンサ42の表面から約500μm上に配置された3D印刷されたサンプルホルダ18に取り付けられた。照明源40は、空間フィルタやスペクトルフィルタを追加することなくサンプル面から約8cm上に配置された。
[0053]走査型明視野顕微鏡画像の取得と位置合わせ(alignment)
[0054]明視野顕微鏡画像(すなわち、グラウンドトゥルース画像)を、20×/0.75NA対物レンズ(UPLSAPO20X、オリンパスライフサイエンス)を使用して倒立走査型顕微鏡(IX83、オリンパスライフサイエンス)で撮影した。顕微鏡は各サンプルを様々な横方向の位置でスキャンし、各位置で、0.5μmのステップサイズで-30μmから30μmの画像スタックを撮影した。これらの明視野画像を取得した後、ImageJプラグインStackRegを使用して顕微鏡画像スタックの位置合わせを行い、顕微鏡走査ステージの不正確さによって生じる剛体のずれや回転を修正した。
[0055]ホログラム逆伝播とオートフォーカス
[0056]生のデジタルインラインホログラム(ホログラフィック画像12)を、ウェーブレット変換を用いて各ベイヤーチャネルの低周波の陰影を推定することによってバランスを取り陰影補正した。この補正されたホログラムを、角度スペクトルベースの自由空間逆伝播を用いて、異なる平面(明視野顕微鏡画像スタックの対応する平面と一致する)にデジタル逆伝播した。この目的のために、角度スペクトル(フーリエ)領域で3×パディングを使用し、ホログラムのピクセルサイズを3×で効果的に補間した。逆伝播ホログラムと対応する明視野顕微鏡画像スタックの高さを一致させるために、焦点面の高さを「ゼロ」と推定してクロスレジストレーションを行い、相対的な軸方向の伝播距離を明視野顕微鏡の軸方向走査ステップサイズ(0.5μm)に合わせて決定した。デジタルホログラムの焦点面は、エッジスパースベースのホログラフィックオートフォーカス基準を用いて推定した。
[0057]ネットワークとトレーニング
[0058]トレーニングのためにここで実装されたGAN36は、図3に示すように、生成器ネットワーク(G)と弁別器ネットワーク(D)で構成される。生成器ネットワーク(G)は、オリジナルのU-Netデザインのバリエーションを採用し、わずかな変更と追加の残留接続を行った。弁別器ネットワーク(D)は、6つの畳み込みブロックと2つの完全接続(線形)層からなる畳み込みニューラルネットワークである。しかしながら、GAN36をトレーニングした後は、弁別器ネットワーク(D)は、最終的にトレーニングされた深層ニューラルネットワーク36のパラメータをトレーニングするために使用されたため、最終的にトレーニングされた深層ニューラルネットワーク36では使用されないことに留意されたい。元のトレーニングデータは約6,000の画像ペアで構成され(以下の表2を参照)、画像をランダムに回転および反転させて30,000の画像ペアに拡張された。
(表2)
Figure 2022507259000003
[0059]2D花粉データセットは、粘着性のカバースリップを使用して平らな基板上でキャプチャされた花粉サンプルからの画像で構成される。3D花粉データセットは、厚さ800μmのポリジメチルシロキサン(PDMS)基板内に3Dに広がる花粉混合物の画像で構成される。3D花粉データセットにはテスト画像のみが含まれ、2D花粉画像でトレーニングされたネットワークを用いて評価される。両方のデータセットに、ホログラフィック顕微鏡および明視野顕微鏡の両モダリティにおける3D光の伝播動作を捉えるために、焦点が合っている画像と焦点が合っていない画像のペアを学習用に含んでいる。3D花粉PDMSテストデータセットの画像サイズは1024×1024ピクセルで、他の画像のサイズは256×256ピクセルである。
[0060]検証データは拡張されなかった。各トレーニング反復で、生成器ネットワークは学収率10-4の適応モーメント推定(Adam)オプティマイザを用いて6回更新され、一方で弁別器ネットワークは3×10-5の学習率で3回更新された。検証セットは50回の反復ごとにテストされ、検証セットの平均絶対誤差(MAE)損失が最小のものが最適なネットワークとして選択された。ネットワーク36は、オープンソースの深層学習パッケージであるTensorFlowを使用して構築された。トレーニングと推論は、6コア3.6GHzのCPUと16GBのRAMを搭載したPCで、Nvidia GeForceGTX1080TiGPUを用いて行った。平均して、トレーニングプロセスは約50,000回の反復(約40エポックに相当)に対して約90時間かかった。トレーニング後のネットワーク推論時間は、256×256ピクセルの画像パッチで約0.1秒だった。
[0061]サンプル調製
[0062]乾燥した花粉サンプル:バミューダグラス花粉(Cynodon dactylon)、オークツリー花粉(Quercus agrifolia)、およびブタクサ花粉(Artemisia artemisifolia)をStallergenes Greer(NC、米国)から購入し(それぞれカタログ番号:2、195、および56)、2:3:1の重量比で混合した。この混合物を、2D花粉サンプル用のインパクションベースの空気サンプラの粘着性のカバースリップに付着させた。また、混合物をPDMSで希釈し、3D花粉サンプル用のガラススライド上で硬化させた。直径1μmのポリスチレンビーズサンプルをThermo Scientific(カタログ番号:5100A)から購入し、メタノールで1000倍に希釈した。希釈したビーズサンプルの2.5μLの液滴を、洗浄した#1カバースリップ上にピペットで移し、乾燥させた。
[0063]トレーニングデータの準備
[0064]明視野ホログラフィの背後にあるクロスモダリティ変換の成功は、逆伝播ホログラムと3Dの走査明視野顕微鏡画像との正確な位置合わせにかかっている。この位置合わせは図4に示すように2つの部分に分けることができる。第1の部分は、明視野画像(2048×2048ピクセル)をホログラムの画像をマッチングさせるもので、次のような手順で行われる。(1)操作122に示すように、ImageJのプラグインであるMicroscopy Image Stitching Tool(MIST)を用いて、各明視野顕微鏡スタックの中間面をつなぎ合わせることにより、約20,000×4,000ピクセルのスティッチされた明視野フルFOV画像を生成する。(2)操作112に示すように、陰影補正されたフルFOVホログラムを、ホログラム中央の512×512ピクセルの領域にオートフォーカスすることによって特定されるグローバル焦点距離まで逆伝播する。(3)操作124に示すように、明視野フルFOV画像を、手動で選択された3~5組のマッチングポイントを通して剛体変換をフィットさせることにより、逆伝播されたホログラムフルFOVに大まかに位置合わせする。(4)次に、この変換を用いて明視野フルFOVをワープし(操作128)、ホログラムと重なる領域をトリミングしてマッチングペアを生成する(操作114、130)。
[0065]第2の部分では、次の手順でx-y方向とz方向の位置合わせをさらに調整する。(1)操作116、132に示すように、トリミングされたFOVから小さなFOVペア(300×300ピクセル)を選択する。(2)各ホログラムパッチに対してオートフォーカスを行い(操作118)、このパッチの焦点距離をz Holoとして求める。(3)スタック内の各明視野高さの標準偏差(std)を計算し、明視野スタックのフォーカス曲線を得る。フォーカス曲線の中でstd値が最も高い4つの高さに2次多項式フィットを行い、この明視野スタックの焦点をフィットのピーク位置であると決定し、z BFとする。(4)高さz BFのスタック内の各顕微鏡スキャンについて、距離z BF-z BF+z Holoだけホログラムを後方伝搬することによって、対応するホログラム画像を生成する。ここで、リンギングアーチファクトを避けるために、伝播中にホログラムに対称パディングが用いられた。(5)各スタックで最も焦点の合った面と、他の5つのランダムに選択された焦点のずれた面とを選択した(操作120)。(6)焦点面に最も近い小さなFOV画像ペアにピラミッド弾性位置合わせ(操作142)を行い、他の5つの焦点が合っていない画像ペアに同じ位置合わせワーピング(registered warping)が適用され、合計6つの整列した小さなFOVペアを生成した。(7)対応するパッチを256×256ピクセルの画像サイズにトリミングした(操作144)。ピラミッド型位置合わせでは正しい変換に収束しないことがあるため、生成されたデータセットも手動で検査し、位置合わせエラーによる重大なアーチファクトがあるデータが削除された。
[0066]ネットワークとトレーニングの詳細
[0067]ここで実装されたGAN36は、図3に示すように、生成器ネットワーク(G)と弁別器ネットワーク(D)から構成される。生成器(G)は、オリジナルのU-Net設計を少し変更し、残りの接続を追加したものを使用した。弁別器ネットワーク(D)は、6つの畳み込みブロックと2つの完全接続(線形)層を備えた畳み込みニューラルネットワークである。生成器の入力は、256×256×2の大きさで、2つのチャネルは、逆伝播された複素数値ホログラムの虚数15bと実数15aの部分であった。生成器(G)の出力と弁別器(D)の入力のサイズは256×256×3で、3つのチャネルは明視野画像の赤、緑、青(RGB)チャンネルに対応している。画像の登録とトリミングに続いて、データセットの75%をトレーニング用、15%を検証用、10%をブラインドテスト用に分割した。トレーニング用データは約6,000の画像ペアで構成され、画像をランダムに回転・反転させることでさらに30,000枚に拡張した。検証用データは拡張しなかった。
[0068]トレーニングフェーズ中に、ネットワークは、次のように定義される生成器損失Lおよび弁別器損失Lを反復的に最小化した。
[0069]
Figure 2022507259000004
[0070]
Figure 2022507259000005
[0071]ここで、G(x(i))は入力x(i)の生成器出力、z(i)は対応するターゲット(明視野)画像、D(.)は生成器、MAE(.)は平均絶対誤差を表し、次のように定義される。
[0072]
Figure 2022507259000006
[0073]ここで、画像はL×Lピクセルである。Nは画像バッチサイズ(例えば、N=20、αはLのGAN損失とMAE損失のバランスパラメータで、α=0.01として選択した結果、L全体の損失のうち、それぞれGAN損失が99%とMAE損失が1%を占めた。Adam(Adaptive momentum)オプティマイザを使用してLとLを最小化し、学習率はそれぞれ10-4と3×10-5とした。各反復で、生成器の更新を6回と弁別器ネットワークの更新を3回行った。50回の反復ごとに検証セットをテストし、検証セットでのMAE損失が最も少ないネットワークを最適なネットワークとして選択した。ネットワーク36はTensorFlowを用いて実装したが、他のソフトウェアプログラムを使用してもよいことを理解されたい。
[0074]PSF分析のための横方向および軸方向のFWHM値の推定
[0075]最も焦点の合ったホログラム平面にしきい値を使用して、それぞれが単一のビーズを含む個々のサブ領域を抽出した。各サブ領域に対して2Dガウスフィットを実行し、横方向のPSF FWHMを推定した。フィット重心を使用してx-zスライスを切り出し、各スライスに対して別の2Dガウスフィットを実行して、(i)逆伝播ホログラムスタック、(ii)ネットワーク出力スタック、および(iii)走査型明視野顕微鏡スタックの軸方向のPSF FWHM値を推定した。続いて図9Bと9Cに示すように、横方向および軸方向のPSF FWHMのヒストグラムを作成した。
[0076]画質の定量評価
[0077]各ネットワーク出力画像Ioutを、以下の4つの異なる基準を使用して、対応するグラウンドトゥルース(明視野顕微鏡)画像IGTと比較して評価した:(1)二乗平均平方根誤差(RMSE)、(2)相関係数(Corr)、(3)構造的類似性(SSIM)、および(4)ユニバーサル画質指標(UIQI)。RMSEは次のように定義される:
[0078]
Figure 2022507259000007
[0079]ここで、LとLはそれぞれx方向とy方向のピクセル数を表す。
[0080]相関係数は次のように定義される。
[0081]
Figure 2022507259000008
[0082]ここで、σoutとσGTはそれぞれIoutとIGTの標準偏差であり、σout,GTは2つの画像間の相互分散である。
[0083]SSIMは次のように定義される。
[0084]
Figure 2022507259000009
[0085]ここで、μoutとσGTはそれぞれ画像IoutとIGTの平均値である。CおよびCは、ゼロに近い分母による除算を防ぐために使用される定数である。
[0086]UIQIは、相関係数(Corr、式(5)を参照)、輝度の歪み(I)、およびコントラストの歪み(c)の3つの成分の積である。すなわち:
[0087]
Figure 2022507259000010
ここで:
[0088]
Figure 2022507259000011
[0089]
Figure 2022507259000012
[0091]UIQIは、サイズB×BのM個のウィンドウにわたって局所的に測定され、ローカルUIQI:Q(i=1,2,...,M)を生成した。次に、これらのローカルUIQIの平均値をグローバルUIQIとして定義した
[0092]
Figure 2022507259000013
[0093]サイズB=8のウィンドウを使用した。
[0094]上記指標に加えて、Matlab組み込み関数「brisque」を用いて、BRISQUE(Blind Reference-less Image Spatial Quality Evaluator)でも画質を評価した。
[0095]本発明の実施形態を図示し、説明してきたが、本発明の範囲から逸脱することなく、様々な変更を行うことができる。インラインのレンズレスホログラフィック顕微鏡を使用しているが、この方法は他のホログラフィックおよび干渉顕微鏡およびイメージャに適用可能であることを理解されたい。したがって、本発明は、添付の特許請求の範囲およびそれらの均等物以外のもので限定されるべきではない。

Claims (39)

  1. ホログラフィック顕微鏡で取得したサンプルの画像を、異なる顕微鏡画像モダリティを有する顕微鏡で取得した顕微鏡画像に実質的に類似する画像へと変換する方法であって、 前記ホログラフィック顕微鏡で前記サンプルの単一のホログラフィック画像を取得するステップと、
    1つまたは複数のプロセッサを用いるコンピューティングデバイスで実行される画像処理ソフトウェアを使用して、前記サンプルのホログラフィック画像を特定の深度まで逆伝播するステップと、
    前記特定の深度での前記サンプルの逆伝播ホログラフィック画像を、コンピューティングデバイスによって実行されるトレーニングされた深層ニューラルネットワークに入力するステップと、
    前記トレーニングされた深層ニューラルネットワークから前記特定の深度での前記サンプルの画像を出力するステップとを含み、この出力画像は、異なる顕微鏡画像モダリティを有する顕微鏡を用いて同じ特定の深度で得られた前記サンプルの顕微鏡画像に実質的に類似することを特徴とする方法。
  2. 前記ホログラフィック画像がモノクロ画像を含み、前記出力画像がカラー画像を含む、請求項1に記載の方法。
  3. 前記サンプルが3次元サンプルを含み、前記出力画像が3D画像スタックを含む、請求項1に記載の方法。
  4. 前記ホログラフィック顕微鏡が、コヒーレントまたは部分コヒーレント光源を含む、請求項1に記載の方法。
  5. 前記出力画像には、スペックルおよび干渉アーチファクト、および/または双像ノイズが実質的にない、請求項1に記載の方法。
  6. 前記ホログラフィック顕微鏡で得られた複数のトレーニング画像と、前記異なる画像モダリティを有する顕微鏡で得られたそれらに対応するグラウンドトゥルース画像とを使用して、前記深層ニューラルネットワークがトレーニングされる、請求項1に記載の方法。
  7. 前記異なる画像モダリティが明視野顕微鏡画像を含む、請求項6に記載の方法。
  8. 前記異なる画像モダリティが蛍光顕微鏡画像を含む、請求項6に記載の方法。
  9. 前記異なる画像モダリティが暗視野顕微鏡画像を含む、請求項6に記載の方法。
  10. それぞれのトレーニング画像とグラウンドトゥルース画像は、それぞれの画像からの視野を一致させた後、ピラミッド弾性位置合わせ操作(pyramid elastic registration operation)を行うことによって、互いに位置合わせされる、請求項6に記載の方法。
  11. 前記出力画像が、前記入力画像および/または前記異なる画像モダリティを有する顕微鏡で得られたグラウンドトゥルース画像の横方向および/または軸方向解像度を超える横方向および/または軸方向解像度を有する、請求項6に記載の方法。
  12. 前記コンピューティングデバイスが、1つまたは複数のグラフィック処理ユニット(GPU)を含む、請求項1に記載の方法。
  13. 前記トレーニングされた深層ニューラルネットワークから、異なる深度での前記サンプルの複数の画像を出力するステップを含み、前記複数の出力画像が、前記異なる顕微鏡画像モダリティを有する顕微鏡で同じ深度で取得された前記サンプルの対応する顕微鏡画像に実質的に類似している、請求項1記載の方法。
  14. 前記ホログラフィック顕微鏡がレンズレス顕微鏡を含む、請求項1に記載の方法。
  15. 前記ホログラフィック顕微鏡が携帯型顕微鏡を含む、請求項1に記載の方法。
  16. ホログラフィック顕微鏡で取得したサンプルの画像を、異なる顕微鏡画像モダリティを有する顕微鏡で取得した顕微鏡画像に実質的に類似する画像へと変換する方法であって、
    前記ホログラフィック顕微鏡で前記サンプルの単一のホログラフィック画像を取得するステップと、
    前記サンプルのホログラフィック画像を、コンピューティングデバイスによって実行されるトレーニング済み深層ニューラルネットワークに入力するステップと、
    前記トレーニング済み深層ニューラルネットワークから特定の深度での前記サンプルの画像を出力するステップとを含み、この出力画像は、前記異なる顕微鏡画像モダリティを有する顕微鏡を用いて同じ特定の深度で得られたサンプルの顕微鏡画像に実質的に類似していることを特徴とする方法。
  17. 前記ホログラフィック画像がモノクロ画像を含み、前記出力画像がカラー画像を含む、請求項16に記載の方法。
  18. 前記サンプルが三次元サンプルを含み、前記出力画像が三次元画像スタックを含む、請求項16に記載の方法。
  19. 前記ホログラフィック顕微鏡が、コヒーレントまたは部分コヒーレント光源を含む、請求項16に記載の方法。
  20. 前記出力画像には、スペックルおよび干渉アーチファクト、および/または双像ノイズが実質的にない、請求項16に記載の方法。
  21. 前記ホログラフィック顕微鏡で得られた複数のトレーニング画像と、前記異なる画像モダリティを有する顕微鏡で得られたそれらに対応するグラウンドトゥルース画像とを使用して、前記深層ニューラルネットワークがトレーニングされる、請求項16に記載の方法。
  22. 前記出力画像が、前記異なる画像モダリティを有する顕微鏡で得られた入力画像および/またはグラウンドトゥルース画像の横方向および/または軸方向解像度を超える横方向および/または軸方向解像度を有する、請求項16に記載の方法。
  23. 前記異なる画像モダリティが明視野顕微鏡画像を含む、請求項16に記載の方法。
  24. 前記異なる画像モダリティが蛍光顕微鏡画像を含む、請求項16に記載の方法。
  25. 前記異なる画像モダリティが暗視野顕微鏡画像を含む、請求項16に記載の方法。
  26. それぞれのトレーニング画像とグラウンド・トゥルース画像は、それぞれの画像からの視野を一致させ、その後にピラミッド弾性位置合わせ操作を行うことによって互いに位置合わせされる、請求項21に記載の方法。
  27. 前記コンピューティングデバイスは、1つまたは複数のグラフィック処理ユニット(GPU)を含む、請求項16に記載の方法。
  28. 前記トレーニングされた深層ニューラルネットワークから、異なる深度での前記サンプルの複数の画像を出力するステップを含み、前記複数の出力画像は、前記異なる顕微鏡画像モダリティを有する顕微鏡でそれぞれ同じ深度で得られた前記サンプルの対応する顕微鏡画像に実質的に類似している、請求項16記載の方法。
  29. 前記ホログラフィック顕微鏡がレンズレス顕微鏡を含む、請求項16に記載の方法。
  30. 前記ホログラフィック顕微鏡が携帯型顕微鏡を含む、請求項16に記載の方法。
  31. 顕微鏡システムであって、
    ホログラフィック顕微鏡と、
    実行可能なソフトウェアを有し、トレーニングされた深層ニューラルネットワークを含む画像処理ソフトウェアを実行するように構成された1つまたは複数のコンピューティングデバイスとを具え、前記トレーニングされた深層ニューラルネットワークは、前記ホログラフィック顕微鏡で取得されたサンプルの生および/または逆伝播ホログラム画像を入力として受け取り、前記サンプル内の任意の深度での当該サンプルの1つまたは複数の出力画像を出力し、ここで前記1つまたは複数の出力画像は、異なる顕微鏡画像モダリティを有する顕微鏡で取得された、前記サンプル内の同じ任意の深度で取得された前記サンプルの顕微鏡画像に実質的に類似していることを特徴とする顕微鏡システム。
  32. 前記深層ニューラルネットワークは、前記ホログラフィック顕微鏡で得られた複数のトレーニング画像と、前記異なる画像モダリティを有する顕微鏡で得られたそれらに対応するグラウンドトゥルース画像を使用してトレーニングされる、請求項31に記載の顕微鏡システム。
  33. 前記異なる画像モダリティが明視野顕微鏡画像を含む、請求項31に記載の顕微鏡システム。
  34. 前記異なる画像モダリティが蛍光顕微鏡画像を含む、請求項31に記載の顕微鏡システム。
  35. 前記異なる画像モダリティが暗視野顕微鏡画像を含む、請求項31に記載の顕微鏡システム。
  36. 前記ホログラフィック顕微鏡がレンズレス顕微鏡である、請求項31に記載の顕微鏡システム。
  37. 前記ホログラフィック顕微鏡が携帯型顕微鏡を含む、請求項31に記載の顕微鏡システム。
  38. 前記サンプルは三次元サンプルを含み、前記出力画像は3D画像スタックを含む、請求項31に記載の顕微鏡システム。
  39. 前記1つまたは複数のコンピューティングデバイスが、パーソナルコンピュータ、ラップトップ、タブレットPC、ポータブル電子デバイス、サーバ、または仮想サーバのうちの1つまたは複数を含む、請求項31に記載の顕微鏡システム。
JP2021525740A 2018-11-15 2019-11-14 ホログラフィック顕微鏡画像を様々なモダリティの顕微鏡画像に変換するためのシステムおよび方法 Pending JP2022507259A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862768040P 2018-11-15 2018-11-15
US62/768,040 2018-11-15
PCT/US2019/061494 WO2020102546A1 (en) 2018-11-15 2019-11-14 System and method for transforming holographic microscopy images to microscopy images of various modalities

Publications (1)

Publication Number Publication Date
JP2022507259A true JP2022507259A (ja) 2022-01-18

Family

ID=70730917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021525740A Pending JP2022507259A (ja) 2018-11-15 2019-11-14 ホログラフィック顕微鏡画像を様々なモダリティの顕微鏡画像に変換するためのシステムおよび方法

Country Status (3)

Country Link
JP (1) JP2022507259A (ja)
CN (1) CN113039493A (ja)
WO (1) WO2020102546A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024117192A1 (ja) * 2022-11-30 2024-06-06 国立研究開発法人理化学研究所 検体を撮影した画像の分解能を向上させる画像処理

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022516467A (ja) 2018-12-26 2022-02-28 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 深層学習を使用した表面への2次元蛍光波伝播システムと方法
FR3115045A1 (fr) * 2020-10-09 2022-04-15 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procédé de caractérisation de microorganismes
US11915360B2 (en) 2020-10-20 2024-02-27 The Regents Of The University Of California Volumetric microscopy methods and systems using recurrent neural networks
US20240111140A1 (en) * 2020-12-04 2024-04-04 Phio Scientific Gmbh Device for capturing microscopy images

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11320362B2 (en) * 2016-09-23 2022-05-03 The Regents Of The University Of California System and method for determining yeast cell viability and concentration
US10365606B2 (en) * 2017-04-07 2019-07-30 Thanh Nguyen Apparatus, optical system, and method for digital holographic microscopy

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024117192A1 (ja) * 2022-11-30 2024-06-06 国立研究開発法人理化学研究所 検体を撮影した画像の分解能を向上させる画像処理

Also Published As

Publication number Publication date
EP3881137A1 (en) 2021-09-22
WO2020102546A1 (en) 2020-05-22
CN113039493A (zh) 2021-06-25
EP3881137A4 (en) 2022-01-19
US20220012850A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
US11514325B2 (en) Method and system for phase recovery and holographic image reconstruction using a neural network
JP2022507259A (ja) ホログラフィック顕微鏡画像を様々なモダリティの顕微鏡画像に変換するためのシステムおよび方法
de Haan et al. Deep-learning-based image reconstruction and enhancement in optical microscopy
US20220254538A1 (en) Fourier ptychographic imaging systems, devices, and methods
CN109884018B (zh) 一种基于神经网络的亚微米级无透镜显微成像方法及系统
US9817224B2 (en) Methods and systems for Fourier ptychographic imaging
US20200082557A1 (en) Device and method for producing a three-dimensional image of an object
JP2022516467A (ja) 深層学習を使用した表面への2次元蛍光波伝播システムと方法
Mahmood et al. Optimal depth estimation by combining focus measures using genetic programming
US10694123B2 (en) Synthetic apertures for long-range, sub-diffraction limited visible imaging using fourier ptychography
CN110313016B (zh) 一种基于稀疏正源分离模型的图像去模糊算法
US20230085827A1 (en) Single-shot autofocusing of microscopy images using deep learning
US10908060B2 (en) Method for determining parameters of a particle
Sahay et al. Dealing with parallax in shape-from-focus
KR20200047622A (ko) 단일 분포 및 딥 러닝에 기초한 초해상도 계측 방법
EP3881137B1 (en) System and method for transforming holographic microscopy images to microscopy images of various modalities
US12020165B2 (en) System and method for transforming holographic microscopy images to microscopy images of various modalities
US20210215472A1 (en) Systems and methods for interferometric multifocus microscopy
Barutcu et al. Compressive ptychography using deep image and generative priors
TW201935074A (zh) 在螢光顯微鏡成像期間用於延伸景深的方法及設備
Lee et al. AI-guided optical-model-based superresolution for semiconductor CD metrology
US10989648B2 (en) Method for forming a high resolution image by lensless imaging
Averkin et al. Using the method of depth reconstruction from focusing for microscope images
Cheng et al. AI-powered deconvolution-based super-resolution imaging for semiconductor OCD metrology and precise stage positioning
Wu Deep Learning-Enabled Computational Imaging in Optical Microscopy and Air Quality Monitoring