JP7192128B2 - 機械学習による光学補正 - Google Patents

機械学習による光学補正 Download PDF

Info

Publication number
JP7192128B2
JP7192128B2 JP2021535195A JP2021535195A JP7192128B2 JP 7192128 B2 JP7192128 B2 JP 7192128B2 JP 2021535195 A JP2021535195 A JP 2021535195A JP 2021535195 A JP2021535195 A JP 2021535195A JP 7192128 B2 JP7192128 B2 JP 7192128B2
Authority
JP
Japan
Prior art keywords
neural network
training
images
image
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021535195A
Other languages
English (en)
Other versions
JP2022514580A (ja
Inventor
カッペル コンスタンティン
ファールバッハ フローリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Microsystems CMS GmbH
Original Assignee
Leica Microsystems CMS GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Microsystems CMS GmbH filed Critical Leica Microsystems CMS GmbH
Publication of JP2022514580A publication Critical patent/JP2022514580A/ja
Application granted granted Critical
Publication of JP7192128B2 publication Critical patent/JP7192128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、光学的結像エラーを補正するニューラルネットワークを決定するための方法および装置に関する。
光学系は、出力側から光学系を離れ光学系の入力側の波形と異なるような、光学伝達関数(OTF)とも称される結像関数として理解することができる。これらの変動の多くは望ましくなく、収差、非点収差、ケラレおよび/またはコマ収差などの既知の光学的結像エラーにつながる。光学的結像エラーは、例えば対物レンズや個々のレンズなどの光学系の製造と機能性とに関連付けられる可能性がある。これらの光学的結像エラーは、画像内の特定の情報が直接読み取れなくなるなど画像の品質を損なわせる可能性がある。
従来技術では、光学的結像エラーを補正するさまざまな方法が示されている。これらの光学エラーを回避するための従来技術からの1つの可能性は、光学系をそれらの製造時に最適化することにある。例えば、色収差を低減するためのレンズの被覆(コーティング)、または厳密に定められた物理的特性を有する特定のガラスや鉱物の使用により、光学的結像エラーを低減することが可能である。代替的に、特定の状況において付加的な光学的構成素子の使用により、光学系において光学特性の改善を喚起することもできる。
しかしながら、従来技術からのこの方法には、以下で考察されるいくつかの欠点および問題がある。光学エラーは、より高品質な材料を使用するか、光学系においてさらなる光学素子を使用することによって低減することができるが、完全に回避することはできない。例えば、対物レンズにおける画像誤差の補正は、縁部に向かって減少する可能性がある。対物レンズが指定される像面上の開口数についての確定は、ある程度、開発者の裁量に委ねられており、特定の品質パラメータの低下ならびに推定すべき製造許容誤差に依存する。ただし、製造許容誤差に関連する光学的結像エラーは、光学部品の最適化によって排除することはできない。そのため、高品質の対物レンズは非常に小さな製造許容誤差しか許容できない。さらに、結像エラーを低減するこの方法によれば、高いコスト(材料コストまたは追加部品によるコスト)が発生する可能性もある。
光学的結像エラーを補正するための別の手段は、撮像系によって捕捉された画像が、電子データ処理(EDP)を用いて後続処理されることである。典型的には、画像誤差の補正は、数学モデルを用いて実施される。その際、エラーの個々の成分の記述は、ゼルニケ多項式を用いて行うことが可能である。これらの画像誤差は、球面収差、色収差、非点収差、コマ収差などの成分に分解され、これらは特定のゼルニケ多項式にも割り当てられる。ここで、対物レンズを用いて点光源の画像が記録され、それによって、対物レンズの点像分布関数(PSF)が決定される場合、測定された点画像を理想的な点画像と比較することにより、個々の画像誤差の寄与、ひいてはゼルニケ多項式の振幅を推論することができる。ただし、この場合、対物レンズのPSFの正確な決定が必要である。これは常に可能であるとは限らず、場合によっては過度に不正確なこともある。
例えば、ケラレ補正やデコンボリューションなどの他の方法を、光学エラーの補正のために使用することもできる。ケラレ補正のための既存の方法では、通常、均質なサンプルを用いて基準画像が記録され、その後で、これは、線形法を用いて、サンプルの記録された画像とオフセットされる。ただし、この方法には、1つのサンプルレベルでのみ機能し、ケラレに関連する他のエラーを無視するという欠点がある。
結像エラーを補正するための従来技術からのこれらの数学的方法の欠点は、当該数学的方法が、未知の対物レンズを用いて記録された古いデータに対してまったくか、または限定的にしか適用できないことにある。なぜなら、それらは、特定のサンプルの測定値、または対物レンズの測定とその光学特性とに依存しているからである。それゆえ、これらの従来技術からの方法は、未知の対物レンズを用いて記録された古いデータ(画像)に適用可能でないか、または不正確な結果を提供する。
したがって、本発明の課題は、光学的結像エラーを補正するための改善された手段を提供することである。
本発明は、言及された問題および課題を、光学的結像エラーを補正するニューラルネットワークを決定するための方法によって解決している。この方法は、1つ以上の画像を決定するステップであって、ここで、1つ以上の画像は、少なくとも部分的に光学系または光学系の仕様に関連付けられているステップと、決定された1つ以上の画像に依存して、ニューラルネットワークを決定するステップであって、それにより、決定されたニューラルネットワークが、光学系を用いて捕捉された画像に適用されて1つ以上の光学的結像エラーに関して補正された画像を出力するステップと、を含む。
本発明による装置は、1つ以上のプロセッサと、1つ以上のコンピュータ可読記憶媒体と、を含み、ここで、1つ以上のコンピュータ可読記憶媒体上に、それが1つ以上のプロセッサによって実行されるときに、1つ以上の画像が結像系および/または撮像系を用いて捕捉されることを引き起こす、コンピュータ実行可能命令が格納されており、ここで、1つ以上の捕捉された画像における1つ以上の光学的結像エラーは、結像系および/または撮像系の少なくとも一部に関連付けられ、ニューラルネットワークが、1つ以上の捕捉された画像に適用され、ここで、ニューラルネットワークは、1つ以上の補正された画像において1つ以上の光学的結像エラーが補正または低減されるように、1つ以上の捕捉された画像から1つ以上の対応する補正された画像を生成するように構成されている。
本発明による方法および本発明による装置では、ニューラルネットワークが、例えばディープランニングの意味で光学的結像エラーの補正のために決定もしくは適用されるという利点を有する。これは、既存の光学系の結像性能を向上させることを可能にする。さらに、本発明による方法および本発明による装置は、光学系の製造におけるコストが節約できることを可能にする。光学系、例えば高性能な光学系の製造コストは、光学的結像エラーを回避するためにどのような手段を講じる必要があるか(材料の選択、コーティングの被着、さらなるレンズおよびレンズ群の挿入など)に大きく依存している。光学系の製造時のさらなるコスト要因は、光学部品の許容変動にある。本発明による方法は、光学パラメータの変動に対してより高い許容誤差を可能にする。これにより、コストを削減することができる。光学的結合エラーを補正するニューラルネットワークを決定することにより、例えば、光学系の製造における特定の製造ステップを節約することができ、より費用効果の高い材料を使用することができ、かつ/または光学的構造部の簡素化(例えばレンズの削除による)を行うことができる。これにより、光学的結像エラーを補正するニューラルネットワークと組み合わせて動作する撮像系または光学系を、より費用効果の高いやり方で製造することができる。その他に、ニューラルネットワークは、これまで未知の用途についてもより良好な一般化を可能にする。
本発明による方法および本発明による装置のさらなる利点は、画質に影響を与えることなくそれらの使用領域が拡張されるように光学系を適合化させることができる点にある。例えば、光学系の特定のパラメータに対してより細分化された要求を課すことができる。これにより、他の光学特性の自由度が高まり、このことは、新しい適用領域を開かせる。例えば、最大平坦度と最大作動距離とは相互に排他的である。光学系の平坦度に関連する光学エラーが、これらのエラーを補正するニューラルネットワークの決定によって無視することができる場合、より長い作動距離が可能になり、それによって、サンプル選択時の融通性も増す。さらに、本発明による方法は、非線形的でもある複数の光学エラーを同時に補正する手段を提供することができる。
本発明による方法および本発明による装置は、それぞれ、特定の実施形態によってさらに改善することができる。ここでは、以下に記載される本発明の実施形態の個々の技術的特徴は、省かれた技術的特徴で得られる技術的効果が重要でない限り、任意に相互に組み合わせることができ、かつ/または任意に省くことができる。
一実施形態では、ニューラルネットワークを決定するステップは、ニューラルネットワークをトレーニングすることを含む。この1つ以上の画像を決定するステップは、トレーニング画像を決定することを含むことができ、ここで、ニューラルネットワークをトレーニングすることは、複数の画像対を含むトレーニング画像におけるトレーニングを含む。トレーニング用の複数の画像対の各画像対は、それぞれ、ニューラルネットワーク用の入力画像および目標出力画像を含むことができる。これは、未知の対物レンズを用いて記録された古いデータの結像エラーの補正を可能にし、これによって、ニューラルネットワークが、光学系または光学系の仕様に関連して学習されたトレーニングデータに基づいて、光学的結像エラーを補正することが可能になる。つまり、個々のケースにおいて、必ずしも既存の対物レンズごとに基準測定を実施する必要はなくなる。なぜなら、ニューラルネットワークは、画像データと画像内容とがどのように見えるべきかを学習するからである。従来の方法ではこれを行うことができない。
実施形態では、トレーニング画像は、例えば1つ以上のサンプルタイプを結像する捕捉された画像から生成することができ、ここで、捕捉された画像は、1つ以上の光学系を用いて、かつ/または光学系により捕捉されたものであり、ここで、1つ以上の光学系のいずれも光学系と同じ仕様でないか、1つ以上の光学系の一部またはすべてが光学系と同じ仕様である。先のものと組み合わせ可能なさらなる実施形態では、トレーニング画像は、光学的結像エラーのシミュレーションによって生成することができる。このシミュレーションについては、光学系または光学系の仕様に対して、光学伝達関数(OTF)または点像分布関数(PSF)を決定することができる。代替的に、OTFまたはPSFは、シミュレーションに依存することなく決定することもできる。相互に移行させることができるPSFまたはOTFを用いれば、エラーのない画像とPSFとの畳み込みにより、複数の画像対の入力画像を生成することができる。これは、ほぼ「完全な」トレーニングデータ(画像対)の生成を可能にする。なぜなら、エラーのない画像が、複数の画像対の対応する目標出力画像として使用できるからである。光学系は、顕微鏡、顕微鏡システム、カメラ、スマートフォン、望遠鏡、コンピュータ(好適には携帯型であってもよい)、または測定機器の結像系および/または撮像系の一部であってよく、1つ以上のコンポーネント(例えば、レンズ、ミラーおよび/または他の光学部品)を含む。
一実施形態では、ニューラルネットワーク(以下では第1のニューラルネットワークとも称する)のトレーニングのために、さらなる(第2の)ニューラルネットワークを適用することができる。このさらなるニューラルネットワークは、第1のニューラルネットワークのトレーニング用の損失関数として適用することができる。これは、第1のニューラルネットワークの改善されたトレーニングを可能にする。なぜなら、損失関数としてのニューラルネットワークが、正確なトレーニングを可能にさせ、そこでは、ニューラルネットワークの出力が所望の画像に等しいことが保証されるからである。これは、出力画像におけるエラーが画素毎にのみ計算される場合には保証されない。そのため、出力される画像は、独立した画素のセットとして扱われるのではなく、意味的関係におかれる。
好適な実施形態では、決定されたニューラルネットワークをさらにトレーニングする(微調節する)ことができる。この微調節(以下では微調整とも称する)には、特定の(第1の)ニューラルネットワークの一部のみをトレーニングすることを含めることができる。ここでは、決定されたニューラルネットワークの1つ以上のパラメータは、微調節中に不変のまま維持することができる。さらに、この微調節には、光学系用に特別にトレーニングすることを含めることができる。そのため、ニューラルネットワークは、光学系にとって特有の結像エラーを補正するために適合化させることができる。微調節されたニューラルネットワークは、一義的に光学系に割り当てることができる。微調節は、個々のトレーニングデータに基づいて実施することができる。個々のトレーニングデータは、光学系に関連する光学特性および/または測定サンプルに基づいて生成できる。光学系の光学特性は、1つのステップにおいて決定することができ、かつ/または測定サンプルは、光学系を用いて捕捉することができる。測定サンプル、光学特性および個々のトレーニングデータのうちの少なくとも1つは、例えばデータベースに格納することができ、この場合、これらの測定サンプル、光学特性および/または個々のトレーニングデータは、光学系に一義的に割り当てられている。
本発明による方法の実施形態では、光学系は、一義的に、かつ/または自動的に識別可能であってよい。第1のニューラルネットワーク、ならびに適合化/微調節されたニューラルネットワークは、一義的に光学系に割り当てることができる。例えば、光学系は、電磁的識別、光学的識別、機械的識別、または磁気的識別によって識別可能であってよい。
先の実施形態と組み合わせ可能である一実施形態では、光学的結像エラーを補正する本発明による方法は、決定されたニューラルネットワークまたは微調節されたニューラルネットワークを、捕捉されたデータに適用することを含む。捕捉されたデータ(例えば画像)は、光学系または同じタイプの光学系を用いて(ならびに光検出器、または走査システムの場合は点光検出器を用いて)捕捉されたものであってもよい。光学的結像エラーには、非点収差、ケラレ、コマ収差、色収差、球面収差、または焦点ぼけが含まれ得る。
実施形態では、ニューラルネットワークを決定するステップは、1つ以上の特定の画像に基づいてニューラルネットワークをトレーニングすることを含むことができ、ここで、ニューラルネットワークは、トレーニング中にオブジェクトおよび/または構造部が1つ以上の画像内で理想的にどのように見え、そこからの偏差をどのように補正するかを学習する。これは、OTFが正確にわからない場合の結像エラーの補正を可能にする。この場合、ニューラルネットワークは、どのタイプのエラーが存在し、どのタイプのオブジェクトが捕捉された画像内で結像されているかを自動的に認識できる。その際、エラーのタイプもオブジェクトのタイプも明示的に指定する必要はない。ニューラルネットワークは、捕捉された画像内のオブジェクトを補正された画像に転送するようにトレーニングされ、それにより、「暗黙的に」、つまり学習されたパラメータの一部としてネットワーク内でオブジェクトが適正に再構築される。これについての前提条件は、ニューラルネットワークがトレーニングの際に類似のオブジェクトを見出すことである。ここでの類似が意味することは、補正すべき画像内でも同じ画像特徴がトレーニング画像内に存在していたことである。つまり、トレーニング画像は、捕捉された画像との脈絡がある。
一実施形態では、本発明による装置は、1つ以上の捕捉された画像を格納し、格納された1つ以上の捕捉された画像にニューラルネットワークを適用するように構成されている。代替的に、ニューラルネットワークは、1つ以上の捕捉された画像に直接適用し、1つ以上の補正された画像のみを格納することもできる。それにより、光学的結像エラーの補正を、既に画像の記録中に、つまり画像の格納前に(「リアルタイム」で)行うことができ、あるいは画像が既に格納された後で初めて行うことができる。結像系および/または撮像系の少なくとも一部は、光学系、写真層、sCMOS、またはCCDセンサ、または1つ以上の拡散ディスクを含むことができる。
本発明の発明対象は、さらに例示的な図面に基づいて、より詳細に説明される。これらの図面には、本発明の好適な実施形態の例が示されている。
一実施形態による、光学的結像エラーを補正するニューラルネットワークを決定するための本発明による方法の概略図である。 一実施形態による、ニューラルネットワークを用いた光学的結像エラーを補正する本発明による方法の概略図である。 一実施形態による、本発明による装置の概略図である。 本発明による方法の実施形態の概略的フローチャートである。
図1は、ニューラルネットワーク130を決定するための方法の概略図を示す。光学的結像エラーを補正するニューラルネットワーク130は、以下では「補正ネットワーク」とも称され、複数のステップ110および120で決定することができ、かつ/またはトレーニングすることができる。付加的に、決定されたニューラルネットワーク130は、さらなるトレーニングステップ140で微調節することができる。画像誤差を補正するニューラルネットワーク130は、例えば、オートエンコーダ、U-Net、または“Generative Adversarial Network”(GAN)を含むことができ、画像を出力するように構成されている。ニューラルネットワーク130は、CNNとも称される“Convolutional Neural Networks”のクラスに属する。
任意である第1のステップ110では、ステップ120および/または140のトレーニングを準備することができる。可能なトレーニングの準備は、トレーニングステップ120におけるトレーニング用の損失関数136を決定することを含む。例えば、第2のニューラルネットワーク116を決定またはトレーニングし、少なくとも部分的に損失関数136の基礎として使用することができる。例えば、第2のニューラルネットワーク116または第2のニューラルネットワーク116の一部、好適には画像パラメータまたは画像特性を抽出する第2のニューラルネットワーク116の一部を、損失関数136または目標関数としてニューラルネットワーク130のトレーニングに用いることができる。この場合、損失関数136は損失ネットワークである。
この第2のニューラルネットワーク116(以下では「マスターモデル」とも称する)は、データメモリ114に格納されている複数のニューラルネットワークから選択することができ、またこの第2のニューラルネットワーク116は、それ自体が画像を出力するニューラルネットワークである必要はない。例えば、マスターモデル116は、分類問題を解決する事前トレーニングされたニューラルネットワークであり得る。
代替的に、マスターモデルは、いわゆる「トレーニング」112での機械学習を用いて検出または決定することもできる。したがって、マスターモデルは、異なる適用領域(例えば、単一細胞培養、3次元細胞培養、組織切片、オルガノイド、スフェロイド、天然臓器、または生体など)からの複数のサンプルに基づいてトレーニングすることができる。ここでは、いわゆる「教師ありトレーニング」を使用することができる。このトレーニングについては、モデルが例えば分類問題を解決する、つまり、画像自体はまったく出力されないシナリオを使用することができる。マスターモデルは、ニューラルネットワーク130の事後的な使用領域に関連付けた脈略でトレーニングすることができる。例えば、マスターモデルは顕微鏡画像のデータセットを用いてトレーニングすることができる。
マスターモデルは、いわゆる「活性化」を計算するための「Feature-Extractor」として使用することができる。活性化は、どの「ニューロン」が特定の画像部分(Features)に応答するか、つまり、例えば顔または(顕微鏡の脈絡では)細胞小器官が認識されたことを示す。集約された形態では、マスターモデルの全体もしくは一部のすべてのニューロンの活性化は、「画像性」の尺度、ひいては補正された画像の適正さとして見なすことができ、それゆえ、損失関数として使用することができる。
実施形態では、ニューラルネットワーク130を用いて予測を行うか、またはニューラルネットワーク130の収束を「Transfer Learning」によって加速するために、マスターモデルまたはマスターモデルの一部を使用することができる。
補正ネットワーク130は、入力画像Xを出力画像
Figure 0007192128000001
に変換するように、または入力画像Xiを出力画像
Figure 0007192128000002
に結像するように構成されてよい。損失関数136は、補正ネットワーク130の予測
Figure 0007192128000003
と目標出力画像y(エラーのない画像)とがどの程度良好に一致するかについての数値的尺度Ifeatを出力することができる。これらの変数
Figure 0007192128000004
およびyは、ベクトルもしくは行列であり、それらの要素が画像の画素に割り当てられている。トレーニングすべき補正ネットワーク130および損失関数136は、補正ネットワーク130をトレーニングするためのシステムを形成する。
損失ネットワークまたは損失関数は、画像、出力画像
Figure 0007192128000005
および対応する目標出力画像y間の内容の知覚的差異を測定する1つ以上の損失関数を定めるために使用することができる。補正ネットワーク130のトレーニング中、損失ネットワークは変更またはトレーニングされない。
補正ネットワーク130は、実施形態では、ニューラルネットワーク、例えば重み(“weights”)Wによってパラメータ化される「残余畳み込みニューラルネットワーク」であってもよい。補正ネットワーク130は、結像
Figure 0007192128000006
を介して入力画像Xを出力画像
Figure 0007192128000007
に変換する。1つ以上の損失関数の各損失関数は、出力画像
Figure 0007192128000008
と目標出力画像もしくは目標画像yとの間の差分を表すスカラー値を計算することができる。補正ネットワークは、ディープランニングメソッドを用いてトレーニングすることができる。例えば、補正ネットワークは、損失関数136の重み付けされた組み合わせを最小化するために、確率的勾配降下法(“stochastic gradient descent”)を用いてトレーニングすることができる。例えば、重みWは、特徴復元損失Ifeatが最小になるように適合化される。
画素毎の損失に基づく損失関数は、エラーの影響を受けやすく、トレーニングに不正確な結果をもたらす可能性がある。これらの欠点に対抗するために、実施形態において、複数の画像の間で知覚的差異および意味的差異を決定する損失関数を使用することができる。画像分類のために訓練されたマスターモデル116は、入力画像の特徴または意味情報を隠された表現(“hidden representations”)または隠された特徴で表現する特性を既に有している。これらの隠された表現は、画像の類似性についての予測を適中させるために使用できる。したがって、ニューラルネットワーク116は、隠された表現、ひいては意味情報が相互に比較される損失関数136を定めることができる。この損失ネットワーク136は、特徴復元損失Ifeatを定めることができ、これは、目標出力画像yと補正ネットワーク130の出力画像
Figure 0007192128000009
との間の画像の内容における差異についての尺度を示す。
したがって、損失ネットワーク136により、知覚的エラー(英語表記;“perceptual loss”)を決定することができる。したがって、損失ネットワーク136を用いることにより、ニューラルネットワーク130の出力
Figure 0007192128000010
が推定すべき画像のように見えることを保証することができる。これは、画像の画素毎にのみエラーを計算する損失関数の場合には生じない。したがって、出力画像
Figure 0007192128000011
は、独立した画素の量として扱われるのではなく、意味的関係におかれる。
実施形態では、トレーニングデータセットが生成される。このトレーニングデータセットは、画像対126(トレーニング画像)を含むことができ、この場合、これらの画像対126は、当該画像対の一方の画像がニューラルネットワーク130用の入力画像Xであり、当該画像対の他方の画像はニューラルネットワーク130の目標出力画像yに対応していることによって優れている。入力画像Xは、エラーを含んだ画像または測定もしくは捕捉された画像として見ることができ、目標出力画像yは、エラーのない所望の画像または補正された画像として見ることができる。画像対126、特に目標出力画像に基づいて、ニューラルネットワーク130を、可能な複数の結像エラーの1つ以上の結像エラーを補正するようにトレーニングすることができる。画像対126を用いることにより、入力画像内に存在しかつ目標出力画像において欠落もしくは減衰している結像エラーを補正するようにニューラルネットワークをトレーニングすることができる。代替的または付加的に、ニューラルネットワーク130のトレーニング用のトレーニングデータセットは、さらなるデータを含むことができる。このさらなるデータは、以下のうちの少なくとも1つ、すなわち、画像対126またはトレーニング画像に関連するパラメータデータ、検証データ、光学系の製造に関連付けた測定データ、実験または測定の手順に関するデータ、試薬および材料に関する情報、オブジェクトまたはサンプルに関する情報、光学系に関する情報、利用者関連データ、ユーザー入力および画像捕捉系に関する情報のうちの少なくとも1つを含み得る。
トレーニングデータセットは、さまざまな方法を用いて生成することができ、あるいはこれらの方法の組み合わせからも生成することができる。図1では、組み合わせ可能であるトレーニングデータの生成のための2つのステップ122と124との間で区別がなされる。ステップ122では、トレーニングデータを人為的に作成することができる。例えば、結像エラーは、画像処理によって人為的に生成することができる。ステップ124では、トレーニングデータは、測定もしくは捕捉されたデータから生成することができ、この場合、これらの測定もしくは捕捉されたデータは、1つ以上の光学系を用いて捕捉され、光学的結像エラーは、1つ以上の光学系によって生成される。生成されたトレーニングデータは、データメモリ128に格納することができる。トレーニングデータを作成するためのいくつかの可能な方法は、以下でより詳細に説明される。
ニューラルネットワークのトレーニングのためのトレーニングデータを生成する第1の方法(ズームイン戦略)は、1つ以上の光学系を用いた均質なサンプルの画像の記録に基づいている。これらの均質なサンプルから、ズームの異なる画像が作成される。例えば、光学系の最大ズームを用いた第1の記録と、同じ光学系の最小ズームを用いた第2の記録と、は均質なサンプルから生成される。均質なサンプルの画像中央で最大または大きなズームで記録する場合、(ほぼ)エラーのない画像を作成することができ、最小または小さなズームの場合、エラーを含んだ画像を作成することができる。この方法では、画像中央のいくつかの結像エラーは、縁部よりも弱いレベルの影響を与えるという事実が利用されている。
トレーニングデータを生成する第2の方法(シフト戦略)は、均質で構造化されたサンプルの記録から画像対126を生成することを可能にする。第1の方法のように、この方法でも、画像中央の特定の光学的結像エラーが画像縁部よりも弱い影響を与えるという事実が利用される。この第2の方法では、少なくとも1つの画像が、任意のズームで例えば平均的なズームまたは高いズームで記録される。目標出力画像は、少なくとも1つの記録された画像の記録画像の画像中央から作成され、入力画像は、記録された画像からの記録画像の縁部または隅の所定の位置において生成される。トレーニングデータセット用の画像対126は、複数のさまざまな所定の位置および/または異なるズームを含むことができる。トレーニングデータセットの作成のために、記録は、1つ以上の均質なサンプルおよび/または構造化されたサンプルにおいて、1つ以上のタイプの1つ以上の光学系を用いて実施することができる。
トレーニングデータを生成する第3の方法(シミュレーション戦略)は、光学的結像エラーのシミュレーションに基づいている。光学系のフーリエ変換された点像分布関数(PSF)に等しい光学伝達関数(OTF)、または光学系のPSFが既知であるか、または測定もしくはシミュレートできるならば、画像対126は、人為的に生成することができる。目標出力画像として用いることのできるエラーのない画像は、例えば、エラーのない画像と光学系のPSFとの畳み込みなどの数学的方法によって、入力画像として用いることができるエラーを含んだ画像に変換することができる。
トレーニングデータセットは、複数の光学系、例えば複数の対物レンズを用いてさまざまな仕様が作成可能である。これには、これらのトレーニングデータでトレーニングされたニューラルネットワークが使用されるすべての光学系または光学系のタイプが含まれる。例えば、トレーニングデータは、さまざまな対物レンズを用いて生成することができ、ニューラルネットワークは、これらのトレーニングデータを用いてトレーニングすることができる。このニューラルネットワークは、さまざまな対物レンズの1つ以上によって捕捉された測定画像内の結像エラーを補正するために使用できる。
トレーニングデータセットは、クラウド、データメモリ128、例えば、スタンドアロンコンピュータなどのコンピュータ、またはニューラルネットワークのトレーニングに適したサーバーに格納することができる。次いで、サーバーまたはコンピュータは、トレーニングを実施し、トレーニングからの結果を再びメモリ(例えば、データメモリ128または他のメモリ)に格納することができる。
ニューラルネットワークは、ディープラーニングメソッドでトレーニングできる。これには、少なくとも1つのディープランニング手法の計画された適用が含まれるが、特定の目標を達成するために複数のディープランニング手法が好適である。この場合、この目標には、画像処理(例えば、1つ以上の光学エラーの補正、別の画像からの画像の生成、ここでは画像内の少なくとも1つの特徴が異なっているなど)を含めることができる。ディープランニング手法は、手順をわかりやすいステップに細分化し、この手順を繰り返すことができるようにした一連の方法ステップを含むことができる。これらの方法ステップは、特定のディープランニングアルゴリズムであってよいが、ネットワークを学習させるメソッド(バックプロパゲーションなど)であってもよいし、データ収集の種類、またはハードウェアを介してデータを処理する方式などであってもよい。
ニューラルネットワーク130のトレーニングのために、上記の1つ以上の方法で生成されたような、または第三者によって提供されたようなトレーニングデータセットを使用することができる。一実施形態では、トレーニングのための目標は、入力画像、例えば、光学系を用いて捕捉された画像を、補正された画像に変換するニューラルネットワーク130を生成することであり、この場合、変換された画像は、光学系によって入力画像内に引き起こされた少なくとも1つの結像エラーを補正または低減する。これは、例えばコントラストまたはシャープネスなどの画質が、出力画像内で(1つ以上の領域において)入力画像に比べて向上したことを意味する。理想的なケースでは、エラーを含んだ画像からエラーのない画像が生成できる。
さらなる段階140、いわゆる「微調整」では、補正ネットワーク130をさらに最適化することができる。光学系は、通常、完成品における所定の許容誤差を伴って製造される。それゆえ、同じ製造プロセスによって製造された光学系は、製造許容誤差の範囲で互いに偏差を有している可能性がある。これらの偏差は、光学系によって引き起こされる光学的結像エラーに影響を与える可能性がある。それゆえ、同じ仕様の光学系は、異なるOTFに関連付けることができる。
生産におけるこれらの許容誤差を補償するために、ステップ142において光学系の特性を決定することができる。例えば、個々の光学系152の光学特性を測定することができる。光学系152からの測定は、1つ以上の測定サンプルを捕捉することを含み得る。これらの測定サンプルおよび/または光学系の特性は、データメモリ144に格納することができる。実施形態では、光学系152の特性を決定することは、この製造された光学系152のためのOTFおよび/またはPSFを決定することを含む。測定サンプルおよび/または光学系の特性を含むデータセットは、光学系のライフサイクル全体にわたって利用可能であってよい。一実施形態では、測定サンプルおよび/または光学系の特性を含むデータセットは、クラウドに格納することができる。
例えば対物レンズなどの光学系152の測定サンプルおよび/または特性を、光学系152に割り当てることができるようにするために、測定サンプルおよび/または光学系の特性を含むデータは、光学系の識別子154に割り当てられ、この識別子154に依存して、または識別子154に対応する識別番号と一緒に格納することができる。光学系152は、製造中にその識別子154を受け取ることができ、この場合、識別子154は、光学系毎に一義的であり、恒久的に光学系152に取り付けられてよい。例えば、識別子154は、光学的コーディング(例えば、バーコード、クイックレスポンスコード、識別子、または特定の色など)、1つ以上のスレッドおよび/または1つ以上の機械部品のコーディング、特定の形状、特定の重量、サウンドストリップ、鋼版画、無線周波数トランスポンダ、磁気ストライプチップカード、または磁気ペイントを含み得る。
それにより、光学系152は、電磁的識別、光学的識別、機械的識別、磁気的識別、またはそれらの組み合わせを用いて識別することができる。
測定サンプルおよび/または光学特性に基づいてトレーニングデータ156を生成することができる。これらのトレーニングデータは、トレーニングデータのように生成することができ、この場合、トレーニングデータ156は、光学系152とのみ関連付けられるか、または光学系152と特別に関連付けられる。これらのトレーニングデータ156は、光学系152によって記録された画像を含むことができる測定サンプルに基づいて、または光学系152のOTFまたは関連するPSFを用いたシミュレーションに基づいて生成することができる。
光学系の測定サンプルおよび光学特性は、この光学系152に割り当てることができるので、トレーニングデータ156もこの光学系152に割り当てることができる。それゆえ、トレーニングデータ156は、識別子154に依存して格納することができる。これらのデータ156は、図1に示されるように識別子154に依存してデータメモリ144に格納することができる。実施形態では、1つ以上のデータメモリ114、128および144は同一であってもよい。例えば、すべてのトレーニングステップ110、120および130は、光学系152のメーカーで実施することができる。代替的に、例えば微調整130などの個々のトレーニングステップ110、120および130も、光学系152のユーザーで実施することができる。
光学系152の測定サンプルおよび/または特性を含むデータセット、または光学系に属するトレーニングデータ156を含むデータセットには、光学系152の識別子154に基づいて、または識別子154に対応する識別番号に基づいてアクセスすることができる。実施形態では、これらのデータセットは、メーカーのサーバー上かまたはクラウドに格納することができる。例えば、ユーザーは、ユーザー名およびパスワードかまたは光学系152の識別番号などの権限証明を用いてこれらのデータセットにアクセスすることができる。
トレーニングステップ140では、トレーニングステップ120からのニューラルネットワーク130を微調節することができる。以下ではこの微調整を、例示的にニューラルネットワーク130に基づいて説明する。ただし、代替的に、他のソースからのニューラルネットワーク、例えばニューラルネットワークのユーザーからのネットワークなどもさらに微調節することができる。
微調整とは、重要な画像特徴を既に認識できる、以前にトレーニングされたニューラルネットワークを、新しい未知のデータセットに適合化させることを指す。ニューラルネットワーク130などのニューラルネットワークは、特定の画像誤差が補正されるように事前トレーニングすることができる。この目的のために、可及的に広範なデータセットを使用することができる。したがって、具体的な光学部品または具体的な光学系、例えば特定の対物レンズについては、当該対物レンズを用いて(より小さな)トレーニングデータセット156を作成し、事前トレーニングされたネットワーク130を「微調節」、つまり適合化することによる微調整を用いて予測精度、すなわち出力画像の画質を改善することができるはずである。この種の微調整は、光学系のメーカーで行うことができる。代替的に、この微調整は、顧客または第三者のもとで行うこともできる。微調整は、特定の光学系または1つ以上の特定のサンプルに関連して行うことができる。これらの1つ以上の特定のサンプルは、例えば、元のトレーニングデータセットに含まれていないか、過小評価されている可能性がある。したがって、微調整により、ニューラルネットワークの予測精度を向上させることができる。この微調整では、学習速度(“learning rate”)が1~2桁低い、事前トレーニングされたニューラルネットワークを新しいデータでトレーニングすることができる。この意味での“learning rate”とは、学習されたモデルパラメータを変更するためのステップ幅を決定する数値最適化のためのスケーリングファクタである。これが大きいならば、モデルはより少ないステップで収束できるが、モデルパラメータが再び最適値から逸脱するリスクも生じる。微調整の場合、事前トレーニングされたパラメータが既に最適値に近いことを前提としてもよい。それゆえ、損失関数のグローバル最小値を見つけるために、ステップ120でのトレーニングと比較して、ステップ幅または学習速度を低減することができる。それにより、モデルパラメータによって表されるモデルの既存の「知識」が、過度に大きなステップによって破壊されることが防止され得る。
トレーニングデータセット156は、ニューラルネットワーク130の微調整のために使用することができる。この微調整では、既存のニューラルネットワーク、例えばニューラルネットワーク130は、さらなるトレーニング用の基礎として使用される。このさらなるトレーニングには、ニューラルネットワークの一部のみがトレーニングされることが含まれる。ここでは、ニューラルネットワークのいくつかのパラメータは、固定かまたは不変のままであり、それに対して、残りのパラメータは、さらなるトレーニングによって影響を受けるかまたは変更することができる。これは、迅速なトレーニングを可能にする。さらなるトレーニングは、異なる学習率でニューラルネットワーク内のパラメータの位置に応じて実施することができる。
トレーニングデータ156におけるさらなるトレーニングについては、さまざまなディープランニングメソッドを使用することができる。実施形態では、ニューラルネットワーク150は、第2のニューラルネットワークを用いて損失関数としてトレーニングされる。これは、図1のトレーニングステップ120のように行うことができる。
さらなるトレーニングにより、光学系152のために特別にトレーニングされた適合化されたニューラルネットワーク150が生じる。それにより、一方では、特定の光学エラーを補正することができるという補正ネットワーク130の基本的な特性の存在は維持しながら、具体的な光学系152(例えば対物レンズなど)へのニューラルネットワーク150の個々の適合化を達成することができる。
適合化されたニューラルネットワーク150は、光学系152の識別子154に関連付けて、または識別子154に対応する識別番号とともに、データメモリ、サーバー、またはクラウドに格納することができる。実施形態では、適合化されたニューラルネットワーク150は、サーバーまたはクラウド上に実装され、使用される。そのため、サーバーまたはクラウドは、適合化されたニューラルネットワーク150を用いて、画像内の光学的結像エラーを補正するように構成されている。例えば、エラーを含んだ画像は、クラウドまたはサーバーにアップロードすることができる。次いで、適合化されたニューラルネットワーク150を用いて、エラーのないまたはエラーの低減された画像を生成して、提供することができる。適合化されたニューラルネットワーク150には、識別子154または光学系152の対応する識別番号に基づいてアクセスすることができる。例えば、ユーザーは、ユーザー名およびパスワードなどの権限証明を用いて、適合化されたニューラルネットワーク150にアクセスすることができる。ユーザーの権限証明は、光学系の購入または受け取りによって取得することができる。代替的に、対物レンズまたは光学系152は、撮像系の一部であってもよく、ニューラルネットワーク150は、撮像系に実装することができる。
それにより、光学系の製造時に発生する製造許容誤差の範囲内の差異を個別に考慮することができ、光学系152の光学性能は、光学系152によって捕捉された画像への適合化されたニューラルネットワーク150の適用に関連付けて改善することができる。
実施形態では、光学系のタイプまたは仕様に対する微調整を、個々の光学系に代わって実施することができる。ここでは、さまざまなタイプの光学系を用いて生成されたトレーニングデータに基づいてトレーニングされた補正ネットワーク130を微調節することができ、この場合、トレーニングデータ156は、1つのタイプの光学系に関連付けて作成されたものである。この場合、適合化されたニューラルネットワーク150は、光学系のタイプについての識別子に関連付けて格納することができる。
図2は、光学的結像エラーを補正するニューラルネットワーク200の機能性の概略図を示す。このニューラルネットワーク200は、図1のようにトレーニングされた補正ネットワーク130または適合化されたニューラルネットワーク150を含むことができる。ニューラルネットワークは、ニューラルネットワーク200が、エラーのない画像またはエラーの低減された画像220を生成することによって画像210からの光学的結像エラーを低減または除去するように構成されている。入力画像210は、例えばケラレなどの1つ以上の光学的結像エラーを含むことができる。代替的または付加的に、画像210は、非点収差、コマ収差、色収差、球面収差、像面湾曲、歪み、ガウス誤差、または焦点ぼけなどの1つ以上の光学的結像エラーも含むことができる。収差は、技術的な理由に起因してもよい。例えば、光学系の要素(レンズおよびミラー)の寸法および形状偏差、光学系の要素の想定された位置からの偏差、光学系のレンズの製造に起因して偏差した屈折率、光学部品または光学系のガラス内の不均一性(縞)、または光学部品の内部応力や応力複屈折に結び付く可能性のあるフレームによる応力は、捕捉された画像内の収差に関連付けられる。
ニューラルネットワーク200がエラーを含んだ画像210に適用されるか、またはこのエラーを含んだ画像210がニューラルネットワークに入力される場合、ニューラルネットワーク200は、この画像210から出力画像220を生成することができる。この出力画像220では、1つ以上の光学的結像エラーが低減または排除されてよい。これは、出力画像220または出力画像220の領域における画質(例えば詳細コントラスト)が、入力画像210または入力画像の対応する領域におけるものよりも大きいことによって表すことができる。
ニューラルネットワーク200の適用は、使用されるデータセットによるニューラルネットワーク200のトレーニングとは異なる。トレーニングの際には、1つ以上のエラーを含んだ画像がニューラルネットワークに入力され、ニューラルネットワークの内部パラメータは、ニューラルネットワークの出力画像が目標出力画像と可及的に一致するように適合化される。ニューラルネットワークを適用する場合、画像データは一度ニューラルネットワークを通過し、ニューラルネットワークは予測としての出力画像を生成する。
ニューラルネットワークは結果を表すことができ、この場合、これらは、少なくとも1つのディープランニングプロセスおよび/または少なくとも1つのディープランニングメソッドを通じて学習されたものである。これらのニューラルネットワークは、自動化された学習を通じて適切なやり方で特定のタスクアンサンブルに収集された知識に凝縮され、それによって、特定のタスクが以後自動化されて最高品質で実施できるようになる。
結像系および/または撮像系は、1つ以上の画像を捕捉するように構成されてよく、この場合、1つ以上の捕捉された画像内の1つ以上の光学的結像エラーは、結像系および/または撮像系の少なくとも一部に関連付けられる。1つ以上の画像は、ニューラルネットワーク200を用いて処理することができる画像210を含むことができる。結像系および/または撮像系は、例えば、対物レンズ、光学部品もしくは個々のレンズ、写真層、sCMOS(“scientific complementary metal-oxide-semiconductor”)もしくはCCD(“charge-coupled device”)センサ、または1つ以上の拡散ディスクなどの光学系を含むことができる。実施形態では、1つ以上の捕捉された画像を格納することができ、1つ以上の格納された画像をニューラルネットワーク200に供給することができる。代替的に、1つ以上の捕捉された画像を直接ニューラルネットワーク200に供給することができ、1つ以上の補正された画像のみを格納することができる。
図3は、1つ以上のプロセッサ310および1つ以上の記憶媒体320を含む装置300を示している。この装置300は、結像系および/または撮像系を含むことができる。代替的に、装置300は、結像系および/または撮像系から空間的に離間されてもよく、ネットワーク、例えば無線ネットワークを介して結像系および/または撮像系に接続されてもよい。この場合、装置は、ワークステーションコンピュータ、サーバー、小型コンピュータ、コンピュータ、または組み込みコンピュータを含むことができる。
1つ以上のプロセッサ310は、グラフィカルプロセッシングユニット(GPU)などの計算機アクセラレータ、機械学習(ML)および/またはディープランニング(DL)に特化した特定用途向け集積回路(ASICs)もしくはフィールドプログラマブルゲートアレイ(FPGA)上のテンソルプロセッシングユニット(TPU)、または少なくとも1つの中央処理ユニット(CPU)を含むことができる。特定用途向け集積回路(英語表記;Application Specific Integrated Circuit,ASIC,Custom Chip)は、集積回路として実現できる電子回路である。ASICは、特定の問題にそのアーキテクチャを適合化させているため、マイクロコントローラーのソフトウェア毎の機能的に同等の実装よりも非常に効率的にかつはるかに高速に動作する。テンソルプロセッサとも称されるテンソルプロセッシングユニット(TPU)は、特定用途向けチップであり、CPUと比較して機械学習の枠内での適用を高速化できる。このハードウェアまたは類似の専用ハードウェアは、ディープランニングタスクを最適に解決するために使用することができる。特に、トレーニングよりも桁違いに少ない計算能力しか要さないニューラルネットワークの適用、つまりモデルの開発は、一般的なCPUでも機能する。
さらに、装置は、実施形態では1つ以上のニューラルネットワーク330を含むことができる。1つ以上のニューラルネットワーク330により、この装置300は、人工知能(AI)を用いて画像内の光学的結像エラーを補正または最小化することを可能にすることができる。1つ以上のニューラルネットワーク330は、1つ以上のプロセッサ310によって実行することができる。このニューラルネットワーク330の実行には、ニューラルネットワークのトレーニングまたは開発よりも桁違いに少ない計算能力しか要さない。
装置300上へのニューラルネットワーク330の実装により、この装置は、付加的な「インテリジェンス」を獲得する。それにより、この装置300を、所望のタスクを独立して解決できる状態に変えることができる。これにより、認知的に拡張された装置300が得られる。認知的に拡張されたとは、装置がニューラルネットワーク(またはディープランニングモデル)または他の機械学習方法を使用して、画像内容または他のデータを意味的に認識して処理することを成し遂げることができるようになることを意味する。
さらに、装置300は、1つ以上のコンポーネント340を含むことができる。例えば、この1つ以上のコンポーネント340は、ユーザインターフェースおよび/またはニューラルネットワークを装置300にダウンロードするためのインターフェースを含むことができる。一実施形態では、1つ以上のコンポーネント340は、画像を捕捉する撮像系を含む。
実施形態では、装置300は、ニューラルネットワーク330をトレーニングするために使用することができる。この目的のために、装置300は、光学的結像エラーを補正するニューラルネットワークを決定するための装置を含むことができる。1つ以上のコンピュータ可読記憶媒体320に格納されたコンピュータ実行可能な命令は、1つ以上のプロセッサ310によって実行されるときに、図1および/または図4による方法の1つまたは一部を実行させることができる。
図4は、光学的結像エラーを補正する第1のニューラルネットワークを決定するための本発明による(コンピュータに実装される)方法400の一実施例による概略的フローチャートを示す。この方法400は、1つ以上の画像に基づいて第1のニューラルネットワークを決定する(ステップ420)ために、1つ以上の画像を決定するステップ418を含む。1つ以上の画像を決定するステップ418は、第1のニューラルネットワークをトレーニングするためのトレーニング画像を決定するステップを含み得る。トレーニングデータもしくはトレーニング画像を決定するステップは、トレーニングデータを生成するために、1つ以上の光学系または光学系のタイプ(仕様)および/または1つ以上のサンプルタイプに関連付けた1つ以上の測定および/または1つ以上のシミュレーションを含むことができる。代替的に、データベースに格納されているか、または第三者によって提供可能であるトレーニングデータをトレーニング用に決定することもできる。トレーニングデータには、1つ以上の画像対が含まれ、ここで、これらの画像対には、エラーを含む入力画像やエラーのないもしくはエラーの少ない目標出力画像が含まれる。
任意のステップ410では、トレーニングを準備することができる。このステップ410では、トレーニング条件を確定することができる。これは、第1のニューラルネットワーク(トレーニングすべきニューラルネットワーク)用の損失関数として第2のニューラルネットワークを決定することを含むことができる。例えばこれは、第2のニューラルネットワークをトレーニングすることによって行うことができる。代替的に、この決定は、複数のニューラルネットワークから第2のニューラルネットワークを選択することを含むことができる。この場合、複数のニューラルネットワークは、さまざまなサンプルタイプにおいてトレーニングされたものであり、これらのサンプルタイプに依存して第2のニューラルネットワークが選択される。第2のニューラルネットワークは、第1のニューラルネットワークの事後的な用途に関連するサンプルタイプでトレーニングされたものか、またはトレーニングされる可能性がある。第2のニューラルネットワークは、例えば分類などの予測を、第2のニューラルネットワーク用の入力値としての画像に基づいて適中させるように構成されてもよい。
ステップ420では、第1のニューラルネットワークが、ステップ418からのトレーニングデータに基づいてトレーニングされる。ステップ420でのトレーニングの間、第1のニューラルネットワークの内部パラメータ(例えば、重み「W」および閾値「B」)が検出され、第1のニューラルネットワークに入力された複数の入力画像が最適にもしくは可能な限り目標出力画像へ結像される。これにより、第1のニューラルネットワークは、複数の画像から新しい画像を生成し、トレーニングデータに関連付けたタスクを解決することができる。第1のニューラルネットワークは、画像内の1つ以上の光学的結像エラーを除去または低減するようにトレーニングすることができ、それによって、入力画像は、例えば、第1のニューラルネットワークの対応する出力画像よりも低い詳細コントラストもしくはシャープネスを有する。
ステップ426では、光学系が決定される。この光学系を一義的に識別できるようにするために、光学系には識別子を割り当てることができる。この目的のために、光学系は、個別のコーディングを備えることができる。これは、光学系の製造中に行うことができる。
ステップ428では、個々のトレーニングデータが決定される。実施形態では、個々のトレーニングデータを決定するステップは、ステップ426で決定された個々の光学系の光学特性を決定することを含む。これは、光学系の測定および/またはシミュレーションを含むことができる。例えば、光学伝達関数OTFは、個々の光学系について決定することができる。これは、光学系の製造中または製造後に行うことができる。この光学系は、光学系の識別子を用いてOTFに一義的に割り当てることができる。この場合は、光学系の光学特性に基づいて微調整用の個々のトレーニングデータを生成することができる。OTFの知識を用いれば、個々のトレーニングデータとして画像対を生成することができる。なぜなら、OTFは、関連する光学系の光学的結像エラーを記述するからである。
ステップ430では、ステップ420で決定された第1のニューラルネットワークを微調節することができる。ここでは、第1のニューラルネットワークは、適合化された(第3の)ニューラルネットワークを得るためにさらにトレーニングされる。適合化されたニューラルネットワークは、特殊な用途向けにトレーニングすることができる。例えば、第1のニューラルネットワークは、ステップ428で生成された個々のトレーニングデータに基づいてさらにトレーニングすることができる。そのため、適合化された(第3の)ニューラルネットワークは、個々の光学系用に特別にトレーニングすることができる。代替的に、第1のニューラルネットワークは、微調整のために(特定用途との脈絡がある)特定のサンプルタイプのトレーニングデータを使用することによって、特定用途向けにさらにトレーニングすることもできる。
ステップ430でのさらなるトレーニング(微調整)では、事前にトレーニングされた(第1の)ニューラルネットワークの少なくとも一部をさらにトレーニングするために、これらの個々のトレーニングデータを使用することができる。例えば、ニューラルネットワークの内部パラメータの一部のみをさらなるトレーニングに依存して変更することができる。この場合、残りの内部パラメータは、さらなるトレーニングによって変更することはできない。これは、ニューラルネットワークを、例えば特定の光学系によって捕捉された画像の光学的結像エラーの補正などの特定用途に迅速かつ個別に適合化させることを可能にする。
ニューラルネットワークを微調整することにより、それらを持続的に改善したり、ニューラルネットワークの適用領域を特定したりすることができる。これは、好適には、ニューラルネットワーク内の少数のノードのみのトレーニングによって行うことができる。例えば、わずかに損傷した光学系は、当該損傷した光学系を用いて捕捉された画像の品質を損なわせる可能性がある。本発明の方法によるニューラルネットワークの微調節および/またはトレーニングによって、これらのエラーを補正するニューラルネットワークを決定することができる。
さらなるステップ440では、適合化されたニューラルネットワークが、第三者に提供され、装置上で使用可能にされる。この場合、装置は、光学系に関連付けるか、またはクラウドに格納され、サーバーまたは別のデータメモリに格納される。
光学系の製造および機能性に関連付けられるさまざまな光学的収差は、機械学習(ML)メソッドを用いて補正することができる。説明されているMLメソッドには、機械が経験から学習することができ、特定のタイプのニューラルネットワークであるいわゆる「ディープラーニング」(DL)から生じるアルゴリズムが含まれる。結像エラーの効果的な補正は、高性能対物レンズのより経済的な製造を可能にする。なぜなら、画像誤差が著しく大きい、特に、同じモデルの個々の個体間の変動が著しく大きい対物レンズの結像エラーを補正することができるからである。これにより、一方では、対物レンズ間の許容誤差を、許容誤差におけるより大きなばらつきの許容によって補償することができる。その上さらに、対応する対物レンズを、光軸上での結像品質が最適化されるように構成することができる。画像フィールド縁部における光学補正は、ニューラルネットワークによって補正することができるため、それほど高くする必要はない。例えば、対物レンズの構造においても、対物レンズまたはソフトウェア後処理(ニューラルネットワークの適用)による補正がどれほど複雑であるかに応じて、結像エラーを評価することができる。ML/DLネットワークを用いることにより、対物レンズの構造/構想において、特に補正が容易なエラーの優先順位を下げることができる。
110,120,140 トレーニングステップ
112 方法ステップ
114,128,144 データメモリ
116,130,150 ニューラルネットワーク
122,124 方法ステップ
126 画像対
136 損失関数
142 方法ステップ
152 光学系
154 識別子
156 個々のトレーニングデータ
200 ニューラルネットワーク
210 光学的結像エラーを有する画像
220 補正された画像
300 装置
310 プロセッサ
320 記憶媒体
330 ニューラルネットワーク
340 コンポーネント
400 方法
410~440 方法ステップ

Claims (20)

  1. 光学的結像エラーを補正するニューラルネットワーク(130;200;330)を決定するための方法であって、前記方法は、
    1つ以上の画像を決定するステップ(418)であって、前記1つ以上の画像は、少なくとも部分的に光学系(152)または光学系(152)の仕様に関連付けられているステップ(418)と、
    前記決定された1つ以上の画像に依存して、ニューラルネットワーク(130;200;330)を決定するステップ(420)であって、それにより、前記決定されたニューラルネットワーク(130;200;330)が、前記光学系(152)を用いて捕捉された画像(210)に適用されて1つ以上の光学的結像エラーに関して補正された画像(220)を出力するステップ(420)と、
    を含み、
    前記ニューラルネットワーク(130;200;330)を決定するステップ(420)は、前記ニューラルネットワーク(130;200;330)をトレーニングすることを含み、
    前記ニューラルネットワーク(130;200;330)は、第1のニューラルネットワーク(130;200;330)であり、前記第1のニューラルネットワーク(130;200;330)をトレーニングするステップは、第2のニューラルネットワーク(136)を適用することを含み、前記第2のニューラルネットワーク(136)は、前記第1のニューラルネットワーク(130;200;330)のトレーニング用の損失関数として適用され、
    前記損失関数は、目標出力画像(y )と前記第1のニューラルネットワーク(130;200;330)の出力画像との間の画像の内容における差異についての尺度を示す特徴復元損失I feat を定める、
    方法。
  2. 前記1つ以上の画像を決定するステップ(418)は、複数の画像対(126)を含むトレーニング画像を決定することを含み、前記ニューラルネットワーク(130;200;330)をトレーニングすることは、前記トレーニング画像においてトレーニングすることを含み、前記複数の画像対(126)の各画像対は、それぞれ、前記ニューラルネットワーク(130;200;330)用の入力画像(X)および目標出力画像(y)を含む、
    請求項1記載の方法。
  3. 前記トレーニング画像は、捕捉された画像から生成され、前記捕捉された画像は、1つ以上の光学系を用いて、かつ/または、光学系(152)により捕捉されたものであり、前記1つ以上の光学系のいずれも前記光学系(152)と同じ仕様でないか、前記1つ以上の光学系の一部またはすべてが前記光学系(152)と同じ仕様であり、かつ/または、前記捕捉された画像は、1つ以上のサンプルタイプを画像化している、
    請求項2記載の方法。
  4. 前記トレーニング画像は、光学的結像エラーのシミュレーションによって生成される、
    請求項2記載の方法。
  5. 前記方法は、前記光学系(152)のためにまたは前記光学系(152)と少なくとも部分的に仕様が同一である光学系のために、少なくとも1つの光学伝達関数(OTF)または少なくとも1つの点像分布関数(PSF)を決定するステップをさらに含み、複数の画像対(126)の入力画像は、エラーのない画像と前記少なくとも1つの点像分布関数PSFのうちの1つとの畳み込みによって生成され、前記エラーのない画像は、前記複数の画像対(126)の対応する目標出力画像として使用される、
    請求項2記載の方法。
  6. 前記ニューラルネットワーク(130;200;330)をトレーニングすることは、前記トレーニング画像とさらなるデータとにおいてトレーニングすることを含み、前記さらなるデータは、以下のうちの少なくとも1つ、すなわち、トレーニング画像に関連するパラメータデータ、検証データ、前記光学系(152)の製造に関連する測定データ、実験または測定の手順に関するデータ、試薬および材料に関する情報、オブジェクトまたはサンプルに関する情報、前記光学系(152)に関する情報、利用者関連データ、ユーザー入力および画像捕捉系に関する情報のうちの少なくとも1つを含む、
    請求項2から5までのいずれか1項記載の方法。
  7. 前記方法は、前記決定されたニューラルネットワーク(130;200;330)を微調節するステップ(430,140)をさらに含む、
    請求項1から6までのいずれか1項記載の方法。
  8. 前記微調節するステップ(430)は、前記決定されたニューラルネットワーク(130;200;330)の一部のみをトレーニングすることを含み、前記決定されたニューラルネットワーク(130;200;330)の1つ以上のパラメータは、前記微調節するステップ(430)の間不変のまま維持され、かつ/または、前記微調節するステップ(430)は、前記光学系(152)用に特別にトレーニングすることを含み、かつ/または、前記微調節されたニューラルネットワーク(150)は、一義的に前記光学系(152)に割り当てることができる、
    請求項7記載の方法。
  9. 前記方法は、前記微調節するステップ(430)のための個々のトレーニングデータ(156)を生成するステップ(428)をさらに含み、前記個々のトレーニングデータ(156)を生成するステップ(428)は、前記光学系の光学特性を決定するステップ(142)および/または前記光学系(152)を用いて測定サンプルを捕捉するステップを含み、前記個々のトレーニングデータ(156)は、前記光学特性および/または前記測定サンプルに基づいて生成される、
    請求項7または8記載の方法。
  10. 前記方法は、測定サンプル、光学特性および/または個々のトレーニングデータ(156)を格納するステップを含み、および/または、前記測定サンプル、前記光学特性および/または前記個々のトレーニングデータ(156)は、前記光学系(152)に一義的に割り当てられている、
    請求項9記載の方法。
  11. 前記光学系(152)は、一義的にかつ/または自動的に識別可能であり、かつ/または、前記ニューラルネットワーク(130;200;330)は、一義的に前記光学系(152)に割り当てることができる、
    請求項1から10までのいずれか1項記載の方法。
  12. 前記光学系(152)は、電磁的識別、光学的識別(154)、機械的識別または磁気的識別を用いて識別可能である、
    請求項11記載の方法。
  13. 前記方法は、前記決定されたニューラルネットワーク(130;200;330)を前記捕捉されたデータ(210)に適用するステップを含み、前記捕捉されたデータ(210)は、前記光学系(152)または同じタイプの光学系を用いて捕捉されたデータである、
    請求項1から12までのいずれか1項記載の方法。
  14. 前記1つ以上の光学的結像エラーは、以下の光学的結像エラー、すなわち、非点収差、ケラレ、コマ収差、色収差、球面収差および焦点ぼけのうちの少なくとも1つを含む、
    請求項1から13までのいずれか1項記載の方法。
  15. 前記ニューラルネットワークを決定するステップ(420)は、前記1つ以上の画像に基づいて前記ニューラルネットワーク(130;200;330)をトレーニングすることを含み、前記ニューラルネットワーク(130;200;330)は、トレーニング中にオブジェクトおよび/または構造部が前記1つ以上の画像内で理想的にどのように見え、そこからの偏差をどのように補正するかを学習する、
    請求項1記載の方法。
  16. 前記光学系(152)は、顕微鏡、顕微鏡システム、カメラ、スマートフォン、望遠鏡、モバイルコンピュータ、据え置き型コンピュータまたは測定機器の結像系および/または撮像系の一部である、
    請求項1から15までのいずれか1項記載の方法。
  17. 光学的結像エラーを補正するための装置(300)であって、前記装置(300)は、
    1つ以上のプロセッサ(310)と、
    コンピュータ実行可能命令が格納されている1つ以上のコンピュータ可読記憶媒体(320)と、
    を含み、前記コンピュータ実行可能命令は、1つ以上のプロセッサ(310)によって実行されるときに、1つ以上の画像(210)が結像系および/または撮像系を用いて捕捉されることを引き起こし、
    前記1つ以上の捕捉された画像(210)における1つ以上の光学的結像エラーは、結像系および/または撮像系の少なくとも一部に関連付けられ、
    ニューラルネットワーク(130,150;200;330)は、前記1つ以上の捕捉された画像(210)に適用され、前記ニューラルネットワーク(130,150;200;330)は、1つ以上の補正された画像(220)において1つ以上の光学的結像エラーが補正または低減されるように、前記1つ以上の捕捉された画像(210)から1つ以上の対応する補正された画像(220)を生成するように構成されており、
    前記ニューラルネットワーク(130;200;330)は、第1のニューラルネットワーク(130;200;330)であり、前記第1のニューラルネットワーク(130;200;330)をトレーニングするステップは、第2のニューラルネットワーク(136)を適用することを含み、前記第2のニューラルネットワーク(136)は、前記第1のニューラルネットワーク(130;200;330)のトレーニング用の損失関数として適用され、
    前記損失関数は、目標出力画像(y )と前記第1のニューラルネットワーク(130;200;330)の出力画像との間の画像の内容における差異についての尺度を示す特徴復元損失I feat を定める、
    装置(300)。
  18. 前記1つ以上の捕捉された画像(210)は、格納され、前記ニューラルネットワーク(130,150;200;330)は、前記1つ以上の格納された捕捉された画像(210)に適用され、または、前記ニューラルネットワーク(130,150;200;330)は、前記1つ以上の捕捉された画像(210)に直接適用され、前記1つ以上の補正された画像(220)のみが格納される、
    請求項17記載の装置(300)。
  19. 前記結像系および/または撮像系の少なくとも一部は、光学系、写真層、sCMOSもしくはCCDセンサ、または、1つ以上の拡散ディスクを含む、
    請求項17または18記載の装置(300)。
  20. コンピュータプログラムであって、前記コンピュータプログラムがコンピュータによって実行されるときに、コンピュータに請求項1から16までのいずれか1項記載の方法を実施させる命令を含んでいる、コンピュータプログラム。
JP2021535195A 2018-12-18 2019-12-11 機械学習による光学補正 Active JP7192128B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102018222147.2 2018-12-18
DE102018222147.2A DE102018222147A1 (de) 2018-12-18 2018-12-18 Optikkorrektur durch Maschinenlernen
PCT/EP2019/084553 WO2020126720A1 (de) 2018-12-18 2019-12-11 Optikkorrektur durch maschinenlernen

Publications (2)

Publication Number Publication Date
JP2022514580A JP2022514580A (ja) 2022-02-14
JP7192128B2 true JP7192128B2 (ja) 2022-12-19

Family

ID=69061278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021535195A Active JP7192128B2 (ja) 2018-12-18 2019-12-11 機械学習による光学補正

Country Status (6)

Country Link
US (1) US11972542B2 (ja)
EP (1) EP3899861A1 (ja)
JP (1) JP7192128B2 (ja)
CN (1) CN113228096A (ja)
DE (1) DE102018222147A1 (ja)
WO (1) WO2020126720A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019129695A1 (de) * 2019-11-04 2021-05-06 Carl Zeiss Microscopy Gmbh Verfahren zum Vorbereiten eines Mikroskops für das Abbilden einer Probe
WO2021150033A1 (en) * 2020-01-23 2021-07-29 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device
CN113379635A (zh) * 2021-06-18 2021-09-10 北京小米移动软件有限公司 图像处理方法及装置,模型训练方法、装置及存储介质
US20230252714A1 (en) * 2022-02-10 2023-08-10 Disney Enterprises, Inc. Shape and appearance reconstruction with deep geometric refinement
WO2023234674A1 (ko) * 2022-05-30 2023-12-07 삼성전자 주식회사 신경망 모델을 이용한 영상 신호 처리 방법 및 이를 수행하기 위한 컴퓨팅 장치
WO2024053046A1 (ja) * 2022-09-08 2024-03-14 オリンパスメディカルシステムズ株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018037521A1 (ja) 2016-08-25 2018-03-01 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体
JP2018195069A (ja) 2017-05-17 2018-12-06 キヤノン株式会社 画像処理装置および画像処理方法
JP2020061129A (ja) 2018-10-04 2020-04-16 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、画像処理システム、プログラム、および、記憶媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103809290B (zh) * 2014-01-21 2015-12-09 北京理工大学 一种光学系统面形误差相互补偿优化方法
US9971966B2 (en) * 2016-02-26 2018-05-15 Google Llc Processing cell images using neural networks
US10282822B2 (en) * 2016-12-01 2019-05-07 Almalence Inc. Digital correction of optical system aberrations
CN106778867B (zh) * 2016-12-15 2020-07-07 北京旷视科技有限公司 目标检测方法和装置、神经网络训练方法和装置
US10755428B2 (en) * 2017-04-17 2020-08-25 The United States Of America, As Represented By The Secretary Of The Navy Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model
CN107730469A (zh) * 2017-10-17 2018-02-23 长沙全度影像科技有限公司 一种基于卷积神经网络cnn的三片简单透镜图像复原方法
CN108550125B (zh) * 2018-04-17 2021-07-30 南京大学 一种基于深度学习的光学畸变修正方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018037521A1 (ja) 2016-08-25 2018-03-01 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体
JP2018195069A (ja) 2017-05-17 2018-12-06 キヤノン株式会社 画像処理装置および画像処理方法
JP2020061129A (ja) 2018-10-04 2020-04-16 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、画像処理システム、プログラム、および、記憶媒体

Also Published As

Publication number Publication date
EP3899861A1 (de) 2021-10-27
WO2020126720A1 (de) 2020-06-25
DE102018222147A1 (de) 2020-06-18
JP2022514580A (ja) 2022-02-14
CN113228096A (zh) 2021-08-06
US11972542B2 (en) 2024-04-30
US20220051373A1 (en) 2022-02-17

Similar Documents

Publication Publication Date Title
JP7192128B2 (ja) 機械学習による光学補正
Ikoma et al. Depth from defocus with learned optics for imaging and occlusion-aware depth estimation
US20130004082A1 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
TW202141358A (zh) 圖像修復方法及裝置、存儲介質、終端
US11226481B2 (en) Methods and apparatuses for designing optical systems using machine learning with delano diagrams
CN108615256B (zh) 一种人脸三维重建方法及装置
Jeon et al. Ring difference filter for fast and noise robust depth from focus
WO2021176899A1 (ja) 情報処理方法、情報処理システム、及び、情報処理装置
CN111008945A (zh) 基于机器学习的多像质参数自适应像差矫正方法及装置
CN116958419A (zh) 一种基于波前编码的双目立体视觉三维重建系统和方法
CN117120884A (zh) 用于高质量薄透镜成像的神经纳米光学器件
Hu et al. Universal adaptive optics for microscopy through embedded neural network control
CN117726542B (zh) 基于扩散模型的可控噪声去除方法及系统
JP2007115256A (ja) 電気光学画像処理システムを設計するための方法、該方法をコンピュータに実行させる命令を含む記憶媒体及び光サブシステム
Cui et al. Neural invertible variable-degree optical aberrations correction
Luo et al. Correcting optical aberration via depth-aware point spread functions
EP2909671A1 (fr) Procédé de conception d'un imageur monovoie passif capable d'estimer la profondeur de champ
Molloy et al. Analysis of the impact of lens blur on safety-critical automotive object detection
KR102699699B1 (ko) 렌즈 시뮬레이션 방법 및 그 시스템
KR102345607B1 (ko) 광학소자 설계 방법 및 그 장치
Zhao et al. Representing camera response function by a single latent variable and fully connected neural network
CN109815796B (zh) 人脸识别通过率的影响因素的测试方法及装置
JP2018081378A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
Lehmann et al. Resolution and accuracy of non-linear regression of PSF with artificial neural networks
JP2023157332A (ja) 学習装置、デプスマップ生成装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R150 Certificate of patent or registration of utility model

Ref document number: 7192128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150