JP2020531971A - コンボリューショナル・ニューラルを用いた、ホログラフィック顕微鏡で取得した細胞画像の品質の識別方法 - Google Patents

コンボリューショナル・ニューラルを用いた、ホログラフィック顕微鏡で取得した細胞画像の品質の識別方法 Download PDF

Info

Publication number
JP2020531971A
JP2020531971A JP2020508555A JP2020508555A JP2020531971A JP 2020531971 A JP2020531971 A JP 2020531971A JP 2020508555 A JP2020508555 A JP 2020508555A JP 2020508555 A JP2020508555 A JP 2020508555A JP 2020531971 A JP2020531971 A JP 2020531971A
Authority
JP
Japan
Prior art keywords
microscope
images
focus
image
image quality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020508555A
Other languages
English (en)
Other versions
JP2020531971A5 (ja
JP7072049B2 (ja
Inventor
ヨースリー エル−ゼヒリ,ノハ
ヨースリー エル−ゼヒリ,ノハ
ケイメン,アリ
ラパカ,サイキラン
Original Assignee
シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング
シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング, シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング filed Critical シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング
Publication of JP2020531971A publication Critical patent/JP2020531971A/ja
Publication of JP2020531971A5 publication Critical patent/JP2020531971A5/ja
Application granted granted Critical
Publication of JP7072049B2 publication Critical patent/JP7072049B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0866Digital holographic imaging, i.e. synthesizing holobjects from holograms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/244Devices for focusing using image analysis techniques
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • G03H2001/005Adaptation of holography to specific applications in microscopy, e.g. digital holographic microscope [DHM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

細胞を描出する顕微鏡画像を取得する顕微鏡装置と、顕微鏡画像からピクセルを抽出する命令を実行する1つ以上のプロセサとを含む、顕微鏡装置の適応性のある焦点合わせのシステム。各ピクセルの組は独立した細胞に対応する。訓練した分類器を用いて、独立した細胞の焦点が合う度合いを示す複数の画像品質ラベルの1つを、ピクセルの各組に割り当てる。ピクセルの組に対応する画像品質ラベルが、細胞の焦点が合っていないことを示す場合、訓練した機械学習モデルを用いて顕微鏡装置の焦点を調整する焦点距離調整を決定する。実行可能命令を顕微鏡装置に送り、焦点距離調整を行う。

Description

「関連出願の相互参照」
本出願は、米国特許法第371条に基づき、2018年7月6日付けで出願された国際特許出願番号PCT/EP2018/068345号の国内段階の移行に関し、上記国際特許出願の開示を参照により本明細書に援用する。
本出願は、2017年8月15日に出願された米国仮出願第62/545,517号に基づく優先権を主張するものであり、上記仮特許出願の開示を参照により本明細書に援用する。
本開示は、一般に、ホログラフィック顕微鏡(DHM:digital holographic microscopy)および他の顕微鏡技術を用いて取得された画像の品質を識別するために、コンボリューショナル・ニューラル・ネットワーク(CNN:convolutional neural network)を使用することに関する。本明細書に記載の様々なシステム、方法および装置は、例えば、焦点の合っていない(焦点外の)画像または品質不良の画像を分析から除去することによって、分類のワークフローおよびその後の診断決定の向上に適用することができる。
ホログラフィック顕微鏡(DHM)は、透明な検体中のサブナノメートルの光学的厚さ変化を定量的に追跡することができる画像化(イメージング)技術であって、干渉位相顕微鏡としても知られている。検体の強度(振幅/大きさ)情報のみが捉えられる従来のデジタル顕微鏡とは異なり、DHMは、位相と強度の両方を捉える。ホログラムとして捉えられる位相情報は、コンピュータアルゴリズムを用いて、検体に関する拡張された形態上の情報(深さや表面の特性など)を再構成するために使用できる。現代のDHMの実装では、さらなる利点が提供されており、例えば、高速での走査/データ取得速度、低ノイズ、高解像度およびラベル・フリー(無標識)サンプル取得の可能性などの利点がさらに提供されている。
DHMは、分類目的のために血液細胞の画像を取得すること、またはその後の診断決定を行うことに、特によく適している。例えば、全血球算定の重要な特徴の1つは、白血球細胞(WBC:white blood cell)を5つの異なるカテゴリに分類することであるが、それにより、1つまたは複数のカテゴリにおける細胞数の不均衡を疾患診断に役立たせることができる。DHMを用いて取得した細胞画像に対して高度な画像解析技術を適用することで、WBCの自動的な分類を行うことができる。細胞画像の品質は極めて重要であり、分類の精度に影響を及ぼし得る。
したがって、品質の良い細胞画像を識別できることが重要である。
軸外(オフ・アクシス)ホログラフィック顕微鏡システムはホログラムを作成するが、そこでは、物体と基準ビームの間の小さな角度のために、全視野にわたって変調パターンが存在する。さらに、図1を参照すると、特定のDHMの設定では、基準ビームは、2つのレンズとピンホール(小さい穴)を用いて物体(オブジェクト)ビームから作成され、物体の空間シグネチャを消して、干渉またはホログラム画像を作成するための均一な平面波を提供する。焦点距離は、取得される細胞画像の品質に大きな影響を及ぼし得る。焦点面(焦平面)と物体との間の距離は、位相画像の外観(出現)とその品質に影響を及ぼす。図2を参照すると、異なる品質での例示的な細胞画像を示している。上段では、細胞の焦点が合っており、画像の情報内容を用いて異なる細胞種類を区別することができる。下段の画像は、焦点が合っておらず、ゆがんだ細胞の画像である。画像の品質が非常に悪く、診断ワークフローに用いることができない。
本発明に係る実施形態は、上記問題点または短所の1つ以上に対処し、解決するために、コンボリューショナル・ニューラル・ネットワーク(CNN)を用いて顕微鏡装置で取得した細胞画像の品質を識別するための方法、システム、および装置を提供する。
簡単に説明すると、取得した画像中の細胞について、焦点が合っているか、または焦点が合っていないかを決定するために、CNNを訓練(トレーニング)する。いくつかの実施形態では、この判定(決定)に基づいて、取得した画像について焦点を合わせるように、焦点距離を調整する命令(指示)を顕微鏡装置に与えることができる。
いくつかの実施形態によれば、顕微鏡画像について焦点が合っていないことを検出するためのコンピュータを用いて実施される方法では、細胞を描写する顕微鏡画像を取得することと、顕微鏡画像から1つまたは複数のピクセル(画素)の組(セット)を抽出することとを含む。ピクセルの組のそれぞれは、独立した(個々の)細胞に対応する。複数の画像品質ラベルのうちの1つがピクセルの各組に割り当てられるが、そのラベルは、独立した細胞の焦点が合っている度合いを示す。ピクセルの組を画像品質ラベルに分類するために、分類器(分類装置)が訓練されている。分類器は、多層構造(マルチ・レイヤ・アーキテクチャ)に従って構成され、訓練結果は多層構造において層を接続するための重み付け(ウエイト)の判定をもたらす。多層構造、重み付け、および画像品質ラベルに基づいて、分類器の配備が作成される。
他の実施形態によれば、顕微鏡装置の適応性のある焦点合わせを行うための、コンピュータを用いて実施される方法では、顕微鏡装置を用いて細胞を描出する複数の顕微鏡画像を取得することと、顕微鏡画像から1つまたは複数のピクセルの組を抽出することとを含む。ピクセルの組のそれぞれは、独立した細胞に対応する。そして、訓練した分類器を用いて、ピクセルの各組に対して複数の画像品質ラベルのうちの1つを割り当てるが、そのラベルは、独立した細胞の焦点の合っている度合いを示す。ピクセルの組に対応する画像品質ラベルが、細胞の焦点が合っていないことを示す場合、訓練したマシーン・ラーニング(機械学習)モデルを用いて、顕微鏡装置の焦点を調整するための焦点距離調整が決定される。次に、焦点距離調整を行うために、実行可能命令を顕微鏡装置に送る。
他の実施形態によれば、顕微鏡装置の適応性のある焦点合わせを行うためのシステムは、細胞を描出する顕微鏡画像を取得するように構成された顕微鏡装置と、顕微鏡画像からピクセルを抽出することを含む方法を実施するための命令を実行する1つまたは複数のプロセサとを含む。ピクセルの組のそれぞれは、独立した細胞に対応する。ピクセルの各組に対して、独立した細胞について焦点が合っている度合いを示す、複数の画像品質ラベルのうちの1つを割り当てるために、訓練した分類器が用いられる。ピクセルの組に対応する画像品質ラベルが、細胞の焦点が合っていないことを示す場合、訓練したマシーン・ラーニング・モデルを用いて、顕微鏡装置の焦点を調整するための焦点距離調整が決定される。次に、焦点距離調整を行うために、実行可能命令を顕微鏡装置に送る。
本発明に関する更なる特徴及び利点は、添付図面を参照して、例示的な実施形態に関する以下の詳細な説明から明らかになる。
本発明の上記態様及び他の態様については、添付図面を参照して、以下の詳細な説明から最良に理解できる。本発明を例示するために、図面には現在好適な実施形態が示されているが、本発明は開示された特定の手段に限定されないことを理解されたい。図面には以下の図が含まれている。
図1は、DHM設定例を示す図である。 図2は、異なる品質を有する例示的な細胞画像を示す図である。 図3は、いくつかの実施形態に従い、画像の品質を評価するために使用される要因および操作を示す系統図である。 図4は、いくつかの実施形態に従い、細胞を抽出するための技術を示す図である。 図5Aは、細胞の第1の抽出例を示す図である。 図5Bは、細胞の第2の抽出例を示す図である。 図6Aは、いくつかの実施形態に従い、CNNに使用され得る多層構造の例を示す図である。 図6Bは、図6Aに示した多層構造を他の視点から示す図である。 図7は、実施例の1つに従い、本明細書に記載の技術の分類精度の評価を示す図である。 図8は、いくつかの実施形態に従い、訓練されたCNNの配備例を示す図である。 図9は、本発明の幾つかの実施形態に従い、画像処理システムによって利用され得る並列処理メモリ構造例を示す図である。
以下の開示は、ホログラフィック顕微鏡(DHM)またはコンボリューショナル・ニューラル・ネットワーク(CNN)を使用する他の種類の顕微鏡装置で取得した細胞の画像の品質を識別することに関する方法、システム、および装置に係る、本発明のいくつかの実施形態を記載する。より具体的には、以下の開示には、細胞について、焦点が合わせられて捕捉される「良質」な細胞の画像と、焦点が合わせられていない「低品質/悪い」な画像とを区別する技術が記載される。いくつかの実施形態において、この問題は、焦点が合っているもの/焦点が合っていないものに係る2つのクラスについて、二進法(バイナリ)の画像の分類の問題とすることができる。次に、CNNを用いて、この問題を解決する。以下に詳述するように、この一般的な構成は、本発明の異なる実施形態では、種々の向上、改良、および他の調整によって広げることができる。
図3は、いくつかの実施形態に従い、画像の品質(画質)を評価するために使用される要因および操作を示す系統図である。簡単に説明すると、顕微鏡装置305を使用して、1つまたは複数の顕微鏡画像310を取得する。顕微鏡装置305は、細胞の顕微鏡画像を取得可能な、当該技術分野で公知の任意のシステムでもよい。例えば、いくつかの実施形態では、オフ・アクシス(軸外)のホログラフィック顕微鏡(DHM)を用いて、顕微鏡画像310を取得することができる。この取得は、オン・アクシス(軸上)の構成のような他のDHM技術を用いて行うこともできる。他の実施形態では、顕微鏡画像310を取得するために使用可能な当該技術分野で公知の他の細胞の画像化(イメージング)技術を、顕微鏡装置305に使用してもよい。他の画像化技術の例として、明視野顕微鏡、暗視野顕微鏡、差分干渉コントラスト、蛍光顕微鏡、共焦点顕微鏡、2光子励起顕微鏡、および多光子(励起)顕微鏡が挙げられるが、これらに限定されない。
顕微鏡画像310の取得は、血液のサンプルを用意する必要性のため、面倒な手順である。このため、いくつかの実施形態では、ディープ(深層)コンボリューショナル敵対的生成ネットワーク(DCGAN:Deep Convolutional General Adversarial Network)などの技術を用いて、異なる焦点で合成データを生成してもよい。当業者に理解可能なように、一般的に、生成モデルは、個々のクラスの分布をモデル化する。一般的に、敵対的生成ネットワーク(GAN:Generative Adversarial Network)は、「非監視学習」のカテゴリに該当する人工知能アルゴリズムのクラスを表す。その最も単純な形式では、GANは2つのニューラル・ネットワークの組合せである。その内の1つのネットワークは、訓練データの組(例えば、顕微鏡装置305を用いて取得した画像)からの例(例えば、合成DHM画像)の生成方法を学習することである。また、もう1つのネットワークは、生成された例と訓練データの組とを区別することを試みる。生成ネットワークが例を生成して、それが実際のデータと収束することによって、識別ネットワークがこれら2つを一貫して区別できない場合に、訓練プロセスは成功する。
続けて図3を参照すると、顕微鏡画像310は画像処理システム345によって受信されるが、このシステムは、顕微鏡画像310を使用してCNN330を訓練するための処理リソースを有する。CNN330を訓練する前に、前処理(プレ・プロセッシング)モジュール315は、訓練のために顕微鏡画像310から独立した(個々の)細胞を抽出する。各細胞は、ピクセル(画素)の組320として抽出される。本開示の目的上、ピクセルの組320のそれぞれは、「細胞の画像」としても参照される。他の実施形態では様々な種類の画像分類モデルをCNNの替わりに使用可能なことに留意されたい。例を挙げると、線形分類器(例えば、ロジスティック回帰、単純ベイズ分類器など)、カーネル推定k−手段クラスタリング、最近傍分類、サポート・ベクトル・マシーン、決定木、ブースト木、ランダム・フォレスト、およびニューラル・ネットワークの異なる構成を含むが、これらに限定されない。
図3は、いくつかの実施形態に従い、画像の品質を評価するために使用される要因および操作を示す系統図である。図4は、いくつかの実施形態に係る、細胞を抽出する技術400を示す。この例では、取得された画像の大きさが384×512であり、1秒間に100枚の画像が取得されると仮定する。バックグラウンド補正を行うために、ステップ405で、平均で最初の100枚の画像が計算され、ステップ410で、平均画像が各取得画像から差し引かれる。次に、ステップ415で、画像中の全ての輝度成分を捉えるため、適応性のある閾値/閾値設定を適用する。ステップ415で、当該技術分野で一般に知られている種々の適応性のある閾値設定技術を適用することができる。例えば、一実施形態では、各ピクセルの局所的な近傍の強度値を用いて、ピクセルの閾値を決定する。ピクセルが閾値より下の場合には、何らかの最小値(例えば、純粋な黒)に設定される。閾値設定後、ステップ420で、1つまたは複数の除外基準を画像に適用して、非細胞成分を明らかにする。ステップ420で、適用され得る除外基準の例を挙げると、物体の幅、高さ、アスペクト比および円形度が含まれるが、これらに限定されない。これらの要素が除外されると、ステップ425で、接続された要素の分析が適用され、独立した細胞に対応するピクセルの組が識別される。ピクセルの組のそれぞれは、51×51の大きさの予め定められたクロップボックスを用いて切り取られる。図5Aおよび図5Bは、異なる細胞の抽出を示す。
いくつかの実施形態において、上記技術の替わりに、前処理モジュール315は、細胞の位置を検出するために、確率的ブースティング木(ツリー)、ディープ(深部)コンボリューショナル・ニューラル・ネットワークなどの検出技術を使用することができる。細胞を抽出するために、細胞の分割化(セグメンテーション)を用いることができる。このことは、グラフ・カット、分岐点、ランダム・ウォーカー、またはマンフォード・シャー(Mumford−Shah)などの、エネルギー最小化技術を用いて行うことができる。また、このことは、所望の物体に対して、予め定められた形状(例えば、円形)を適合可能な、モデル型調整法を用いて行うこともできる。さらに、分割化は、縁(エッジ)マッチング、グラジエント(勾配)マッチングまたは強度マッチングなどの他の技術を用いて行うことができる。分割化の実施についての詳細は、「血液学分野でのホログラフィック顕微鏡データの分析」と題した米国特許出願公開第2018/0144182A1号に詳細に記載されており、その全内容は、参照により本明細書に援用する。
続けて図3を参照すると、画像処理システム345は、画像分類の問題を解決するため、CNN330を訓練するように、ピクセルの組320を使用する。この分類の問題は、画像ごとにラベルを割り当てることを目的としている。図3の例では、ユーザ350は、細胞に対応するピクセルの組320のそれぞれを手動で検査して、画像品質ラベル325を生成する。例えば、ユーザ350は、各細胞が提示されるグラフィカル・ユーザ・インターフェース(GUI)と、画像品質ラベル325の仕様を可能にする入力フィールドとが提供され得る。他の実施形態では、画像品質ラベル325を生成する作業は、複数のユーザ上によって分散化されてもよい。
いくつかの実施形態では、画像品質ラベル325は、焦点の合っていない細胞の画像については0であり、かつ焦点の合っている細胞の画像については1である。いくつかの実施形態では、異なる焦点面画像に対してより広範囲のラベルが与えられるが、これは、画像のより広範囲の変動を捕捉することができる。例えば、1つの実施形態では、ラベルは、1から10までの細胞用のグレード(等級)を有してもよく、この際、グレード1を有する細胞の品質が最も悪く、グレード10を有する細胞の品質が最も良くしてもよい。これらのグレードと焦点距離との相関は、焦点面を自動的に調整するために使用することができ、またはこのような調整を行うために装置の操作者にフィードバックを提供するように使用することができる。その後のワークフローに応じて、これらのグレードのクラスの1つまたは複数に属する細胞を含めることができる。
当技術分野で一般に理解されているように、CNN330は、入力層、1つまたは複数の隠れ層、および出力層を含む。CNN330を訓練する目的は、入力層(画像を表す特徴)と出力層(画像のラベル)との間の伝達関数を学習することである。画像処理システム345は、CNN構造(CNNアーキテクチャ)の異なる層を接続する重み付け(ウエイト)335に関して伝達関数が最小化されるように、CNN330を通して反復の前方および後方のパスを実行する。一度、CNN330が訓練されると、多層構造340の記述(すなわち、複数の層の組成)および異なる層からのニューロンを接続する重み付け335は、訓練中に使用されるラベル付けシステムの記述とともに、データ記憶所(リポジトリ)355内に保存される。データ記憶所355内の情報は、後にCNN330の配備に使用することができる。例えば、いくつかの実施形態において、NVIDIA(登録商標)製TensorRT(登録商標)は、CNN330を生産環境中に配備するために使用できる。TensorRTは、CNNを実行するために3つのファイルを必要とするが、それらは、ネットワーク構造(アーキテクチャ)ファイル、訓練された重み付け、および各出力クラスの名前を提供するためのラベルファイルである。これらの3つのファイルは、多層構造340の記述、重み付け335、及びラベル付けシステムの記述のそれぞれによって生成可能である。
図6Aは、いくつかの実施形態に従い、CNN330によって使用可能な多層構造340の例を示す。第1層は、カーネルの大きさが5×5の20のフィルターを有するコンボリューショナル層である。第2層は、カーネルの大きさが2×2でストライドが2の最大プール(マックス・プーリング)層である。第3層は、カーネルの大きさが5×5の50のフィルターを備えたコンボリューショナル層である。第4層は、カーネルの大きさが2×2でストライドが2のコンボリューショナル層である。第5層は、大きさが500の完全に接続された層である。第6層は、0.7の重み付けを維持するドロップアウト層である。最後に、第7層は、大きさが2の出力(アウトプット)層であって、焦点の合っていない細胞にはラベル0を付与し、かつ焦点の合っている細胞にはラベル1を付与する。図6Bは、図6Aに記載した複数層構造340によって行われる操作を図式化して示す。図6Aおよび図6Bに示されるネットワーク構造は、可能な構造の一例に過ぎないことに留意されたい。しかしながら、他の実施形態では、異なる数の層を使用することができ、フィルターのカーネルの大きさも相違させることができ、異なる層に対して異なる大きさを用いることもできる。さらに、ドロップアウト層を除くことができ、または、複数のドロップアウト層を用いることができる。また、ドロップアウトの確率は0から1まで変化し得る。
細胞の分類にCNNを用いることの有用性を説明し、確認し、検証するために、ラベル付けされた顕微鏡画像の例示のデータセットを2つのサブセット(部分集合)に分けたが、それらは訓練(トレーニング)に使用されるサブセットと、試験(テスト)に使用される別のサブセットである。この試験の分類精度を図7に示す。
配備の段階では、訓練したCNNを用いて、入力画像から計算された画像特徴に基づいて出力ラベルを予測する。図8は、いくつかの実施形態に係る例示的な配備を示す。この例では、CNNの出力を用いて、顕微鏡装置805の顕微鏡の適応性のある焦点調整(合焦)を提供する。より具体的には、顕微鏡装置805は、画像処理システム850に送られる顕微鏡画像810を取得するために使用される。画像処理システム850では、顕微鏡画像810は、前処理モジュール815によって前処理されて、細胞に対応するピクセルの組820を生成する。図8に示す前処理モジュール815は、図3を参照して上述した前処理モジュール315と同様の仕方で作動する。ピクセルの組820は、訓練されたCNN830への入力として使用され、その次にラベル付けされた細胞831を出力する。すなわち、出力は、ラベル付けの決まりに従ったラベル(例えば、焦点の合っていない場合は0、焦点の合っている場合は1)を有するピクセルの組820である。
ラベル付けされた細胞831は、マシーン・ラーニング(機械学習)モデル833への入力として使用されるが、そのモデルは、焦点の問題を調整するために顕微鏡装置805用の焦点距離調整835を出力するように訓練されている。取得された顕微鏡画像と訓練されたCNN830の出力に応じて顕微鏡装置805がどのように調整されるのかを、時間をかけてモニタリング(監視)することによって、マシーン・ラーニング・モデル833は訓練されている。このモニタリングは、例えば、顕微鏡装置805に送られる命令(指示)を記録することによって行うことができる。代わりに、操作者は、焦点距離の変化を画像処理システム850に手動で入力することができる。モニタされたデータを用いて、良好に焦点の合っている画像の多様性(すなわち、基礎の組)を学習することができ、それによって焦点距離と画像の品質の間の相関が提供される。多様性を学習するために用いることができる技術の例として、主成分分析(PCA)、LLE(Locally linear embedding)、および拡散マップが挙げられるが、これらに限定されない。
マシーン・ラーニング・モデル833は、顕微鏡装置805用の焦点距離調整835を出力する。次いで、この焦点距離調整835は、命令生成器(インストラクション・ジェネレータ)840への入力として使用されるが、命令生成器840は、その調整を、顕微鏡装置805用の実行可能命令845へと翻訳する。命令生成器840の実装は、顕微鏡装置805のインターフェースに依存する。しかしながら、一般に、命令生成器840は、画像処理システム850と顕微鏡装置805との間の追加のインターフェース層を提供するソフトウェアとして理解することができる。いくつかの実施形態において、マシーン・ラーニング・モデル833は、実行可能命令845を直接的に出力するように訓練することが可能であって、その場合、命令生成器840の必要性をなくすことができる。
図9は、本発明の幾つかの実施形態に係る、画像処理システムに利用可能な並列処理メモリ構造(アーキテクチャ)900の例を示す。この構造900は、NVIDIA製のCUDA(登録商標)(または同様の並列コンピューティング・プラットフォーム)を用いる本発明の実施形態で使用され得る。この構造は、バス915(例えば、PCIeバス)を介して接続された、ホスト・コンピューティング・ユニット(「ホスト」)905と、GPU装置(「装置/デバイス」)910とを含む。ホスト905は、中央処理ユニットまたは「CPU」(図9には示されていない)と、CPUにアクセス可能なホスト・メモリ925とを含む。装置910は、グラフィックス処理ユニット(GPU)と関連するメモリ920を含むが、そのメモリは本明細書ではデバイス(装置)メモリとして参照される。デバイス・メモリ920は、様々なメモリの用途に夫々最適化された、様々な種類の記憶を含み得る。例えば、いくつかの実施形態では、デバイス・メモリは、グローバル・メモリ、コンスタント・メモリ、およびテクスチャ・メモリを含む。
CNNの並列部分は、「デバイス・カーネル」または単に「カーネル」として構造900上で実行することができる。カーネルは、特定の機能を実行するように構成されたパラメータ化コードを含む。並列(パラレル)コンピューティング(計算)プラットフォームは、ユーザによって提供されるパラメータ、設定、および他の選択に基づいて、構造900にわたってこれらのカーネルを最適な仕方で実行するように構成される。さらに、いくつかの実施形態では、並列コンピューティング・プラットフォームは、ユーザによって最小限の入力が提供されるような最適な方法でカーネルを自動的に処理する追加の機能を含むことができる。
各カーネルに必要な処理は、スレッド・ブロックのグリッドによって行われる(以下でより詳細に説明する)。同時発生的(協同的)カーネルの実行、ストリーム、および軽量事象(軽いイベント)の同期化を用いて、図9に示した構造900(または類似の構造)は、CNNの並列化した訓練に使用することができる。例えば、いくつかの実施形態では、個々の細胞の画像の処理を並行して行うことができる。
装置910は、1つまたは複数のスレッド(thread)ブロック930を含むが、これは装置910の計算ユニットを表す。用語「スレッド・ブロック」は、スレッドの一群であって、共有メモリを介して協同し、メモリへのアクセスを協調させるようにそれらの実行を同期化させることができるスレッドの一群を指す。例えば、図9では、スレッド940、945および950は、スレッド・ブロック930中で作動し、共有メモリ935にアクセスする。使用される並列コンピューティング・プラットフォームに基づいて、スレッド・ブロックをグリッド(格子)構造で組織化することができる。次いで、このグリッド上に、計算または一連の計算をマッピング(マップ化)することができる。例えば、CUDAを利用する実施形態では、1次元グリッド、2次元グリッド、または3次元グリッド上に計算をマッピングすることができる。各グリッドは複数のスレッド・ブロックを含み、各スレッド・ブロックは複数のスレッドを含む。例えば、図9では、スレッド・ブロック930は、m+1の横列およびn+1の縦列を有する二次元グリッド構造で構成されている。一般に、同一のグリッドの異なるスレッド・ブロック中のスレッドは、互いに通信または同期化が不可能である。しかし、同一のグリッド中のスレッド・ブロックは、同時に、GPU内の同一のマルチプロセッサ上で機能できる。各スレッド・ブロック中のスレッドの数は、ハードウェア又はソフトウェアの制約によって制限されることがある。いくつかの実施形態において、本明細書で記載のアルゴリズムによって実施される訓練データまたは操作のサブセットの処理は、並列コンピューティング・プラットフォームのソフトウエアによって自動的にスレッド・ブロック上で分割化(パーティション化)され得る。しかしながら、他の実施形態では、個々のスレッド・ブロックを選択して、CNNのトレーニングを最適化するために構成することは可能である。例えば、一実施形態では、各スレッド・ブロックは、個々の細胞の画像または関連する細胞の画像の一群に割り当てられる。
続けて図9を参照すると、レジスタ955、960、および965は、スレッド・ブロック930に利用可能な高速メモリを表す。各レジスタは、単一のスレッドによってのみアクセス可能である。したがって、例えば、レジスタ955は、スレッド940によってのみアクセスされることができる。逆に、共有メモリはスレッド・ブロックごとに割り当てられるため、ブロック内のすべてのスレッドは同一の共有メモリへのアクセスを有する。このように、共有メモリ935は、スレッド・ブロック930内の各スレッド940、945、および950によって、並行して、アクセスされるように設計されている。スレッドは、同一のスレッド・ブロック(例えば、スレッド・ブロック930)内の他のスレッドによってデバイス・メモリ920からロードされた共有メモリ935内のデータにアクセスできる。デバイス・メモリ920は、グリッドの全てのブロックによってアクセスされ、例えば、ダイナミック・ランダム・アクセス・メモリ(DRAM)を使用して実装することができる。
各スレッドは、1つまたは複数のレベルのメモリ・アクセスを有し得る。例えば、図9の構造900において、各スレッドは、3つのレベルのメモリ・アクセスを有し得る。第一に、各スレッド940、945、950は、対応するレジスタ955、960、および965への読み込みおよび書込みが可能である。レジスタは、スレッドへの最も速いメモリ・アクセスを提供するが、その理由は、同期化の問題がなく、レジスタは、一般的に、そのスレッドを実行しているマルチプロセッサの近くに位置しているためである。第二に、スレッド・ブロック930内の各スレッド940、945、950は、そのブロック930に対応する共有メモリ935へのデータの読み込みおよび書き込みが可能である。一般に、スレッドが共有メモリにアクセスするのに必要な時間は、レジスタアクセスの時間を上回るが、その理由はスレッド・ブロック内のすべてのスレッド間でアクセスを同期化させる必要性のためである。しかしながら、スレッド・ブロック内のレジスタと同様に、共有メモリは、通常、スレッドを実行するマルチプロセッサの近くに位置する。メモリ・アクセスの第3のレベルは、デバイス910上のすべてのスレッドが、デバイス・メモリへの読み込みおよび/または書き込みを可能にする。デバイス・メモリはアクセスに最も長い時間を要するが、その理由は、デバイス上で作動するスレッド・ブロックにわたってアクセスが同期化しなければならないためである。したがって、いくつかの実施形態において、各細胞画像の処理のコード化は、主としてレジスタおよび共有メモリを利用して行って、データをスレッド・ブロックの内外に移動させる必要があるときに限りデバイス・メモリを利用するように行う。
本開示の実施形態は、ハードウェアとソフトウェアの任意の組合せによって実装することができる。例えば、本明細書で記載の技術を実行するため、図9に示した並列処理構造とは別に、標準的なコンピューティング・プラットフォーム(例えば、サーバー、デスクトップコンピュータなど)を特別に構成することができる。さらに、本開示の実施形態は、例えば、コンピュータにより読み取り可能な、非一時的メディアを有する製品(例えば、1つまたは複数のコンピュータプログラム製品)に含ませることができる。メディアは、本開示の実施形態のメカニズムを提供し、可能にするため、コンピュータ読み取り可能なプログラムコードをその中に有していてもよい。製品は、コンピューターシステムの一部として含ませることができ、又は、別個に販売することもできる。
本明細書には様々な態様および実施形態が開示されているが、当業者であれば他の態様や実施形態はは明白になるだろう。本明細書に開示された様々な態様および実施形態は、例として示されており、それに限定することを意図したものではなく、発明の真の範囲および技術思想は、添付の特許請求の範囲によって示される。
本明細書中で使用される実行可能なアプリケーションは、コードまたは機械可読命令を含み、プロセッサに対して条件付けを行って予め定められた機能を実行させるが、例えば、オペレーティング・システム、コンテキスト・データ取得システムまたは他の情報処理システムであって、例えばユーザのコマンドまたは入力に応じるものなどを実行させる。実行可能手続きは、コード若しくは機械可読命令のセグメント、サブルーチン、または、実行可能なアプリケーションのコード若しくは一部の他の別個のセクションであって、1つまたは複数の特定のプロセスを行わせるものである。これらのプロセスは、入力データおよび/またはパラメータの受信と、受信した入力データに関する操作の実行および/または受信した入力パラメータに応じた機能の実行と、結果として得られる出力データおよび/またはパラメータの提供とを含み得る。
本明細書中で使用されるグラフィカル・ユーザ・インターフェース(GUI)は、1つまたは複数の表示画像を含むが、それは、ディスプレイ・プロセッサ(表示処理装置)によって生成されて、プロセッサまたは他の装置とのユーザの相互作用と、関連するデータの取得と、機能の処理とを可能にする。GUIは、実行可能手続きまたは実行可能アプリケーションも含む。実行可能手続きまたは実行可能アプリケーションは、GUI表示画像を表す信号を生成するために、表示処理装置を条件付ける。これらの信号は、ディスプレイ装置に供給されて、ユーザによって見られるように画像を表示する。実行可能手順きまたは実行可能アプリケーションの制御下で、プロセッサは、入力装置から受信した信号に応じてGUI表示画像を操作する。このようにして、ユーザは入力装置を用いて表示画像と相互作用することができ、これにより、ユーザがプロセッサまたは他の装置と相互作用することを可能にする。
本明細書中で使用されるように、用語「モジュール」は、(i)ソフトウェア構成要素であって、電子装置が様々な入力を受け入れるようにして、特定の出力を発生させるものと、(ii)電子入力/出力インターフェースであって、パネル、フレーム、テキストボックス、ウインドウまたはGUIの他の部分のとの、一方または両方を参照することができる。
本明細書に記載の機能及びプロセス・ステップは、自動的に又は全体的若しくは部分的にユーザーコマンドに応じて実施することができる。自動的に実施される活動(ステップを含む)は、ユーザがその活動を直接的に始動させることなく、1つまたは複数の実行可能命令又はデバイス動作に応じて実施される。
図示したシステム及びプロセスは排他的でない。本発明の原理に従って同一の目的を達成するため、他のシステム、プロセス及びメニューを導出することができる。本発明は特定の実施形態を参照して説明されたが、本明細書で記載した実施形態及び変更実施形態は例示を目的にしていることを理解されたい。当業者であれば、現在の構成に対して、本発明の範囲から逸脱することなく、変更を行うことができるだろう。本明細書で記載のように、様々なシステム、サブシステム、エージェント、マネージャー及びプロセスは、ハードウェア構成要素、ソフトウェア構成要素、及び/又はそれらの組合せを使用して実装され得る。特許請求の範囲の請求項の構成要素はいずれも、「ミーンズ・プラス・ファンクション(means for)」を用いて明示的に記載されていない限り、米国特許法第112条(f)の規定に基づいて解釈されるべきではない。
305 顕微鏡装置
310 顕微鏡画像
320 ピクセルの組(ピクセルのセット)
325 画像品質ラベル(画質ラベル)
330 コンボリューショナル・ニューラル・ネットワーク(CNN)
335 重み付け(ウエイト)
340 多層構造(マルチ・レイヤ・アーキテクチャ)
833 マシーン・ラーニング・モデル(機械学習モデル)
835 焦点距離調整
845 実行可能命令
910 ホログラフィック顕微鏡(DHM)

Claims (20)

  1. 焦点の合っていない顕微鏡画像(310)を検出するためにコンピュータを用いて行われる方法であって、
    細胞を描出する複数の顕微鏡画像(310)を取得するステップと、
    前記複数の顕微鏡画像(310)から1つまたは複数のピクセルの組(320)を抽出するステップであって、この際、前記ピクセルの組(320)のそれぞれが独立した細胞に対応するステップと、
    前記独立した細胞の焦点が合っている度合いを示す、複数の画像品質ラベル(325)のうちの1つを、前記ピクセルの組(320)のそれぞれに割り当てるステップと、
    前記ピクセルの組(320)を前記複数の画像品質ラベル(325)に分類するために分類器を訓練するステップであって、この際、前記分類器は多層構造(340)に従って構成され、前記訓練の結果として前記多層構造(340)中の層を接続するための複数の重み付け(335)を決定するステップと、
    前記多層構造(340)、前記複数の重み付け(335)、および前記複数の画像品質ラベル(325)に基づいて、前記分類器の配備を作成するステップ、とを有する方法。
  2. 前記分類器が、コンボリューショナル・ニューラル・ネットワーク(330)である、請求項1に記載の方法。
  3. 前記顕微鏡画像(310)が、合成画像であって、
    ディープ・コンボリューショナル敵対的生成ネットワーク(DCGAN)を使用して、前記画像の組の訓練に基づいて複数の異なる焦点で前記合成画像を生成する、請求項1に記載の方法。
  4. 前記複数の顕微鏡画像(310)から前記1つまたは複数のピクセルの組(320)を抽出する際、
    前記複数の顕微鏡画像(310)を平均化して、平均画像を生成し、
    前記複数の顕微鏡画像(310)から前記平均画像を差し引いて、複数の変換された顕微鏡画像(310)を生成し、
    前記複数の変換された顕微鏡画像(310)に対して適応性のある閾値設定を適用して、複数の閾値設定された顕微鏡画像(310)を生成し、
    前記複数の閾値設定された顕微鏡画像(310)に対して1つまたは複数の除外基準を適用して、非細胞成分に対応する前記複数の閾値設定された顕微鏡画像(310)から1つまたは複数のピクセルの組(320)を除外し、
    前記除外基準の適用後、前記複数の閾値設定された顕微鏡画像(310)に対して接続成分の分析を適用して、独立した細胞に対応する前記1つまたは複数のピクセルの組(320)を識別し、
    前記複数の閾値設定された顕微鏡画像(310)から前記1つまたは複数のピクセルの組(320)を切り取る、
    各ステップを用いる、請求項1に記載の方法。
  5. 前記除外基準が、前記複数の閾値設定された顕微鏡画像(310)中の非細胞成分の、幅、高さ、アスペクト比、および円形度の内の1つまたは複数を含む、請求項4に記載の方法。
  6. 前記複数の顕微鏡画像(310)から前記1つまたは複数のピクセルの組(320)を抽出する際、
    前記複数の顕微鏡画像(310)中の前記ピクセルの組(320)を識別するために1つまたは複数のマシーン・ラーニング・モデルを適用し、
    前記複数の顕微鏡画像(310)から前記1つまたは複数のピクセルの組(320)を切り取る、
    各ステップを用いる、請求項1に記載の方法。
  7. 前記マシーン・ラーニング・モデルが、確率的ブースティング・ツリー・モデルおよびディープ・コンボリューショナル・ニューラル・ネットワーク(330)の1つまたは複数を含む、請求項6に記載の方法。
  8. 分類器の配備は、(i)多層構造(340)、(ii)複数の重み付け(335)、(iii)複数の画像品質ラベル(325)を記述する1つまたは複数のファイルを含む、請求項1に記載の方法。
  9. 前記複数の顕微鏡画像(310)が、ホログラフィック顕微鏡(DHM)画像である、請求項1に記載の方法。
  10. 複数の画像品質ラベル(325)が、焦点の合っている画像または焦点の合っていない画像をそれぞれ示す2つの値から構成される、請求項1に記載の方法。
  11. 前記複数の画像品質ラベル(325)が、最も悪い画像の品質を示す最小値と最も良い画像の品質を示す最大値との間で2つ以上の値からなる範囲を含む、請求項1に記載の方法。
  12. 顕微鏡装置(305)の適応性のある焦点合わせをコンピュータを用いて行う方法であって、
    顕微鏡装置(305)を用いて細胞を描出する複数の顕微鏡画像(310)の取得するステップと、
    前記複数の顕微鏡画像(310)から1つまたは複数のピクセルの組(320)を抽出するステップであって、この際、前記ピクセルの組(320)のそれぞれが独立した細胞に対応するステップと、
    訓練された分類器を用いて、独立した細胞の焦点が合っている程度を示す、複数の画像品質ラベル(325)のうちの1つを、前記ピクセルの組(320)のそれぞれに割り当てるステップと、
    前記ピクセルの組(320)に対応する前記画像品質ラベル(325)が、細胞の焦点が合っていないことを示す場合、訓練されたマシーン・ラーニング・モデル(833)を用いて、前記顕微鏡装置(305)の焦点を調整するために焦点距離調整(835)を決定するステップと、
    前記焦点距離調整(835)を行うために、前記顕微鏡装置(305)に実行可能命令(845)を送るステップ、とを有する方法。
  13. (i)訓練画像の組、(ii)焦点の品質のラベル、および(iii)各訓練画像の取得に用いられる焦点距離の指標を用いて、前記マシーン・ラーニング・モデル(833)が訓練される、請求項12に記載の方法。
  14. 前記訓練された分類器が、コンボリューショナル・ニューラル・ネットワークである、請求項12に記載の方法。
  15. 前記顕微鏡装置(305)が、ホログラフィック顕微鏡(DHM)(910)である、請求項12に記載の方法。
  16. 前記複数の画像品質ラベル(325)が、焦点の合っている画像または焦点の合っていない画像をそれぞれ示す2つの値から構成される、請求項12に記載の方法。
  17. 複数の画像の品質ラベル(325)が、最も悪い画像の品質を示す最小値と、最も良い画像の品質を示す最大値との間で2つ以上の値からなる範囲を含む、請求項12に記載の方法。
  18. 顕微鏡装置(305)の適応性のある焦点合わせを行うシステムであって、
    細胞を描出する複数の顕微鏡画像(310)を取得するように構成された顕微鏡装置(305)と、
    命令を実行する1つまたは複数のプロセッサとを含み、この際、前記命令によって行われる方法は、
    前記複数の顕微鏡画像(310)から1つまたは複数のピクセルの組(320)を抽出するステップであって、この際、前記ピクセルの組(320)のそれぞれは独立した細胞に対応するステップと、
    訓練された分類器を用いて、独立した細胞の焦点が合っている度合いを示す、複数の画像品質ラベル(325)のうちの1つを、前記ピクセルの組(320)のそれぞれに割り当てるステップと、
    前記ピクセルの組(320)に対応する前記画像品質ラベル(325)が、細胞の焦点が合っていないことを示す場合、訓練されたマシーン・ラーニング・モデル(833)を用いて、前記顕微鏡装置(305)の焦点を調整するための焦点距離調整(835)を決定するステップと、
    前記焦点距離調整(835)を行うために前記顕微鏡装置(305)に実行可能命令(845)を送るステップと、を含む、
    システム。
  19. 前記1つまたは複数のプロセッサが、前記訓練された分類器の使用に関し動作を並行化する並列処理プラットフォームに含まれる、請求項18に記載のシステム。
  20. 前記1つまたは複数のプロセッサが、前記複数のピクセルの組(320)に対して並列に前記訓練された分類器を適用する、請求項19に記載のシステム。
JP2020508555A 2017-08-15 2018-07-06 コンボリューショナル・ニューラルを用いた、ホログラフィック顕微鏡で取得した細胞画像の品質の識別方法 Active JP7072049B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762545517P 2017-08-15 2017-08-15
US62/545,517 2017-08-15
PCT/EP2018/068345 WO2019034328A1 (en) 2017-08-15 2018-07-06 IDENTIFYING THE QUALITY OF CELLULAR IMAGES ACQUIRED USING DIGITAL HOLOGRAPHIC MICROSCOPY USING CONVOLUTIONAL NEURAL NETWORKS

Publications (3)

Publication Number Publication Date
JP2020531971A true JP2020531971A (ja) 2020-11-05
JP2020531971A5 JP2020531971A5 (ja) 2020-12-24
JP7072049B2 JP7072049B2 (ja) 2022-05-19

Family

ID=63077840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020508555A Active JP7072049B2 (ja) 2017-08-15 2018-07-06 コンボリューショナル・ニューラルを用いた、ホログラフィック顕微鏡で取得した細胞画像の品質の識別方法

Country Status (5)

Country Link
US (2) US11227386B2 (ja)
EP (1) EP3669227B8 (ja)
JP (1) JP7072049B2 (ja)
CN (1) CN111051955B (ja)
WO (1) WO2019034328A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021166062A (ja) * 2018-05-07 2021-10-14 グーグル エルエルシーGoogle LLC 顕微鏡スライド画像のための焦点重み付き機械学習分類器誤り予測
WO2022113366A1 (ja) * 2020-11-30 2022-06-02 株式会社ニコン 学習済みモデルを生成する方法、画像処理方法、画像変換装置、プログラム
KR102449858B1 (ko) * 2021-07-08 2022-09-30 가톨릭대학교 산학협력단 암 세포 판정을 위한 핵이미지 선별 장치 및 핵이미지 선별 방법
WO2023008428A1 (ja) * 2021-07-29 2023-02-02 株式会社島津製作所 細胞画像解析方法
WO2023114204A1 (en) * 2021-12-17 2023-06-22 Beckman Coulter, Inc. Focus quality determination through multi-layer processing
WO2023120832A1 (ko) * 2021-12-24 2023-06-29 (주)힉스컴퍼니 병렬 처리 방법 및 이를 이용한 고속 프로세싱 시스템

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11222415B2 (en) * 2018-04-26 2022-01-11 The Regents Of The University Of California Systems and methods for deep learning microscopy
EP3644228A1 (en) * 2018-10-23 2020-04-29 The Chinese University Of Hong Kong Method and apparatus for segmenting cellular image
DE102018133188A1 (de) * 2018-12-20 2020-06-25 Carl Zeiss Microscopy Gmbh Abstandbestimmung einer probenebene in einem mikroskopsystem
US11405547B2 (en) * 2019-02-01 2022-08-02 Electronics And Telecommunications Research Institute Method and apparatus for generating all-in-focus image using multi-focus image
CN113711133A (zh) * 2019-04-22 2021-11-26 加利福尼亚大学董事会 基于深度学习的彩色全息显微镜的系统和方法
EP3757648B1 (en) * 2019-06-28 2023-08-30 Associação Fraunhofer Portugal Optical system attachable to a mobile device for scanning biological sample slides and operating method thereof
CN110516561B (zh) * 2019-08-05 2022-12-06 西安电子科技大学 基于dcgan和cnn的sar图像目标识别方法
CN110736747B (zh) * 2019-09-03 2022-08-19 深思考人工智能机器人科技(北京)有限公司 一种细胞液基涂片镜下定位的方法及系统
CN111091539B (zh) * 2019-12-09 2024-03-26 上海联影智能医疗科技有限公司 网络模型训练、医学图像处理方法、装置、介质及设备
GB2595873B (en) * 2020-06-09 2023-01-25 Ffei Ltd A method for analysing scanning efficacy
JP7463512B2 (ja) * 2020-07-02 2024-04-08 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
GB2596864A (en) * 2020-07-10 2022-01-12 Graphcore Ltd Machine learning computer
CN111709390A (zh) * 2020-08-11 2020-09-25 山东省食品药品检验研究院 基于显微图像的草酸钙晶体智能鉴别方法和系统
TWI828009B (zh) * 2021-11-19 2024-01-01 財團法人工業技術研究院 免標記式細胞活性檢測的方法及訓練人工智慧執行免標記式細胞活性檢測的方法
US11906433B2 (en) * 2021-12-14 2024-02-20 Instituto Potosino de Investigación Científica y Tecnológica A.C. System and method for three-dimensional imaging of unstained samples using bright field microscopy
CN116563735A (zh) * 2023-05-15 2023-08-08 国网电力空间技术有限公司 一种基于深度人工智能的输电杆塔巡检图像对焦判断方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311102A (ja) * 1996-05-24 1997-12-02 Hitachi Ltd フロー式粒子画像解析方法および装置
US7034883B1 (en) * 1999-08-10 2006-04-25 Cellavision Ab Automatic focusing
JP2017516992A (ja) * 2014-05-23 2017-06-22 ベンタナ メディカル システムズ, インコーポレイテッド 画像内の生物学的構造及び/又はパターンの検出のためのシステム及び方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4998284A (en) * 1987-11-17 1991-03-05 Cell Analysis Systems, Inc. Dual color camera microscope and methodology for cell staining and analysis
US5655028A (en) * 1991-12-30 1997-08-05 University Of Iowa Research Foundation Dynamic image analysis system
AU3371395A (en) * 1994-09-20 1996-04-19 Neopath, Inc. Biological specimen analysis system processing integrity checking apparatus
AU6603100A (en) 1999-08-10 2001-03-05 Cellavision Ab Methods and devices in an optical system
US20030143524A1 (en) 2002-01-31 2003-07-31 Boaz Lerner Method and system for determining the amount, distribution and conformation of genetic material in a cell
US7760927B2 (en) * 2003-09-10 2010-07-20 Bioimagene, Inc. Method and system for digital image based tissue independent simultaneous nucleus cytoplasm and membrane quantitation
US20060178833A1 (en) * 2005-02-04 2006-08-10 Bauer Kenneth D System for and method of providing diagnostic information through microscopic imaging
SE530750C2 (sv) * 2006-07-19 2008-09-02 Hemocue Ab En mätapparat, en metod och ett datorprogram
US8143600B2 (en) 2008-02-18 2012-03-27 Visiongate, Inc. 3D imaging of live cells with ultraviolet radiation
US8326029B1 (en) * 2008-03-21 2012-12-04 Hewlett-Packard Development Company, L.P. Background color driven content retrieval
US7761250B2 (en) * 2008-06-18 2010-07-20 Tokyo Electron Limited Optical metrology system optimized with design goals
JP5476879B2 (ja) * 2008-09-29 2014-04-23 ソニー株式会社 画像処理装置および係数学習装置。
US8049811B2 (en) * 2009-01-28 2011-11-01 Board Of Regents, The University Of Texas System Automatic focusing apparatus and method for digital images using automatic filter switching
AU2010286740B2 (en) * 2009-08-22 2016-03-10 The Board Of Trustees Of The Leland Stanford Junior University Imaging and evaluating embryos, oocytes, and stem cells
WO2011031803A1 (en) 2009-09-08 2011-03-17 Nodality, Inc. Analysis of cell networks
JP5304901B2 (ja) * 2009-10-27 2013-10-02 富士通株式会社 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
US8744164B2 (en) * 2010-04-06 2014-06-03 Institute For Systems Biology Automated analysis of images using bright field microscopy
CN102411715A (zh) * 2010-09-21 2012-04-11 张云超 有监督学习功能的细胞图像自动分类方法和系统
US8503801B2 (en) * 2010-09-21 2013-08-06 Adobe Systems Incorporated System and method for classifying the blur state of digital image pixels
US9562861B2 (en) 2011-04-05 2017-02-07 Nalco Company Method of monitoring macrostickies in a recycling and paper or tissue making process involving recycled pulp
WO2013025173A1 (en) * 2011-08-12 2013-02-21 Agency For Science, Technology And Research A method and system for tracking motion of microscopic objects within a three-dimensional volume
US8885941B2 (en) * 2011-09-16 2014-11-11 Adobe Systems Incorporated System and method for estimating spatially varying defocus blur in a digital image
US8902328B2 (en) * 2013-03-14 2014-12-02 Konica Minolta Laboratory U.S.A., Inc. Method of selecting a subset from an image set for generating high dynamic range image
CN106462746B (zh) 2014-06-16 2020-03-10 西门子医疗保健诊断公司 分析数字全息显微术数据以用于血液学应用
US9927604B2 (en) * 2014-09-12 2018-03-27 Research Foundation Of The City University Of New York Biologically inspired algorithm based method for near real-time tracking of moving objects in three dimensional environment
US9524450B2 (en) 2015-03-04 2016-12-20 Accenture Global Services Limited Digital image processing using convolutional neural networks
US9836839B2 (en) * 2015-05-28 2017-12-05 Tokitae Llc Image analysis systems and related methods
WO2017050861A1 (en) 2015-09-22 2017-03-30 Siemens Healthcare Gmbh Auto-referencing in digital holographic microscopy reconstruction
US10460231B2 (en) 2015-12-29 2019-10-29 Samsung Electronics Co., Ltd. Method and apparatus of neural network based image signal processor
ES2944957T3 (es) 2016-03-16 2023-06-27 Siemens Healthcare Gmbh Diferencial de 5 partes de alta exactitud con microscopía holográfica digital y leucocitos intactos de sangre periférica
US20180018757A1 (en) * 2016-07-13 2018-01-18 Kenji Suzuki Transforming projection data in tomography by means of machine learning
US10573003B2 (en) * 2017-02-13 2020-02-25 Amit Sethi Systems and methods for computational pathology using points-of-interest
WO2018176017A1 (en) * 2017-03-24 2018-09-27 Revealit Corporation Method, system, and apparatus for identifying and revealing selected objects from video

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311102A (ja) * 1996-05-24 1997-12-02 Hitachi Ltd フロー式粒子画像解析方法および装置
US7034883B1 (en) * 1999-08-10 2006-04-25 Cellavision Ab Automatic focusing
JP2017516992A (ja) * 2014-05-23 2017-06-22 ベンタナ メディカル システムズ, インコーポレイテッド 画像内の生物学的構造及び/又はパターンの検出のためのシステム及び方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
M ZEDER, E KOHLER, J PERNTHALER: "Automated quality assessment of autonomously acquired microscopic images of fluorescently stained ba", CYTOMETRY. PART A, vol. 77, no. 1, JPN6021043044, 1 January 2010 (2010-01-01), pages 76 - 85, XP002664838, ISSN: 0004632743, DOI: 10.1002/CYTO.A.20810 *
TOMI PITKAHO, AKI MANNINEN, AND THOMAS J. NAUGHTON: "Performance of autofocus capability of deep convolutional neural networks in digital holographic mic", DIGITAL HOLOGRAPHY AND THREE-DIMENSIONAL IMAGING 2017, vol. W2A, JPN6021043047, 29 May 2017 (2017-05-29), pages 2 - 5, ISSN: 0004632741 *
河野曜平,川本一彦: "GANを用いたデータ拡張", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) [ONLINE], vol. 2017−CVIM−207, JPN6021043045, 3 May 2017 (2017-05-03), JP, pages 1 - 5, ISSN: 0004632742 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021166062A (ja) * 2018-05-07 2021-10-14 グーグル エルエルシーGoogle LLC 顕微鏡スライド画像のための焦点重み付き機械学習分類器誤り予測
JP7134303B2 (ja) 2018-05-07 2022-09-09 グーグル エルエルシー 顕微鏡スライド画像のための焦点重み付き機械学習分類器誤り予測
US11657487B2 (en) 2018-05-07 2023-05-23 Google Llc Focus-weighted, machine learning disease classifier error prediction for microscope slide images
WO2022113366A1 (ja) * 2020-11-30 2022-06-02 株式会社ニコン 学習済みモデルを生成する方法、画像処理方法、画像変換装置、プログラム
JP7452702B2 (ja) 2020-11-30 2024-03-19 株式会社ニコン 学習済みモデルを生成する方法、画像処理方法、画像変換装置、プログラム
KR102449858B1 (ko) * 2021-07-08 2022-09-30 가톨릭대학교 산학협력단 암 세포 판정을 위한 핵이미지 선별 장치 및 핵이미지 선별 방법
WO2023282488A1 (ko) * 2021-07-08 2023-01-12 가톨릭대학교 산학협력단 암 세포 판정을 위한 핵이미지 선별 장치 및 핵이미지 선별 방법
WO2023008428A1 (ja) * 2021-07-29 2023-02-02 株式会社島津製作所 細胞画像解析方法
WO2023114204A1 (en) * 2021-12-17 2023-06-22 Beckman Coulter, Inc. Focus quality determination through multi-layer processing
WO2023120832A1 (ko) * 2021-12-24 2023-06-29 (주)힉스컴퍼니 병렬 처리 방법 및 이를 이용한 고속 프로세싱 시스템

Also Published As

Publication number Publication date
CN111051955B (zh) 2022-04-15
WO2019034328A1 (en) 2019-02-21
EP3669227A1 (en) 2020-06-24
US11227386B2 (en) 2022-01-18
EP3669227B8 (en) 2024-02-28
EP3669227C0 (en) 2023-12-20
US11580640B2 (en) 2023-02-14
CN111051955A (zh) 2020-04-21
US20200184637A1 (en) 2020-06-11
JP7072049B2 (ja) 2022-05-19
US20220092773A1 (en) 2022-03-24
EP3669227B1 (en) 2023-12-20

Similar Documents

Publication Publication Date Title
JP7072049B2 (ja) コンボリューショナル・ニューラルを用いた、ホログラフィック顕微鏡で取得した細胞画像の品質の識別方法
Tabernik et al. Segmentation-based deep-learning approach for surface-defect detection
Wagner et al. SPHIRE-crYOLO is a fast and accurate fully automated particle picker for cryo-EM
US10614287B2 (en) Virtual staining of cells in digital holographic microscopy images using general adversarial networks
JP2017519985A (ja) 血液学用デジタルホログラフィ顕微鏡検査データ分析
CN111837157A (zh) 细胞图像解析方法、细胞图像解析装置、及学习模型创建方法
JP7439165B2 (ja) 敵対的生成ネットワークを用いたホログラフィック顕微鏡画像中の細胞の仮想染色
US11423256B2 (en) Biological image transformation using machine-learning models
Trujillo et al. Automatic detection and counting of phase objects in raw holograms of digital holographic microscopy via deep learning
FR2985830A1 (fr) Procede de classification supervisee de cellules comprises dans des images de microscopie.
Muyama et al. Automated detection of tuberculosis from sputum smear microscopic images using transfer learning techniques
Wong et al. Self-supervised classification of subcellular morphometric phenotypes reveals extracellular matrix-specific morphological responses
WO2013025173A1 (en) A method and system for tracking motion of microscopic objects within a three-dimensional volume
Ghosh et al. Bird species detection and classification based on HOG feature using convolutional neural network
Ramarolahy et al. Classification and generation of microscopy images with plasmodium falciparum via artificial neural networks using low cost settings
Yi et al. Extraction of target specimens from bioholographic images using interactive graph cuts
Dai et al. Exceeding the limit for microscopic image translation with a deep learning-based unified framework
Bartschat et al. Fuzzy tissue detection for real-time focal control in corneal confocal microscopy
Zhu et al. Surface Defect Detection and Classification Based on Fusing Multiple Computer Vision Techniques
CN117751392A (zh) 基于机器学习模型的生物图像变换
Yan et al. Segmentation of Synapses in Fluorescent Images using U-Net++ and Gabor-based Anisotropic Diffusion
WO2022055903A2 (en) Biological image transformation using machine-learning models
Erofeev et al. On Optimizing Miniscope Data Analysis with Simulated Data: A Study of Parameter Optimization in the Minian Analysis Pipeline
González et al. Segmentation and analysis of mouse pituitary cells with graphic user interface (GUI)
Briggman Retinal Connectomics

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220509

R150 Certificate of patent or registration of utility model

Ref document number: 7072049

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150