JP2023166444A - 拡大画像の取得およびストレージ - Google Patents
拡大画像の取得およびストレージ Download PDFInfo
- Publication number
- JP2023166444A JP2023166444A JP2023135215A JP2023135215A JP2023166444A JP 2023166444 A JP2023166444 A JP 2023166444A JP 2023135215 A JP2023135215 A JP 2023135215A JP 2023135215 A JP2023135215 A JP 2023135215A JP 2023166444 A JP2023166444 A JP 2023166444A
- Authority
- JP
- Japan
- Prior art keywords
- interest
- region
- tissue sample
- magnification level
- refined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims description 46
- 238000001514 detection method Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 25
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000002159 abnormal effect Effects 0.000 description 14
- 238000004590 computer program Methods 0.000 description 13
- 238000010801 machine learning Methods 0.000 description 13
- 238000012549 training Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000026676 system process Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241000009334 Singa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
- G02B21/365—Control or image processing arrangements for digital or video microscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Optics & Photonics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Microscoopes, Condenser (AREA)
Abstract
【課題】顕微鏡によって生成されるサンプルの拡大画像を効率的に取得および格納する画像化システムを提供する。【解決手段】画像化システムは、組織サンプルの関心領域の拡大画像を生成するための顕微鏡と、拡大画像を取得および格納するためのカメラと、コントローラとを含む。コントローラは、増加していく倍率レベルのシーケンスにおける倍率レベルごとに、現在の倍率レベルで組織サンプルの1つまたは複数の関心領域を画像化するように構成される。関心領域ごとに、現在の倍率レベルでの組織サンプルの関心領域の拡大画像に基づいて、1つまたは複数の精細化された関心領域を画定するデータが生成される。各精細化された関心領域は、組織サンプルの適切なサブセットに対応し、組織サンプルの精細化された関心領域は、増加していく倍率レベルのシーケンスからの次の倍率レベルで画像化されるべき関心領域を提供する。【選択図】図1
Description
本明細書は、顕微鏡によって生成された拡大画像の取得および格納に関する。
顕微鏡は、様々な倍率レベルのいずれかでサンプルの拡大画像を生成することができる。画像の「倍率レベル」は、画像に示されているエンティティ(例えば、細胞)が実際のサイズと比較してどれくらい大きく見えるかの尺度を指す。より高い倍率レベルでは、より低い倍率レベルでの単一画像と同じサンプル区域を取得するには、より高い解像度の画像またはより多くの個別の画像が必要とされる可能性があり、したがって、ストレージ中にメモリにより多くのスペースが必要とされる。
組織サンプルの拡大画像を病理医が分析して、組織サンプルの一部(またはすべて)が異常(例えば、癌性)であるかどうかを決定することができる。病理医は、異常であるように見える組織サンプルの一部をより高い倍率レベルで見ることによって、組織サンプルの拡大画像を分析することができる。
本明細書は、顕微鏡によって生成されるサンプルの拡大画像を効率的に取得および格納することができる、1つまたは複数の場所にある1つまたは複数のコンピュータ上のコンピュータプログラムとして実装される画像化システムを説明する。
第1の態様によれば、組織サンプルの関心領域の拡大画像を生成するための顕微鏡と、顕微鏡によって生成された拡大画像を取得および格納するためのカメラと、コントローラとを含む画像化システムが提供される。コントローラは、増加していく倍率レベルのシーケンスにおける倍率レベルごとに、現在の倍率レベルで組織サンプルの1つまたは複数の関心領域を画像化するように構成される。これは、関心領域ごとに、現在の倍率レベルで組織サンプルの関心領域の拡大画像を生成するために顕微鏡を使用すること、現在の倍率レベルで組織サンプルの関心領域の拡大画像を取得および格納するためにカメラを使用すること、および現在の倍率レベルでの組織サンプルの関心領域の拡大画像に基づいて、1つまたは複数の精細化された関心領域を画定するデータを生成することを含む。各精細化された関心領域は、組織サンプルの適切なサブセットに対応し、組織サンプルの精細化された関心領域は、増加していく倍率レベルのシーケンスからの次の倍率レベルで画像化されるべき関心領域を提供する。
別の態様において、1つまたは複数のデータ処理装置によって実行される方法は、増加していく倍率レベルのシーケンスにおける倍率レベルごとに、現在の倍率レベルで組織サンプルの1つまたは複数の関心領域を画像化することを含む。これは、関心領域ごとに、現在の倍率レベルで組織サンプルの関心領域の拡大画像を生成するために顕微鏡を使用すること、現在の倍率レベルで組織サンプルの関心領域の拡大画像を取得および格納するためにカメラを使用すること、および現在の倍率レベルでの組織サンプルの関心領域の拡大画像に基づいて、1つまたは複数の精細化された関心領域を画定するデータを生成することを含む。各精細化された関心領域は、組織サンプルの適切なサブセットに対応し、組織サンプルの精細化された関心領域は、増加していく倍率レベルのシーケンスからの次の倍率レベルで画像化されるべき関心領域を提供する。
別の実施態様において、非一時的コンピュータ可読ストレージ媒体は、1つまたは複数のコンピュータによって実行されたとき、増加していく倍率レベルのシーケンスにおける倍率レベルごとに、現在の倍率レベルで組織サンプルの1つまたは複数の関心領域を画像化することを含む操作を1つまたは複数のコンピュータに実行させる命令によりエンコードされる。これは、関心領域ごとに、現在の倍率レベルで組織サンプルの関心領域の拡大画像を生成するために顕微鏡を使用すること、現在の倍率レベルで組織サンプルの関心領域の拡大画像を取得および格納するためにカメラを使用すること、および現在の倍率レベルでの組織サンプルの関心領域の拡大画像に基づいて、1つまたは複数の精細化された関心領域を画定するデータを生成することを含む。各精細化された関心領域は、組織サンプルの適切なサブセットに対応し、組織サンプルの精細化された関心領域は、増加していく倍率レベルのシーケンスからの次の倍率レベルで画像化されるべき関心領域を提供する。
上述の態様のうちのいずれかの実施態様は、以下の特徴のうちの1つまたは複数を含むことができる。
各精細化された関心領域は、関心領域に含まれ得る。1つまたは複数の精細化された関心領域を画定するデータを生成することは、1つまたは複数の精細化された関心領域を画定するデータを生成するために、現在の倍率レベルでの組織サンプルの関心領域の拡大画像を検出モデルを使用して処理することを含むことができる。検出モデルは、癌性であると予測される組織サンプルの部分に対応する精細化された関心領域を画定するデータを生成するように構成することができる。検出モデルは、1つまたは複数のニューラルネットワークを含むことができる。増加していく倍率レベルのシーケンスにおける特定の倍率レベルごとに、コントローラは、特定の倍率レベルでの拡大画像を処理するように特化されている特定の検出モデルを使用することができる。組織サンプルの関心領域を画像化することは、組織サンプルの関心領域の場所を画定するデータを格納することを含むことができる。関心領域の拡大画像を生成するために顕微鏡を使用することは、顕微鏡に、現在の倍率レベルで組織サンプルの関心領域の拡大画像を生成させるために、(i)顕微鏡のステージの位置、(ii)顕微鏡の倍率設定、または(iii)両方を調節することを含むことができる。
本明細書に記載される主題の特定の実施形態は、以下の利点のうちの1つまたは複数を実現するように実施することができる。
本明細書に記載される画像化システムは、顕微鏡を使用して生成されるサンプル(例えば、組織サンプル)の拡大画像を効率的に取得および格納するために使用することができる。特に、サンプル全体の拡大画像を取得および格納するのではなく、システムは、サンプルのそれぞれの関心領域の拡大画像を異なる倍率レベルで取得および格納することができる。サンプルの関心領域はサンプル全体のごく一部分のみに対応することができるので、サンプルの関心領域の拡大画像は、格納中にメモリ内に、サンプル全体の拡大画像が占めるよりも実質的に少ないスペースを占めることができる。その上、本明細書に記載される画像化システムは、各倍率レベルでサンプル全体の拡大画像を取得および格納する従来の画像化システムよりも高いスループット(例えば、1時間当たり処理されるサンプルで測定された)を有することができる。
本明細書に記載される画像化システムは、所与の倍率レベルで取得されたサンプルの関心領域の拡大画像を処理して、より高い倍率レベルで画像化されるべき「精細化された」関心領域を決定することができる。例えば、サンプルが組織サンプルである場合、システムは、「異常」(例えば、癌性)であると予測される組織サンプルの部分に対応する精細化された関心領域を決定することができる。この例では、システムは、より低い倍率で取得された組織サンプルの画像に基づいて異常であると予測される場合、組織サンプルの関心領域の画像のみをより高い倍率で取得および格納する。このようにして、システムは、病理医によって実行される組織サンプルの後続の分析と無関係である可能性が高い組織サンプルの部分の高い倍率の画像の取得および格納を止めることができる。高い倍率の画像は、格納および送信するのに計算集約的であるので、本明細書に記載されるシステムは、組織サンプル全体の高い倍率の画像を取得するように構成されている従来の画像化システムと比べて計算リソース消費を大幅に削減することができる。
本明細書の主題の1つまたは複数の実施形態の詳細が、添付の図面および以下の説明に記載される。主題の他の特徴、態様、および利点は、説明、図面、および特許請求の範囲から明らかになるであろう。
様々な図面における同様の参照番号および記号表示は同様の要素を示す。
図1は、例示の画像化システム100を示す。画像化システム100は、以下で説明するシステム、構成要素、および技法が実装された1つまたは複数の場所にある1つまたは複数のコンピュータのコンピュータプログラムとして実装されたシステムの一例である。
画像化システム100は、顕微鏡108を使用して生成されるサンプル106(例えば、組織サンプル)の拡大画像104を取得および格納するためにカメラ102を使用する。システム100は、異なる倍率レベル112でサンプル106のそれぞれの関心領域110の拡大画像104を生成する。以下でより詳細に説明するように、システム100は、所与の倍率レベル112で取得された関心領域110の拡大画像104を処理して、より高い倍率レベル112で画像化されるべき1つまたは複数の「精細化された」関心領域110を決定することができる。
顕微鏡スライドに装着することができるサンプル106は、あらゆる種類の材料の試料とすることができる。例えば、サンプル106は、人の体から得られる細胞の集まりを含む組織サンプルとすることができる。この例では、組織サンプルの関心領域110は、「異常」(例えば、癌性)であると予測される組織サンプルの一部に対応することができ、システム100によって生成された拡大画像104は、後続の分析のために病理医に提供することができる。
顕微鏡108は、異なる倍率レベル112でサンプル106の拡大画像104を生成することができる任意の適切な種類の顕微鏡とすることができる。例えば、顕微鏡108は、1つまたは複数のレンズを使用してサンプル106の拡大画像104を生成する光学顕微鏡とすることができる。画像の「倍率レベル」は、画像に示されているエンティティ(例えば、細胞)が実際のサイズと比較してどれくらい大きく見えるかの尺度を指す。
カメラ102は、顕微鏡108によって生成された拡大画像104を「取得する」(すなわち、それのデジタル表現を生成する)ことができる任意の適切な種類のセンサアレイ、例えば、CCDセンサとすることができる。例えば、カメラ102は、顕微鏡108によって生成された拡大画像104をカラー画像(例えば、赤-緑-青(RGB)色表現を使用する)として取得するように構成することができる。カメラ102および顕微鏡108は、医療用スライドスキャナの一部とすることができる。
システム100は、増加していく倍率レベルのシーケンスにおける各倍率レベル112でサンプル106のそれぞれの関心領域110を画像化する。例えば、増加していく倍率レベルのシーケンスは、[5倍、10倍、20倍、40倍]、または増加していく倍率レベルの任意の他の適切なシーケンスで与えることができる。システム100は、増加していく倍率レベルのシーケンスにおける最初の(すなわち、最も低い)倍率レベルでサンプル106全体を画像化することができる。その後、システム100は、検出モデル114を使用して、増加していく倍率レベルのシーケンスにおける後続の(すなわち、より高い)各倍率レベル112で画像化されるべきサンプル106の関心領域110を決定することができる。検出モデル114は、所与の倍率レベル112での所与の関心領域110の拡大画像104のデジタル表現を処理して、1つまたは複数の「精細化された」関心領域110を画定するデータを生成するように構成される。続いて、システム100は、増加していく倍率レベルのシーケンスにおける所与の倍率レベルの後の次の倍率レベルで、精細化された関心領域を画像化する。
検出モデル114は、サンプル106の関心領域110の拡大画像104を処理して、サンプル106の1つまたは複数の精細化された関心領域を画定するデータを生成することができる任意のコンピュータ実装モデルとすることができる。1つの実施態様では、サンプル106は、組織サンプルとすることができ、検出モデル114は、異常(例えば、癌性)であると予測される組織サンプルの部分に対応する精細化された関心領域を画定するデータを生成するように構成することができる。この実施態様では、システム100は、前の倍率レベル112で生成された拡大画像104に基づいて、異常(例えば、癌性)である組織サンプルの一部を示すと予測される各倍率レベル112で拡大画像104を生成する。検出モデル114の例が、図3を参照してより詳細に説明される。
システム100は、カメラ102によって生成されたサンプル106の関心領域110の拡大画像104のデジタル表現をデータストア116に格納することができる。データストア116は、例えば、物理的データストレージデバイスまたは論理的データストレージエリアとすることができる。システム100は、追加として、画像化された関心領域110の各々の場所(例えば、サンプル106の基準系における)を画定するデータを格納することができる。例えば、関心領域110の形状が長方形である場合、システム100は、(長方形の)関心領域のコーナーの位置を画定する座標(例えば、サンプル106の基準系における)を画定するデータを格納することができる。
システム100は、コンピュータ実装コントローラを使用して、部分的にまたは完全に自動化された方法で(すなわち、ほとんどまたは全く人間の介入なしに)、各倍率レベル112でサンプル106のそれぞれの関心領域110の拡大画像104を生成、取得、および格納することができる。例えば、コントローラは、(i)顕微鏡108のステージの位置、(ii)顕微鏡108の倍率設定、または(iii)両方を自動的に調節することによって、顕微鏡108に所与の倍率レベル112で関心領域110の拡大画像104を生成させることができる。その後、コントローラは、カメラ102を使用して拡大画像104を取得し、拡大画像104をデータストア116および検出モデル114に自動的に送信することができる(すなわち、精細化された関心領域を決定するためのさらなる処理のために)。コントローラは、適切なハードウェアまたはソフトウェアを使用して実現することができ、ハードウェアまたはソフトウェアの一部は、システム100の他の部分から遠隔に配置されてもよい。
図2は、異なる倍率レベルでのサンプルの関心領域の例示の拡大画像を示す。特に、拡大画像202は、5倍の倍率レベルでのサンプルの長方形の関心領域204を示す。画像化システム(図1を参照して説明した)は、検出モデルを使用して拡大画像202を処理して、精細化された関心領域206(すなわち、それは関心領域204の適切なサブセットである)を画定するデータを生成することができる。画像化システムは、続いて、倍率レベル10倍で関心領域206の拡大画像208を生成することができる。画像化システムは、検出モデルを使用して拡大画像208を処理して、精細化された関心領域210(すなわち、それは関心領域206の適切なサブセットである)を画定するデータを生成することができる。画像化システムは、続いて、倍率レベル40倍で関心領域210の拡大画像212を生成することができる。図2に示された例では、画像化システムは、各倍率レベルでサンプル全体の拡大画像を取得および格納するのではなく、それぞれの関心領域204、206、および210の拡大画像202、208、および212のみを取得および格納することができる。
図3は、増加していく倍率レベルのシーケンスにおける各倍率レベルでサンプルのそれぞれの関心領域を画像化するための例示のプロセス300の流れ図である。便宜上、プロセス300は、1つまたは複数の場所に配置された1つまたは複数のコンピュータのシステムによって実行されるとして説明される。例えば、本明細書に従って適切にプログラムされた画像化システム、例えば、図1の画像化システム100は、プロセス300を実行することができる。
特に、システムは、現在の倍率レベルで画像化されるべきサンプルの1つまたは複数の関心領域を識別する。現在の倍率レベルが、シーケンスにおける最初の(すなわち、最も低い)倍率レベルである場合、システムは、現在の倍率レベルで画像化されるべき所定の関心領域を識別することができる。例えば、システムは、現在の倍率レベルで画像化されるべきサンプル全体に対応する関心領域を識別することができる。現在の倍率レベルが、シーケンスにおける最初の倍率レベルの後である場合、システムは、精細化された関心領域を画像化することができる。精細化された関心領域は、プロセスの以前の反復中に得られた画像を分析することによって得ることができる。
最初に、スライド全体が、関心領域として設定され、倍率レベルは、カメラがスライド全体を画像化できるように設定される(302)。
次いで、プロセス300は反復プロセスに入り、各反復は、増加していく倍率レベルのシーケンスにおけるそれぞれの倍率レベルに対応する。プロセス300の最初の反復は、シーケンスにおける最初の(すなわち、最も低い)倍率レベルに対応し、後続の各反復は、以下でより詳細に説明するように、シーケンスにおける次に高い倍率レベルに対応する。
システムは、カメラを使用して、現在の倍率レベルで、サンプルの識別された各関心領域のそれぞれの画像を取得および格納する(304)。例えば、識別された関心領域ごとに、システムは、顕微鏡ステージの位置を調節して、顕微鏡に現在の倍率レベルで関心領域の画像を生成させることができる。これには、関心領域ごとに識別された座標にステージを移動させること、例えば、カメラの視野の中心にそれぞれの関心領域を置くことを含めることができる。
カメラは、顕微鏡により生成された拡大画像を、適切なフォーマットで拡大画像のデジタル表現を生成することによって、取得することができる。例えば、カメラは、拡大画像のデジタル表現をRGB色表現で生成することができ、拡大画像のデジタル表現の各ピクセルは、ピクセルのそれぞれの赤、緑、および青の色値を定義するベクトルに関連づけられる。システムは、識別された関心領域のそれぞれの拡大画像を、データストア、例えば、物理的データストレージデバイスまたは論理的データストレージエリアに格納することができる。現在の倍率レベルでのサンプルの識別された関心領域ごとに、システムは、追加として、関心領域の拡大画像を、関心領域の場所(例えば、サンプルの基準系における)を定義するデータに関連づけるデータを格納する。
システムは、終了基準が満たされているかどうかを決定する(306)。例えば、システムは、現在の倍率レベルが所定の最大倍率レベルである場合、終了基準が満たされていると決定することができる。別の例として、システムは、現在の反復の時点でデータストアに格納されたデータの累積量(例えば、メガバイト(MB)単位で測定された)が、所定の閾値を満たしているかまたは超えている場合、終了基準が満たされていると決定することができる。
終了基準が満たされているとシステムが決定した場合、システムは、後続の分析および処理のために、プロセス300の各反復で取得および格納されたそれぞれの関心領域の拡大画像を提供することができる(308)。例えば、サンプルが組織サンプルであり、それぞれの関心領域の拡大画像が、異常(例えば、癌性)であると予測される組織サンプルの部分を示している場合、システムは、拡大画像を病理医に提供することができる。遠隔医療環境では、病理医は、システムから遠隔にいることができ、システムは、データ通信リンク(例えば、インターネット)を介して病理医に組織サンプルのそれぞれの領域の拡大画像を提供することができる。いくつかの実施態様では、システムは、画像が得られたときに、例えば、画像内の関心領域が識別されるまで待って、その後にその画像を送ることをせず、データ通信リンクを介して画像を提供することができる。
終了基準が満たされていないとシステムが決定した場合、システムは、現在の倍率レベルでのサンプルの関心領域の画像に基づいて、1つまたは複数の精細化された関心領域を画定するデータを生成する(310)。これらの精細化された関心領域は、次の倍率レベルで画像化されることになる。
特に、現在の倍率レベルでのサンプルの関心領域の画像ごとに、システムは、検出モデルを使用して画像を処理して、1つまたは複数の対応する精細化された関心領域を生成する。組織サンプルの精細化された関心領域は、増加していく倍率レベルのシーケンスにおける次の倍率レベルで(すなわち、プロセス300の次の反復で)画像化されるべき関心領域を提供する。場合によっては、現在の倍率レベルでサンプルの所与の関心領域の拡大画像を処理することによって生成される各精細化された関心領域は、サンプルの適切なサブセットに対応し、特に、所与の関心領域のサブセットである。
検出モデルは、例えば、特定の特性を有する精細化された関心領域を画定するデータを生成するように訓練された機械学習モデル(例えば、線形モデル、サポートベクトルマシンモデル、ランダムフォレストモデル、またはニューラルネットワークモデル)とすることができる。特定の例では、サンプルは、組織サンプルとすることができ、機械学習モデルは、異常(例えば、癌性)である予測される組織サンプルの部分に対応する精細化された関心領域を画定するデータを生成するように訓練され得る。以下にいくつかの例が続く。
1つの実施態様では、検出モデルは、現在の倍率レベルでの組織サンプルの関心領域の拡大画像のピクセルごとにそれぞれの確率値を生成するように訓練された機械学習モデルとすることができる。ピクセルに対して検出モデルによって生成された確率値は、ピクセルが組織サンプルの異常部分に対応する確度を表すことができる。システムは、バウンディングボックスの座標を決定することによって組織サンプルの精細化された関心領域を画定するデータを生成することができ、バウンディングボックスの各々によって囲まれたピクセルの対応する確率値は、所定の閾値を超える中心傾向の測度(例えば、平均値)を有する。検出モデルは、以下に明記する訓練例に基づいて訓練され得る。(i)組織サンプルの領域を示す訓練拡大画像、および(ii)訓練拡大画像の各ピクセルが組織サンプルの異常部分に対応するかどうかを定義するラベル。
別の実施態様では、検出モデルは、現在の倍率レベルでの組織サンプルの領域の拡大画像の一部を囲むバウンディングボックスの座標を定義するデータを生成するように訓練された機械学習モデルとすることができる。組織サンプルの異常部分に対応するように、各バウンディングボックスを予測することができ、システムは、生成される各バウンディングボックスを、組織サンプルのそれぞれの精細化された関心領域を画定するように決定することができる。検出モデルは、以下に明記する訓練例に基づいて訓練され得る。(i)組織サンプルの領域を示す訓練拡大画像、および(ii)組織サンプルの異常部分に対応するバウンディングボックスを画定する座標。
システムは、異なる倍率レベルでのサンプルの関心領域の拡大画像を処理するために異なる検出モデルを使用することができる。すなわち、システムは、プロセス300の各反復で異なる検出モデルを使用することができる。例えば、システムは、パラメータ値の第1のセットを有する第1の機械学習モデルを使用して、第1の倍率レベルでの拡大画像を処理し、パラメータ値の第2のセットを有する第2の機械学習モデルを使用して、第2の倍率レベルでの拡大画像を処理することができる。この例では、パラメータ値の第1のセットは、第1の倍率レベルでの訓練拡大画像を含む訓練例に基づいて第1の機械学習モデルを訓練することによって決定され得る。同様に、パラメータ値の第2のセットは、第2の倍率レベルでの訓練拡大画像を含む訓練例に基づいて第2の機械学習モデルを訓練することによって決定され得る。異なる倍率レベルでの拡大画像を処理するように特化されている検出モデルを使用することによって、システムは、システムが単一の検出モデルを使用してすべての倍率レベルでの拡大画像を処理する場合よりも正確である精細化された関心領域を生成することができる。
システムは、サンプルの関心領域の拡大画像を前処理し、その後、検出モデルを使用してそれを処理して、精細化された関心領域を生成することができる。1つの例では、サンプルは組織サンプルとすることができ、システムは、染色正規化技法を使用して組織サンプルの関心領域の拡大画像を前処理することができる。染色正規化技法は、組織サンプルに適用された染色剤による画像の外観の変動を低減するために組織サンプルの画像を修正するための数値法を指す。
いくつかの場合には、システムは、現在の倍率レベルでの関心領域のうちの1つまたは複数をより高い倍率レベルでさらに画像化すべきでないことを決定することができる。例えば、サンプルは、組織サンプルとすることができ、検出モデルは、所与の関心領域が組織サンプルの正常な部分に対応する可能性が高いことを示す所与の関心領域の拡大画像のピクセルごとにそれぞれの確率値を生成することができる。現在の倍率レベルでの関心領域のどれも、より高い倍率レベルでさらに画像化されるべきでないとシステムが決定する場合、プロセス300は終了することができる。
サンプルの関心領域は、任意の適切な形状、例えば、長方形形状、円形形状を有することができる。サンプルの関心領域を画定するデータは、任意の適切なフォーマットで表すことができる。例えば、関心領域が長方形形状を有する場合、関心領域を画定するデータは、長方形の関心領域のコーナーの座標(例えば、サンプルの基準系における)を含むことができる。
新しい関心領域の識別の後にまたはそれと同時に、倍率レベルを次のレベルに上げることができる、例えば、顕微鏡倍率設定をロボットのアクチュエータを使用して設定する(312)。次いで、プロセスは、新しい倍率レベルで関心領域の画像を取得および格納することに進む(304に戻る)。
便宜上、プロセス300は、増加していく倍率レベルの順序でサンプルの関心領域を画像化するとして、画像化システムを説明している。より具体的には、プロセス300は、より低い倍率レベルに対応する各関心領域がより高い倍率レベルに対応する各関心領域の前にどのようにして画像化されるかを説明している。より一般的には、システムは、関心領域を任意の適切な順序で画像化することができる。例えば、システムは、階層ツリー手法を使用することができる。
図4は、上述の操作を実行するために使用することができる例示のコンピュータシステム400のブロック図である。システム400は、プロセッサ410、メモリ420、ストレージデバイス430、および入力/出力デバイス440を含む。構成要素410、420、430、および440の各々は、例えば、システムバス450を使用して相互接続することができる。プロセッサ410は、システム400内で実行するための命令を処理することができる。1つの実施態様では、プロセッサ410は、シングルスレッドプロセッサである。別の実施態様では、プロセッサ410はマルチスレッドプロセッサである。プロセッサ410は、メモリ420にまたはストレージデバイス430に格納された命令を処理することができる。
メモリ420は、システム400内の情報を格納する。1つの実施態様では、メモリ420は、コンピュータ可読媒体である。1つの実施態様では、メモリ420は、揮発性メモリユニットである。別の実施態様では、メモリ420は、不揮発性メモリユニットである。
ストレージデバイス430は、大容量ストレージをシステム400に提供することができる。1つの実施態様では、ストレージデバイス430は、コンピュータ可読媒体である。様々な異なる実施態様において、ストレージデバイス430は、例えば、ハードディスクデバイス、光ディスクデバイス、多数のコンピューティングデバイスによってネットワークを介して共有されるストレージデバイス(例えば、クラウドストレージデバイス)、または他の大容量ストレージデバイスを含むことができる。
入力/出力デバイス440は、システム400に入力/出力操作を提供する。1つの実施態様では、入力/出力デバイス440は、1つまたは複数のネットワークインタフェースデバイス、例えば、イーサネットカード、シリアル通信デバイス、例えば、RS-232ポート、および/または無線インタフェースデバイス、例えば、802.11カードを含むことができる。別の実施態様では、入力/出力デバイスは、入力データを受け取り、出力データを他の入力/出力デバイス、例えば、キーボード、プリンタ、およびディスプレイデバイス460に送るように構成されたドライバデバイスを含むことができる。しかしながら、モバイルコンピューティングデバイス、モバイル通信デバイス、セットトップボックステレビジョンクライアントデバイスなどのような他の実施態様を使用することもできる。
例示の処理システムが図4に記載されているが、本明細書に記載される主題および機能動作の実施態様は、本明細書で開示される構造およびその構造的等価物を含む、他のタイプのデジタル電子回路で、またはコンピュータソフトウェア、ファームウェア、もしくはハードウェアで、またはそれらのうちの1つまたは複数の組合せで実施することができる。
本明細書は、システムおよびコンピュータプログラムコンポーネントに関連して「構成される」という用語を使用する。1つまたは複数のコンピュータのシステムが特定の動作またはアクションを実行するように構成されるとは、システムが、動作時にシステムに動作またはアクションを実行させるソフトウェア、ファームウェア、ハードウェア、またはそれらの組合せをインストールしていることを意味する。1つまたは複数のコンピュータプログラムが特定の動作またはアクションを実行するように構成されるとは、1つまたは複数のプログラムが、データ処理装置によって実行されたとき、装置に動作またはアクションを実行させる命令を含むことを意味する。
本明細書に記載される主題および機能動作の実施形態は、本明細書で開示される構造およびその構造的等価物を含む、デジタル電子回路で、有形に具現化されたコンピュータソフトウェアもしくはファームウェアで、コンピュータコンピュータハードウェアで、またはそれらのうちの1つまたは複数の組合せで実施することができる。本明細書に記載される主題および機能動作の実施形態は、1つまたは複数のコンピュータプログラム、すなわち、データ処理装置で実行するためのまたはデータ処理装置の動作を制御するための有形の非一時的ストレージ媒体にエンコードされたコンピュータプログラム命令の1つまたは複数のモジュールとして実施することができる。コンピュータストレージ媒体は、機械可読ストレージデバイス、機械可読ストレージ基板、ランダムもしくはシリアルアクセスメモリデバイス、またはそれらのうちの1つまたは複数の組合せとすることができる。代替としてまたは加えて、プログラム命令は、データ処理装置による実行のために適切な受信器装置に送信するための情報をエンコードするために生成される人工的に生成された伝搬信号、例えば、機械生成された電気、光、電磁気信号でエンコードすることができる。
「データ処理装置」という用語は、データ処理ハードウェアを指し、例として、プログラマブルプロセッサ、コンピュータ、または多数のプロセッサもしくはコンピュータを含む、データを処理するためのあらゆる種類の装置、デバイス、および機械を包含する。装置は、専用論理回路、例えば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)とすることもでき、またはそれをさらに含むことができる。装置は、オプションとして、ハードウェアに加えて、コンピュータプログラムのための実行環境を作り出すコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらのうちの1つまたは複数の組合せを構成するコードを含むことができる。
プログラム、ソフトウェア、ソフトウェアアプリケーション、アプリ、モジュール、ソフトウェアモジュール、スクリプト、もしくはコードと呼ばれるか、またはそのように記述される場合もあるコンピュータプログラムは、コンパイラ型言語もしくはインタープリタ型言語、または宣言型言語もしくは手続き型言語を含む、任意の形態のプログラミング言語で書くことができ、スタンドアロンプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピュータ環境で使用するのに適する他のユニットとしてを含む、任意の形態で展開することができる。プログラムは、ファイルシステム内のファイルに対応することができるが、そうである必要はない。プログラムは、他のプログラムまたはデータ、例えば、マークアップ言語ドキュメントに格納された1つまたは複数のスクリプトを保持するファイルの一部に、当該のプログラムに専用の単一のファイルに、または多数の協調ファイルに、例えば、1つまたは複数のモジュール、サブプログラム、もしくはコードの一部分を格納するファイルに格納することができる。コンピュータプログラムは、1つのコンピュータで実行されるように展開することができ、または1つのサイトに配置されるか、もしくは多数のサイトにわたって分散され、データ通信ネットワークによって相互接続される多数のコンピュータで実行されるように展開することができる。
本明細書では、「エンジン」という用語は、1つまたは複数の特定の機能を実行するようにプログラムされたソフトウェアベースシステム、サブシステム、またはプロセスを指すように広く使用される。一般に、エンジンは、1つまたは複数の場所にある1つまたは複数のコンピュータにインストールされた1つまたは複数のソフトウェアモジュールまたはコンポーネントとして実装されることになる。ある場合には、1つまたは複数のコンピュータが、特定のエンジンに専用にされることになり、他の場合には、多数のエンジンが、同じ1つまたは複数のコンピュータにインストールおよび実行され得る。
本明細書に記載されるプロセスおよび論理の流れは、1つまたは複数のプログラマブルコンピュータが1つまたは複数のコンピュータプログラムを実行することによって実行されて、入力データを処理し出力を生成することによって機能を実行され得る。プロセスおよび論理の流れはまた、専用論理回路、例えば、FPGA、ASICによって、または専用論理回路と1つまたは複数のプログラムされたコンピュータの組合せによって実行され得る。
コンピュータプログラムの実行に適するコンピュータは、汎用マイクロプロセッサ、専用マイクロプロセッサ、もしくは両方、または任意の他の種類の中央処理装置に基づくことができる。一般に、中央処理装置は、読出し専用メモリ、ランダムアクセスメモリ、または両方から命令およびデータを受け取ることになる。コンピュータの必須要素は、命令を遂行または実行するための中央処理装置、ならびに命令およびデータを格納するための1つまたは複数のメモリデバイスである。中央処理装置およびメモリは、専用論理回路によって補足されるか、またはそれに組み込まれてもよい。一般に、コンピュータはまた、データを格納するための1つまたは複数の大容量ストレージデバイス、例えば、磁気ディスク、光磁気ディスク、光ディスクを含むか、またはそれからデータを受け取るか、それにデータを転送するか、もしくは両方のためにそれに動作可能に結合されることになる。しかしながら、コンピュータは、そのようなデバイスを有する必要はない。その上、コンピュータは、別のデバイス、例えば、数例を挙げると、携帯電話、携帯情報端末(PDA)、モバイルオーディオもしくはビデオプレーヤー、ゲーム機、全地球測位システム(GPS)受信器、または携帯用ストレージデバイス、例えば、ユニバーサルシリアルバス(USB)フラッシュドライブに組み込むことができる。
コンピュータプログラム命令およびデータを格納するのに適するコンピュータ可読コンピュータストレージ媒体は、例として、半導体メモリデバイス(例えば、EPROM、EEPROM、フラッシュメモリデバイス)、磁気ディスク(例えば、内蔵ハードディスクまたは取外し可能ディスク)、光磁気ディスク、ならびにCD ROMおよびDVD-ROMディスクを含む、すべての形態の不揮発性メモリ、媒体、およびメモリデバイスを含む。
ユーザとの対話を可能にするために、本明細書に記載される主題の実施形態は、情報をユーザに表示のためのディスプレイデバイス、例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ、およびユーザがコンピュータに入力することができるキーボードおよびポインティングデバイス、例えば、マウス、トラックボールを有するコンピュータで実施することができる。他の種類のデバイスを使用して、同様に、ユーザとの対話を可能にすることができ、例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック、例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバックとすることができ、ユーザからの入力は、音響、音声、または触覚入力を含む任意の形態で受け取られ得る。加えて、コンピュータは、ユーザが使用するデバイスにドキュメントを送り、およびユーザが使用するデバイスからドキュメントを受け取ることによって、例えば、ウェブブラウザから受け取った要求に応じて、ユーザのデバイスのウェブブラウザにウェブページを送ることによって、ユーザと対話することができる。また、コンピュータは、テキストメッセージまたは他の形態のメッセージをパーソナルデバイス、例えば、メッセージングアプリケーションを実行しているスマートフォンに送り、返信としてユーザから応答メッセージを受け取ることによってユーザと対話することができる。
機械学習モデルを実施するためのデータ処理装置はまた、機械学習の訓練または生成の共通および計算集約的部分、すなわち、推測、作業負荷を処理するために、例えば、専用ハードウェアアクセラレータユニットを含むことができる。
機械学習モデルは、機械学習フレームワーク、例えば、TensorFlowフレームワーク、Microsoft Cognitive Toolkitフレームワーク、Apache Singaフレームワーク、またはApache MXNetフレームワークを使用して実施および展開することができる。
本明細書に記載された主題の実施形態は、例えばデータサーバとしてバックエンド構成要素を含むコンピューティングシステムで、またはミドルウェア構成要素、例えばアプリケーションサーバを含むコンピューティングシステムで、またはフロントエンド構成要素、例えば、ユーザが本明細書に記載される主題の実施態様と対話することができるグラフィカルユーザインタフェース、ウェブブラウザ、またはアプリを有するクライアントコンピュータを含むコンピューティングシステムで、あるいは1つまたは複数のそのようなバックエンド、ミドルウェア、またはフロントエンド構成要素の任意の組合せで実施することができる。システムの構成要素は、任意の形態または媒体のデジタルデータ通信、例えば、通信ネットワークによって相互接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)およびワイドエリアネットワーク(WAN)、例えば、インターネットを含む。
コンピューティングシステムは、クライアントおよびサーバを含むことができる。クライアントおよびサーバは、一般に、互いに離れており、一般に、通信ネットワークを通して対話する。クライアントとサーバの関係は、それぞれのコンピュータ上で作動し、互いにクライアント-サーバ関係を有するコンピュータプログラムによって生じる。いくつかの実施形態では、サーバは、例えば、クライアントとして働くデバイスと対話するユーザにデータを表示し、ユーザからのユーザ入力を受信するために、データ、例えばHTMLページをユーザデバイスに送信する。ユーザデバイスにおいて生成されたデータ、例えば、ユーザ対話の結果は、サーバにおいてデバイスから受信され得る。
本明細書は多くの特別の実施態様を含むが、これらは、発明の範囲または特許請求され得るものの範囲への限定として解釈されるべきでなく、むしろ、特定の発明の特定の実施形態に固有であり得る特徴の説明として解釈されるべきである。本明細書において別個の実施形態の文脈で説明されているいくつかの特徴は、単一の実施形態において組み合わせて実施することもできる。逆に、単一の実施形態の文脈に記載されている様々な特徴は、多数の実施形態において別個にまたは適切な副組合せで実施することもできる。その上、特徴は特定の組合せで作用するとして上述され、さらに最初にそのように特許請求されることがあるが、特許請求された組合せからの1つまたは複数の特徴は、場合によっては、組合せから削除されてもよく、特許請求された組合せは、副組合せ、または副組合せの変形に関することもある。
同様に、動作が、特定の順序で図面に示され、特許請求の範囲に列挙されているが、これは、望ましい結果を達成するために、そのような動作が、示された特定の順序でもしくは一連の順序で実行されること、またはすべての図示の動作が実行されることを必要とするとして理解されるべきでない。特定の状況では、マルチタスキングおよび並列処理が有利であり得る。その上、上述の実施形態における様々なシステムモジュールおよび構成要素の分離は、すべての実施形態においてそのような分離を必要とするとして理解されるべきでなく、記載されたプログラムコンポーネントおよびシステムは、一般に、単一のソフトウェア製品に一緒に統合されるか、または多数のソフトウェア製品にパッケージ化されてもよいことを理解されたい。
主題の特定の実施形態が説明された。他の実施形態は、以下の特許請求の範囲の範囲内にある。例えば、特許請求の範囲に列挙されたアクションは、異なる順序で実行することができ、依然として、望ましい結果を達成することができる。1つの例として、添付の図に示されたプロセスは、望ましい結果を達成するために、示された特定の順序または一連の順序を必ずしも必要としない。場合によっては、マルチタスキングおよび並列処理が有利であり得る。
Claims (15)
- 組織サンプルの関心領域の拡大画像を生成するための顕微鏡と、
前記顕微鏡によって生成された前記拡大画像を取得および格納するためのカメラと、
増加していく倍率レベルのシーケンスにおける倍率レベルごとに、
現在の倍率レベルで前記組織サンプルの1つまたは複数の関心領域を、関心領域ごとに、
前記現在の倍率レベルで前記組織サンプルの前記関心領域の拡大画像を生成するために前記顕微鏡を使用すること、
前記現在の倍率レベルで前記組織サンプルの前記関心領域の前記拡大画像を取得および格納するために前記カメラを使用すること、および
前記現在の倍率レベルでの前記組織サンプルの前記関心領域の前記拡大画像に基づいて、1つまたは複数の精細化された関心領域を画定するデータを生成することであり、各精細化された関心領域が前記組織サンプルの適切なサブセットに対応し、前記組織サンプルの前記精細化された関心領域が、前記増加していく倍率レベルのシーケンスからの次の倍率レベルで画像化されるべき前記関心領域を提供する、生成すること
を含めて、画像化する
ように構成されたコントローラと
を含む画像化システム。 - 前記現在の倍率レベルでの前記組織サンプルの前記関心領域の前記拡大画像に基づいて、1つまたは複数の精細化された関心領域を画定するデータを生成することが、
前記1つまたは複数の精細化された関心領域を画定するデータを生成するために、前記現在の倍率レベルでの前記組織サンプルの前記関心領域の前記拡大画像を検出モデルを使用して処理することを含む、請求項1に記載のシステム。 - 前記検出モデルが、癌性であると予測される前記組織サンプルの部分に対応する精細化された関心領域を画定するデータを生成するように構成される、請求項2に記載のシステム。
- 前記検出モデルが1つまたは複数のニューラルネットワークを含む、請求項2に記載のシステム。
- 前記増加していく倍率レベルのシーケンスにおける特定の倍率レベルごとに、前記コントローラが、前記特定の倍率レベルでの拡大画像を処理するように特化されている特定の検出モデルを使用する、請求項2に記載のシステム。
- 前記現在の倍率レベルで前記組織サンプルの前記関心領域の拡大画像を生成するために顕微鏡を使用することが、前記顕微鏡に、前記現在の倍率レベルで前記組織サンプルの前記関心領域の拡大画像を生成させるために、(i)前記顕微鏡のステージの位置、(ii)前記顕微鏡の倍率設定、または(iii)両方を調節することを含む、請求項1に記載のシステム。
- 1つまたは複数のデータ処理装置によって実行される方法であって、増加していく倍率レベルのシーケンスにおける倍率レベルごとに、
現在の倍率レベルで組織サンプルの1つまたは複数の関心領域を、関心領域ごとに、
前記現在の倍率レベルで前記組織サンプルの前記関心領域の拡大画像を生成するために顕微鏡を使用すること、
前記現在の倍率レベルで前記組織サンプルの前記関心領域の前記拡大画像を取得および格納するためにカメラを使用すること、および
前記現在の倍率レベルでの前記組織サンプルの前記関心領域の前記拡大画像に基づいて、1つまたは複数の精細化された関心領域を画定するデータを生成することであり、各精細化された関心領域が前記組織サンプルの適切なサブセットに対応し、前記組織サンプルの前記精細化された関心領域が、前記増加していく倍率レベルのシーケンスからの次の倍率レベルで画像化されるべき前記関心領域を提供する、生成すること
を含めて、画像化すること
を含む、方法。 - 前記現在の倍率レベルでの前記組織サンプルの前記関心領域の前記拡大画像に基づいて、1つまたは複数の精細化された関心領域を画定するデータを生成することが、前記1つまたは複数の精細化された関心領域を画定するデータを生成するために、前記現在の倍率レベルでの前記組織サンプルの前記関心領域の前記拡大画像を検出モデルを使用して処理することを含む、請求項7に記載の方法。
- 前記検出モデルが、癌性であると予測される前記組織サンプルの部分に対応する精細化された関心領域を画定するデータを生成するように構成される、請求項8に記載の方法。
- 前記検出モデルが1つまたは複数のニューラルネットワークを含む、請求項8に記載の方法。
- 前記増加していく倍率レベルのシーケンスにおける特定の倍率レベルごとに、コントローラが、前記特定の倍率レベルでの拡大画像を処理するように特化されている特定の検出モデルを使用する、請求項8に記載の方法。
- 前記現在の倍率レベルで前記組織サンプルの前記関心領域の拡大画像を生成するために顕微鏡を使用することが、前記顕微鏡に、前記現在の倍率レベルで前記組織サンプルの前記関心領域の拡大画像を生成させるために、(i)顕微鏡のステージの位置、(ii)前記顕微鏡の倍率設定、または(iii)両方を調節することを含む、請求項7に記載の方法。
- 1つまたは複数のコンピュータによって実行されるとき、増加していく倍率レベルのシーケンスにおける倍率レベルごとに、
現在の倍率レベルで組織サンプルの1つまたは複数の関心領域を、関心領域ごとに、
前記現在の倍率レベルで前記組織サンプルの前記関心領域の拡大画像を生成するために顕微鏡を使用すること、
前記現在の倍率レベルで前記組織サンプルの前記関心領域の前記拡大画像を取得および格納するためにカメラを使用すること、および
前記現在の倍率レベルでの前記関心領域の前記拡大画像に基づいて、1つまたは複数の精細化された関心領域を画定するデータを生成することであり、各精細化された関心領域が前記組織サンプルの適切なサブセットに対応し、前記組織サンプルの前記精細化された関心領域が、前記増加していく倍率レベルのシーケンスからの次の倍率レベルで画像化されるべき前記関心領域を提供する、生成すること
を含めて、画像化すること
を含む操作を前記1つまたは複数のコンピュータに実行させる命令でエンコードされた1つまたは複数の非一時的コンピュータ可読ストレージ媒体。 - 前記現在の倍率レベルでの前記組織サンプルの前記関心領域の前記拡大画像に基づいて、1つまたは複数の精細化された関心領域を画定するデータを生成することが、前記1つまたは複数の精細化された関心領域を画定するデータを生成するために、前記現在の倍率レベルでの前記組織サンプルの前記関心領域の前記拡大画像を検出モデルを使用して処理することを含む、請求項13に記載の非一時的コンピュータ可読ストレージ媒体。
- 前記検出モデルが、癌性であると予測される前記組織サンプルの部分に対応する精細化された関心領域を画定するデータを生成するように構成される、請求項14に記載の非一時的コンピュータ可読ストレージ媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962795467P | 2019-01-22 | 2019-01-22 | |
US62/795,467 | 2019-01-22 | ||
JP2021542389A JP7337937B2 (ja) | 2019-01-22 | 2020-01-17 | 拡大画像の取得およびストレージ |
PCT/US2020/014156 WO2020154203A1 (en) | 2019-01-22 | 2020-01-17 | Capture and storage of magnified images |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542389A Division JP7337937B2 (ja) | 2019-01-22 | 2020-01-17 | 拡大画像の取得およびストレージ |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023166444A true JP2023166444A (ja) | 2023-11-21 |
Family
ID=71608395
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542389A Active JP7337937B2 (ja) | 2019-01-22 | 2020-01-17 | 拡大画像の取得およびストレージ |
JP2023135215A Pending JP2023166444A (ja) | 2019-01-22 | 2023-08-23 | 拡大画像の取得およびストレージ |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542389A Active JP7337937B2 (ja) | 2019-01-22 | 2020-01-17 | 拡大画像の取得およびストレージ |
Country Status (6)
Country | Link |
---|---|
US (2) | US11232561B2 (ja) |
EP (1) | EP3914953A4 (ja) |
JP (2) | JP7337937B2 (ja) |
KR (1) | KR20210106024A (ja) |
CN (1) | CN113439227B (ja) |
WO (1) | WO2020154203A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11232561B2 (en) | 2019-01-22 | 2022-01-25 | Applied Materials, Inc. | Capture and storage of magnified images |
JP2022121167A (ja) * | 2021-02-08 | 2022-08-19 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法およびプログラム |
US11960864B2 (en) * | 2021-09-27 | 2024-04-16 | Microsoft Technology Licensing, Llc. | Creating applications and templates based on different types of input content |
WO2023121110A1 (en) * | 2021-12-24 | 2023-06-29 | Lunit Inc. | Method and device for outputting pathology slide image |
WO2024117934A1 (ru) * | 2022-11-29 | 2024-06-06 | Общество с ограниченной ответственностью "Медика Продакт" | Способ оцифровки биологического препарата костного мозга с использованием нейронных сетей |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3224860B2 (ja) * | 1992-06-19 | 2001-11-05 | ポーラ化成工業株式会社 | 顕微鏡画像評価システム |
US6404906B2 (en) * | 1997-03-03 | 2002-06-11 | Bacus Research Laboratories,Inc. | Method and apparatus for acquiring and reconstructing magnified specimen images from a computer-controlled microscope |
US7139415B2 (en) | 2001-12-05 | 2006-11-21 | The Regents Of The University Of California | Robotic microscopy systems |
WO2003105675A2 (en) * | 2002-06-18 | 2003-12-24 | Lifespan Biosciences, Inc. | Computerized image capture of structures of interest within a tissue sample |
US20070031043A1 (en) * | 2005-08-02 | 2007-02-08 | Perz Cynthia B | System for and method of intelligently directed segmentation analysis for automated microscope systems |
US20080179301A1 (en) | 2006-08-25 | 2008-07-31 | Guy Garty | Systems and methods for etching materials |
WO2010135075A1 (en) | 2009-05-20 | 2010-11-25 | Carl Zeiss Smt Inc. | Scan method |
JP5660273B2 (ja) | 2010-01-04 | 2015-01-28 | 日本電気株式会社 | 画像診断方法、画像診断装置および画像診断プログラム |
US10139613B2 (en) | 2010-08-20 | 2018-11-27 | Sakura Finetek U.S.A., Inc. | Digital microscope and method of sensing an image of a tissue sample |
EP2518514B1 (en) | 2011-04-29 | 2014-06-18 | F. Hoffmann-La Roche AG | A method for operating an automated sample workcell |
CA3198619A1 (en) | 2012-07-25 | 2014-01-30 | Theranos Ip Company, Llc | Image analysis and measurement of biological samples |
US10078778B2 (en) | 2015-01-15 | 2018-09-18 | Massachusetts Institute Of Technology | Systems, methods, and apparatus for in vitro single-cell identification and recovery |
US10203491B2 (en) | 2016-08-01 | 2019-02-12 | Verily Life Sciences Llc | Pathology data capture |
US10573003B2 (en) * | 2017-02-13 | 2020-02-25 | Amit Sethi | Systems and methods for computational pathology using points-of-interest |
JP6947841B2 (ja) | 2017-06-13 | 2021-10-13 | グーグル エルエルシーGoogle LLC | 病理学用の拡張現実顕微鏡 |
TWI699816B (zh) * | 2017-12-26 | 2020-07-21 | 雲象科技股份有限公司 | 自動化顯微鏡系統之控制方法、顯微鏡系統及電腦可讀取記錄媒體 |
US11232561B2 (en) | 2019-01-22 | 2022-01-25 | Applied Materials, Inc. | Capture and storage of magnified images |
-
2020
- 2020-01-17 US US16/746,569 patent/US11232561B2/en active Active
- 2020-01-17 KR KR1020217026248A patent/KR20210106024A/ko active IP Right Grant
- 2020-01-17 CN CN202080015035.6A patent/CN113439227B/zh active Active
- 2020-01-17 WO PCT/US2020/014156 patent/WO2020154203A1/en unknown
- 2020-01-17 EP EP20745059.4A patent/EP3914953A4/en active Pending
- 2020-01-17 JP JP2021542389A patent/JP7337937B2/ja active Active
-
2022
- 2022-01-07 US US17/571,427 patent/US11694331B2/en active Active
-
2023
- 2023-08-23 JP JP2023135215A patent/JP2023166444A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US11232561B2 (en) | 2022-01-25 |
KR20210106024A (ko) | 2021-08-27 |
CN113439227A (zh) | 2021-09-24 |
EP3914953A4 (en) | 2022-12-07 |
JP2022523661A (ja) | 2022-04-26 |
WO2020154203A1 (en) | 2020-07-30 |
CN113439227B (zh) | 2023-06-09 |
US20220164952A1 (en) | 2022-05-26 |
JP7337937B2 (ja) | 2023-09-04 |
US11694331B2 (en) | 2023-07-04 |
EP3914953A1 (en) | 2021-12-01 |
US20200234441A1 (en) | 2020-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7337937B2 (ja) | 拡大画像の取得およびストレージ | |
JP7295906B2 (ja) | ニューラルネットワークを使用したシーンの理解および生成 | |
US10810735B2 (en) | Method and apparatus for analyzing medical image | |
US10885365B2 (en) | Method and apparatus for detecting object keypoint, and electronic device | |
US20190311223A1 (en) | Image processing methods and apparatus, and electronic devices | |
JP6902122B2 (ja) | ダブル視野角画像較正および画像処理方法、装置、記憶媒体ならびに電子機器 | |
CN109118456B (zh) | 图像处理方法和装置 | |
CN109377508B (zh) | 图像处理方法和装置 | |
EP3852007A2 (en) | Method, apparatus, electronic device, readable storage medium and program for classifying video | |
CN113592807B (zh) | 一种训练方法、图像质量确定方法及装置、电子设备 | |
KR20200102409A (ko) | 키 프레임 스케줄링 방법 및 장치, 전자 기기, 프로그램과 매체 | |
US11983903B2 (en) | Processing images using self-attention based neural networks | |
CN108597034B (zh) | 用于生成信息的方法和装置 | |
CN111462005A (zh) | 处理显微图像的方法、装置、计算机设备及存储介质 | |
CN109064464B (zh) | 用于检测电池极片毛刺的方法和装置 | |
WO2024159888A1 (zh) | 复原图像的方法、装置、计算机设备、程序产品及存储介质 | |
CN108664948B (zh) | 用于生成信息的方法和装置 | |
JP2019125128A (ja) | 情報処理装置、制御方法、及びプログラム | |
US12125247B2 (en) | Processing images using self-attention based neural networks | |
CN118172626B (zh) | 图像分割模型训练方法、装置、电子设备及存储介质 | |
CN116523780A (zh) | 基于gan的去除图像运动模糊的方法、设备及介质 | |
CN118172542A (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
KR20240018150A (ko) | 영상 잡음 제거 방법 및 장치 | |
CN114596263A (zh) | 深度学习的主板外观检测方法、装置、设备及存储介质 | |
CN118071806A (zh) | 用于机器学习数据增强的图像纹理操纵 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230921 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230921 |